Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera

Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera

Konto Tay.ai na Twitterze
Konto Tay.ai na Twitterze
Mateusz Żołyniak
25.03.2016 18:14, aktualizacja: 25.03.2016 19:14

Rozwiązania wykorzystujące sztuczną inteligencję to przyszłość. O ile oczywiście nie zamienią się w narzędzia szerzące poglądy Donalda Trumpa czy Adolfa Hiltera...

Niezły pomysł Microsoftu...

Pod nazwą Tay.ai kryje się sztuczna inteligencja Microsoftu, która działa jako robot odpowiadający na pytania użytkowników i prowadzący z nimi rozmowy. Program swoim zachowaniem miał imitować niewinną i nieco naiwną nastolatkę. Tay - dzięki wykorzystanym algorytmom - miała uczyć się prowadzenia konwersacji, a także poznawać język wykorzystywany przez młodszych użytkowników.

Oprogramowanie - w zamyśle twórców - miało się uczyć na bazie każdej kolejnej rozmowy z użytkownikami, a nawet przejmować ich poglądy i opinie. Tay dzięki temu miała być z czasem nie tylko coraz mądrzejsza, ale i tworzyłaby własną osobowość. Projekt Tay publiczny debiut zaliczył w środę - użytkownicy mogli porozmawiać z chatbotem na kilku serwisach, w tym poprzez oficjalny profil usługi na Twitterze.

... legł w gruzach przed upływem 24 godzin

Nie minęła jednak doba od startu projektu, a Tay najpierw polecała konsolę PlayStation 4, później obrażała polityków i całe grupy społeczne, aż wreszcie zaczęła głosić poparcie dla poglądów Adolfa Hiltera i Donalda Trumpa. Microsoft musiał więc wyłączyć usługę oraz wyczyści powstały śmietnik.

Co poszło nie tak? Od strony technicznej wszystko przebiegło tak, jak należy. Program zdobywał nową wiedzę, którą następnie analizował i wykorzystywał. Microsoft nie wziął jednak pod uwagę, że do Tay może dobrać się cała armia trolli internetowych oraz osób głoszących rasistowskie poglądy i szeroko rozumianą mowę nienawiści. Efekty ich działań widoczne są na zrzutach ekranu.

Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay
Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay© @geraldmellor

Cała sytuacja wzbudziła sporo kontrowersji, a na Microsoft spłynęła fala krytyki. Ciężko powiedzieć, czy jest ona słuszna. Twórcy nie nałożyli ograniczeń na chatbota, gdyż zależało im, aby od początku samodoskonalił się i budował osobowość. Tay wyłapywała więc nieodpowiednie zwroty, które padały podczas konwersacji i - zgodnie z założeniami - zaczęła z nich korzystać. To użytkownicy szerzący mowę nienawiści odpowiedzialni są za zaistniałą sytuację. Winą Microsoftu jest jedynie to, że przecenił intencje wielu użytkowników.

Toy a Cortana

Fragment filmu "Her"
Fragment filmu "Her"© youtube

Zespół odpowiedzialny za projekt zapowiedział już, że przed ponownym uruchomieniem usługi wprowadzi odpowiednie poprawki. Mam nadzieję, że się im uda, a druga próba będzie bardziej udana. Tay.ai może być bowiem bardzo ciekawym rozwiązania, które pomoże np. w doskonaleniu Cortany.

Jeżeli algorytmy wykorzystane w robocie sprawdzą się, Microsoft będzie mógł przenieść je do swojego asystenta głosowego. W praktyce umożliwiłoby to ewoluowanie osobowości Cortany, aby - wzorem sztucznej inteligencji z filmu "Her" - lepiej odpowiadała wymaganiom użytkowników. Czas pokaże, czy tak rzeczywiście się stanie.

Źródło artykułu:WP Komórkomania
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (0)