Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera

Rozwiązania wykorzystujące sztuczną inteligencję to przyszłość. O ile oczywiście nie zamienią się w narzędzia szerzące poglądy Donalda Trumpa czy Adolfa Hiltera...

Konto Tay.ai na Twitterze
Konto Tay.ai na Twitterze
Mateusz Żołyniak

Niezły pomysł Microsoftu...

Pod nazwą Tay.ai kryje się sztuczna inteligencja Microsoftu, która działa jako robot odpowiadający na pytania użytkowników i prowadzący z nimi rozmowy. Program swoim zachowaniem miał imitować niewinną i nieco naiwną nastolatkę. Tay - dzięki wykorzystanym algorytmom - miała uczyć się prowadzenia konwersacji, a także poznawać język wykorzystywany przez młodszych użytkowników.

Oprogramowanie - w zamyśle twórców - miało się uczyć na bazie każdej kolejnej rozmowy z użytkownikami, a nawet przejmować ich poglądy i opinie. Tay dzięki temu miała być z czasem nie tylko coraz mądrzejsza, ale i tworzyłaby własną osobowość. Projekt Tay publiczny debiut zaliczył w środę - użytkownicy mogli porozmawiać z chatbotem na kilku serwisach, w tym poprzez oficjalny profil usługi na Twitterze.

... legł w gruzach przed upływem 24 godzin

Nie minęła jednak doba od startu projektu, a Tay najpierw polecała konsolę PlayStation 4, później obrażała polityków i całe grupy społeczne, aż wreszcie zaczęła głosić poparcie dla poglądów Adolfa Hiltera i Donalda Trumpa. Microsoft musiał więc wyłączyć usługę oraz wyczyści powstały śmietnik.

Co poszło nie tak? Od strony technicznej wszystko przebiegło tak, jak należy. Program zdobywał nową wiedzę, którą następnie analizował i wykorzystywał. Microsoft nie wziął jednak pod uwagę, że do Tay może dobrać się cała armia trolli internetowych oraz osób głoszących rasistowskie poglądy i szeroko rozumianą mowę nienawiści. Efekty ich działań widoczne są na zrzutach ekranu.

Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay
Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay© @geraldmellor

Cała sytuacja wzbudziła sporo kontrowersji, a na Microsoft spłynęła fala krytyki. Ciężko powiedzieć, czy jest ona słuszna. Twórcy nie nałożyli ograniczeń na chatbota, gdyż zależało im, aby od początku samodoskonalił się i budował osobowość. Tay wyłapywała więc nieodpowiednie zwroty, które padały podczas konwersacji i - zgodnie z założeniami - zaczęła z nich korzystać. To użytkownicy szerzący mowę nienawiści odpowiedzialni są za zaistniałą sytuację. Winą Microsoftu jest jedynie to, że przecenił intencje wielu użytkowników.

Toy a Cortana

Fragment filmu "Her"
Fragment filmu "Her"© youtube

Zespół odpowiedzialny za projekt zapowiedział już, że przed ponownym uruchomieniem usługi wprowadzi odpowiednie poprawki. Mam nadzieję, że się im uda, a druga próba będzie bardziej udana. Tay.ai może być bowiem bardzo ciekawym rozwiązania, które pomoże np. w doskonaleniu Cortany.

Jeżeli algorytmy wykorzystane w robocie sprawdzą się, Microsoft będzie mógł przenieść je do swojego asystenta głosowego. W praktyce umożliwiłoby to ewoluowanie osobowości Cortany, aby - wzorem sztucznej inteligencji z filmu "Her" - lepiej odpowiadała wymaganiom użytkowników. Czas pokaże, czy tak rzeczywiście się stanie.

Wybrane dla Ciebie
Komentarze (0)