Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera
Rozwiązania wykorzystujące sztuczną inteligencję to przyszłość. O ile oczywiście nie zamienią się w narzędzia szerzące poglądy Donalda Trumpa czy Adolfa Hiltera...
25.03.2016 | aktual.: 25.03.2016 19:14
Niezły pomysł Microsoftu...
Pod nazwą Tay.ai kryje się sztuczna inteligencja Microsoftu, która działa jako robot odpowiadający na pytania użytkowników i prowadzący z nimi rozmowy. Program swoim zachowaniem miał imitować niewinną i nieco naiwną nastolatkę. Tay - dzięki wykorzystanym algorytmom - miała uczyć się prowadzenia konwersacji, a także poznawać język wykorzystywany przez młodszych użytkowników.
Oprogramowanie - w zamyśle twórców - miało się uczyć na bazie każdej kolejnej rozmowy z użytkownikami, a nawet przejmować ich poglądy i opinie. Tay dzięki temu miała być z czasem nie tylko coraz mądrzejsza, ale i tworzyłaby własną osobowość. Projekt Tay publiczny debiut zaliczył w środę - użytkownicy mogli porozmawiać z chatbotem na kilku serwisach, w tym poprzez oficjalny profil usługi na Twitterze.
... legł w gruzach przed upływem 24 godzin
Nie minęła jednak doba od startu projektu, a Tay najpierw polecała konsolę PlayStation 4, później obrażała polityków i całe grupy społeczne, aż wreszcie zaczęła głosić poparcie dla poglądów Adolfa Hiltera i Donalda Trumpa. Microsoft musiał więc wyłączyć usługę oraz wyczyści powstały śmietnik.
Co poszło nie tak? Od strony technicznej wszystko przebiegło tak, jak należy. Program zdobywał nową wiedzę, którą następnie analizował i wykorzystywał. Microsoft nie wziął jednak pod uwagę, że do Tay może dobrać się cała armia trolli internetowych oraz osób głoszących rasistowskie poglądy i szeroko rozumianą mowę nienawiści. Efekty ich działań widoczne są na zrzutach ekranu.
Cała sytuacja wzbudziła sporo kontrowersji, a na Microsoft spłynęła fala krytyki. Ciężko powiedzieć, czy jest ona słuszna. Twórcy nie nałożyli ograniczeń na chatbota, gdyż zależało im, aby od początku samodoskonalił się i budował osobowość. Tay wyłapywała więc nieodpowiednie zwroty, które padały podczas konwersacji i - zgodnie z założeniami - zaczęła z nich korzystać. To użytkownicy szerzący mowę nienawiści odpowiedzialni są za zaistniałą sytuację. Winą Microsoftu jest jedynie to, że przecenił intencje wielu użytkowników.
Toy a Cortana
Zespół odpowiedzialny za projekt zapowiedział już, że przed ponownym uruchomieniem usługi wprowadzi odpowiednie poprawki. Mam nadzieję, że się im uda, a druga próba będzie bardziej udana. Tay.ai może być bowiem bardzo ciekawym rozwiązania, które pomoże np. w doskonaleniu Cortany.
Jeżeli algorytmy wykorzystane w robocie sprawdzą się, Microsoft będzie mógł przenieść je do swojego asystenta głosowego. W praktyce umożliwiłoby to ewoluowanie osobowości Cortany, aby - wzorem sztucznej inteligencji z filmu "Her" - lepiej odpowiadała wymaganiom użytkowników. Czas pokaże, czy tak rzeczywiście się stanie.