Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera

Rozwiązania wykorzystujące sztuczną inteligencję to przyszłość. O ile oczywiście nie zamienią się w narzędzia szerzące poglądy Donalda Trumpa czy Adolfa Hiltera...

Konto Tay.ai na Twitterze

Konto Tay.ai na Twitterze

Niezły pomysł Microsoftu…

Pod nazwą Tay.ai kryje się sztuczna inteligencja Microsoftu, która działa jako robot odpowiadający na pytania użytkowników i prowadzący z nimi rozmowy. Program swoim zachowaniem miał imitować niewinną i nieco naiwną nastolatkę. Tay — dzięki wykorzystanym algorytmom — miała uczyć się prowadzenia konwersacji, a także poznawać język wykorzystywany przez młodszych użytkowników.

Oprogramowanie — w zamyśle twórców — miało się uczyć na bazie każdej kolejnej rozmowy z użytkownikami, a nawet przejmować ich poglądy i opinie. Tay dzięki temu miała być z czasem nie tylko coraz mądrzejsza, ale i tworzyłaby własną osobowość. Projekt Tay publiczny debiut zaliczył w środę — użytkownicy mogli porozmawiać z chatbotem na kilku serwisach, w tym poprzez oficjalny profil usługi na Twitterze.

… legł w gruzach przed upływem 24 godzin

Nie minęła jednak doba od startu projektu, a Tay najpierw polecała konsolę PlayStation 4, później obrażała polityków i całe grupy społeczne, aż wreszcie zaczęła głosić poparcie dla poglądów Adolfa Hiltera i Donalda Trumpa. Microsoft musiał więc wyłączyć usługę oraz wyczyści powstały śmietnik.

Co poszło nie tak? Od strony technicznej wszystko przebiegło tak, jak należy. Program zdobywał nową wiedzę, którą następnie analizował i wykorzystywał. Microsoft nie wziął jednak pod uwagę, że do Tay może dobrać się cała armia trolli internetowych oraz osób głoszących rasistowskie poglądy i szeroko rozumianą mowę nienawiści. Efekty ich działań widoczne są na zrzutach ekranu.

Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay

Cała sytuacja wzbudziła sporo kontrowersji, a na Microsoft spłynęła fala krytyki. Ciężko powiedzieć, czy jest ona słuszna. Twórcy nie nałożyli ograniczeń na chatbota, gdyż zależało im, aby od początku samodoskonalił się i budował osobowość. Tay wyłapywała więc nieodpowiednie zwroty, które padały podczas konwersacji i — zgodnie z założeniami — zaczęła z nich korzystać. To użytkownicy szerzący mowę nienawiści odpowiedzialni są za zaistniałą sytuację. Winą Microsoftu jest jedynie to, że przecenił intencje wielu użytkowników.

Toy a Cortana

Fragment filmu "Her"

Zespół odpowiedzialny za projekt zapowiedział już, że przed ponownym uruchomieniem usługi wprowadzi odpowiednie poprawki. Mam nadzieję, że się im uda, a druga próba będzie bardziej udana. Tay.ai może być bowiem bardzo ciekawym rozwiązania, które pomoże np. w doskonaleniu Cortany.

Zobacz również: Appshaker 2 #5 - gry i aplikacje na Androida

Jeżeli algorytmy wykorzystane w robocie sprawdzą się, Microsoft będzie mógł przenieść je do swojego asystenta głosowego. W praktyce umożliwiłoby to ewoluowanie osobowości Cortany, aby — wzorem sztucznej inteligencji z filmu "Her" - lepiej odpowiadała wymaganiom użytkowników. Czas pokaże, czy tak rzeczywiście się stanie.

Źródło: TVN24BIS, TheVerge, twitter, tay.ai

Podziel się:

Przeczytaj także:

Także w kategorii Technologie:

Samsung pracuje nad konkurentem dla Gorilla Glass o nazwie Turtle Glass? Na czym polega naprawa ekranu przez jego refabrykację? Samsung Exynos 9825 oficjalnie. Oto mózg Galaxy Note'ów 10 [#wSkrócie] Samsung nie chce Qualcomma w Galaxy S6 Telefon informujący o nowym wydarzeniu zapachem rozmarynu? To już możliwe Są już pierwsze wieści o Androidzie M. Google na poważnie zabiera się za samochodowy Internet Rzeczy - w 2020 roku do sieci podpiętych będzie ponad 28 miliardów urządzeń. Jak to wygląda w Polsce? FIBARO: inteligentny dom może zadbać o bezpieczeństwo twojej rodziny Snapdragon 805 - Ultra HD w smartfonie nie będzie żadnym problemem Microsoft umożliwi streamowanie gier z Xboxa na smartfony i tablety? LG już promuje swojego G Watcha. Co o nim wiadomo? Uniwersalne aplikacje to przyszłość? Zdecydowanie tak