Tay to sztuczna inteligencja Microsoftu, która "polubiła" poglądy Hitlera

Rozwiązania wykorzystujące sztuczną inteligencję to przyszłość. O ile oczywiście nie zamienią się w narzędzia szerzące poglądy Donalda Trumpa czy Adolfa Hiltera...

Konto Tay.ai na Twitterze

Konto Tay.ai na Twitterze

Niezły pomysł Microsoftu…

Pod nazwą Tay.ai kryje się sztuczna inteligencja Microsoftu, która działa jako robot odpowiadający na pytania użytkowników i prowadzący z nimi rozmowy. Program swoim zachowaniem miał imitować niewinną i nieco naiwną nastolatkę. Tay — dzięki wykorzystanym algorytmom — miała uczyć się prowadzenia konwersacji, a także poznawać język wykorzystywany przez młodszych użytkowników.

Oprogramowanie — w zamyśle twórców — miało się uczyć na bazie każdej kolejnej rozmowy z użytkownikami, a nawet przejmować ich poglądy i opinie. Tay dzięki temu miała być z czasem nie tylko coraz mądrzejsza, ale i tworzyłaby własną osobowość. Projekt Tay publiczny debiut zaliczył w środę — użytkownicy mogli porozmawiać z chatbotem na kilku serwisach, w tym poprzez oficjalny profil usługi na Twitterze.

… legł w gruzach przed upływem 24 godzin

Nie minęła jednak doba od startu projektu, a Tay najpierw polecała konsolę PlayStation 4, później obrażała polityków i całe grupy społeczne, aż wreszcie zaczęła głosić poparcie dla poglądów Adolfa Hiltera i Donalda Trumpa. Microsoft musiał więc wyłączyć usługę oraz wyczyści powstały śmietnik.

Co poszło nie tak? Od strony technicznej wszystko przebiegło tak, jak należy. Program zdobywał nową wiedzę, którą następnie analizował i wykorzystywał. Microsoft nie wziął jednak pod uwagę, że do Tay może dobrać się cała armia trolli internetowych oraz osób głoszących rasistowskie poglądy i szeroko rozumianą mowę nienawiści. Efekty ich działań widoczne są na zrzutach ekranu.

Wiadomości, które po pewnym czasie zaczęła rozsyłać Tay

Cała sytuacja wzbudziła sporo kontrowersji, a na Microsoft spłynęła fala krytyki. Ciężko powiedzieć, czy jest ona słuszna. Twórcy nie nałożyli ograniczeń na chatbota, gdyż zależało im, aby od początku samodoskonalił się i budował osobowość. Tay wyłapywała więc nieodpowiednie zwroty, które padały podczas konwersacji i — zgodnie z założeniami — zaczęła z nich korzystać. To użytkownicy szerzący mowę nienawiści odpowiedzialni są za zaistniałą sytuację. Winą Microsoftu jest jedynie to, że przecenił intencje wielu użytkowników.

Toy a Cortana

Fragment filmu "Her"

Zespół odpowiedzialny za projekt zapowiedział już, że przed ponownym uruchomieniem usługi wprowadzi odpowiednie poprawki. Mam nadzieję, że się im uda, a druga próba będzie bardziej udana. Tay.ai może być bowiem bardzo ciekawym rozwiązania, które pomoże np. w doskonaleniu Cortany.

Zobacz również: Przyszłość fotografii. Premiera Huawei P30

Jeżeli algorytmy wykorzystane w robocie sprawdzą się, Microsoft będzie mógł przenieść je do swojego asystenta głosowego. W praktyce umożliwiłoby to ewoluowanie osobowości Cortany, aby — wzorem sztucznej inteligencji z filmu "Her" - lepiej odpowiadała wymaganiom użytkowników. Czas pokaże, czy tak rzeczywiście się stanie.

Źródło: TVN24BIS, TheVerge, twitter, tay.ai

Podziel się:

Przeczytaj także:

Także w kategorii Technologie:

W skrócie: Xperia Z3 w częściach, testy OnePlus One i rękawiczki Bluetooth Nowy układ Apple'a do iPhone'ów z wbudowanym RAM-em. Czy coś to zmieni? Ultradźwięki to przyszłość. Zobacz, jakie możliwości ze sobą niosą Galaxy Note 4 z Exynosem 5433? Jaki będzie nowy układ Samsunga? LG opracowało czytnik linii papilarnych, którego nawet nie zauważysz Problemy z ekranami Google Pixel 2 XL są coraz poważniejsze Apple tworząc iOS 9 śmiało mogłoby czerpać z tego konceptu Fast Pair, czyli Android z szybszym parowaniem urządzeń Bluetooth Moto 360 w pełnej krasie. Wygląda świetnie Nadchodzi Brillo, nowy system operacyjny Google'a. Będzie konkurencją dla... Tizena Chińczycy mają nowy pomysł na świetnej jakości (i tanie) obudowy Huawei w Kirinie 930 rezygnuje z rdzeni Cortex-A57 na rzecz Cortexów-A53e

Popularne w tym tygodniu:

Google Duplex zamówi za Ciebie bilety do kina