Znak czasów: gigant technologiczny przeprasza za rasistowskie zachowanie swojego algorytmu

Strona głównaZnak czasów: gigant technologiczny przeprasza za rasistowskie zachowanie swojego algorytmu
02.07.2015 10:15
Rasizm
Rasizm
Źródło zdjęć: © Shutterstock

Wydarzenia z ostatnich kilkudziesięciu godzin zdają się być kwintesencją problemów, jakim będziemy musieli stawiać czoła wraz z rozwojem sztucznej inteligencji i wszystkich "smart" usług.

Ze sztuczną inteligencją jest zupełnie tak jak z ludźmi - nie myli się tylko ta, co nic nie robi. Im natomiast bardziej zaawansowana staje się technologia, tym więcej robi się miejsca na niefortunną pomyłkę, o czym właśnie możemy się przekonać.

Jak zapewne wiecie, najnowsza wersja usługi Google Zdjęcia została uzbrojona w zaawansowany algorytm rozpoznający obiekty na zdjęciach, co ułatwia ich przeszukiwanie. Świetna sprawa. No, przynajmniej do momentu, w którym wspomniany algorytm zaczyna twierdzić, że dwójka Twoich czarnoskórych przyjaciół to goryle...

412149096527496102
Źródło zdjęć: © @jackyalcine

Informacja o wpadce rozniosła się w sieci z prędkością światła i zareagował na nią Yonathan Zunger zajmujący się rozwojem serwisu Google+. Poprosił on o dostęp do wspomnianych fotografii i zapewnił, że ekipa stojąca za za usługą Zdjęcia użyje ich do poprawienia algorytmu. Firma znalazła nawet rozwiązanie tymczasowe - z usługi usunięto tag "goryle". Teraz tylko czekać, aż jakaś małpa oburzy się, gdy jej znajomi zostaną oznaczeni jako "ludzie"... ;)

Do tego typu sytuacji musimy zacząć się przyzwyczajać. Sztuczna inteligencja coraz śmielej wkracza w nasze życia i pozostaje tylko kwestią czasu, gdy jakaś inteligentna lodówka sama zamówi bekon swojemu muzułmańskiemu właścicielowi albo witryna sklepowa zaprezentuje spersonalizowaną kolekcję sukienek mężczyźnie o zniewieściałej twarzy.

Będziemy musieli także odpowiedzieć sobie na pytanie, czy pozwolimy na to, by wadliwie działające algorytmy były w stanie urazić nas równie mocno, co słowa wypowiedziane przez drugą osobę.

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (0)