Ciekawostka tygodnia - neuroscience, czyli nowe możliwości i nowe zagrożenia (3/3)

Ciekawostka tygodnia - neuroscience, czyli nowe możliwości i nowe zagrożenia (3/3)
18.05.2015 08:55
Ludzkie oko z przyciskiem zasilania
Ludzkie oko z przyciskiem zasilania
Źródło zdjęć: © Shutterstock
Łukasz Skałba
Łukasz Skałba

Wyobraź sobie komputer, który doradzi Ci w sprawach codziennych i pomoże podjąć dobrą decyzję. Smartfona, który przywróci wzrok niewidomym. Inteligentne pojazdy, które nie potrzebują kierowców. Drony, które same będą decydowały czy atakować, czy nie. Daleka przyszłość? Wręcz przeciwnie.

Wiemy już, że ciężko wyłonić zwycięzcę w pojedynku mózgu z procesorem oraz poznaliśmy pierwszy na świecie procesor neurosynaptyczny IBM TrueNorth, który jest zdolny symulować pracę ludzkiego organu w czasie rzeczywistym. Jednak... po co nam to wszystko?

Nasze zmysły są współcześnie ze wszystkich stron bombardowane milionami najróżniejszych bodźców. Żyjemy w erze informacji i chcąc nie chcąc musimy się z tym pogodzić. Natomiast nasz biedny mózg musi to wszystko na bieżąco analizować i przetwarzać. A może by tak komputery i smartfony przejęły od nas część takich obowiązków?

Procesory w nowej architekturze stworzonej przez inżyniera IBM Johna A. Modha mogą wykonywać bardziej ludzkie zadania. Weźmy jako przykład osobę niewidomą. Są dwa podstawowe rodzaje ślepoty. W pierwszym uszkodzony jest bezpośrednio narząd wzroku na przykład siatkówka, a w drugim (ślepota korowa) uszkodzona jest część mózgu odpowiedzialna za przetwarzanie bodźców wzrokowych. O ile w pierwszym przypadku można zainstalować na działającej korze wzrokowej specjalne elektrody „wyświetlające” obraz z kamery, o tyle w drugim, nie dość, że nic nie widzimy, to nie posiadamy w ogóle wyobraźni wzrokowej, nie potrafimy sobie wyobrazić, zwizualizować jak coś wygląda.

Na szczęście Ty, jako że jesteś w stanie czytać ten artykuł, jesteś też w stanie sobie coś zwizualizować. Wyobraź sobie więc smartfona wyposażonego w ultraenergooszczędny procesor neurosynaptyczny. Odpowiednikiem ludzkich oczu będą kamery smartfona, które będzą zbierały dane sensoryczne z otoczenia (przydadzą się także mikrofony i GPS) i przekazywały je procesorowi, który w czasie rzeczywistym będzie wszystko przetwarzał i wysyłał użytkownikowi informację zwrotną oraz ostrzeżenia o potencjalnych zagrożeniach.

Hand Touch Neuroscience Technology
Źródło zdjęć: © Shutterstock
Hand Touch Neuroscience Technology

Na podobnej zasadzie można zaimplementować procesory neuromorficzne w samochodach autonomicznych. Do tej pory nie było problemu z zastąpieniem ludzkich zmysłów elektronicznymi sensorami i czujnikami zbierającymi dane z otoczenia. Problem był w analizie tych danych. Tak wielka ich ilość przetwarzana w czasie rzeczywistym stanowiła nie lada wyzwanie dla tradycyjnej architektury von Neumanna. Ulepszone zostaną także bezzałogowe drony bojowe, które nie tylko będą zupełnie samodzielne, ale także podejmą decyzję o ataku bez udziału człowieka... Nie bez powodu we wszystko zaangażowane jest DARPA.

IBM TrueNorth był testowany głównie przy przetwarzaniu obrazu. Chip wraz z podłączoną kamerą był zainstalowany na ruchliwym rondzie w pobliżu Uniwersytetu Stanforda. Procesor interpretował to, co widzi obiektyw i każdemu widzianemu obiektywowi przypisywał jakąś konkretną kategorię. Dostrzegał nawet moment, gdy człowiek schodził z roweru i zmieniał natychmiast jego kategorię z „rowerzysta” na „pieszy”. Wszystko to działo się w czasie rzeczywistym i pobierało 0,07 watów energii elektrycznej!

A TrueNorth to tak naprawdę tylko próbka możliwości nowej elastycznej i równoległej architektury. Gdy połączymy więcej takich chipów lub stworzymy analogiczne większe i bardziej złożone układy, procesory będą w stanie podejmować decyzje i pomagać nam w rozwiązywaniu problemów życia codziennego.

Robot podający rękę człowiekowi
Źródło zdjęć: © Shutterstock
Robot podający rękę człowiekowi

Celem IBM jest stworzenie holistycznej sztucznej inteligencji. Lewej półkuli mózgu (odpowiedzialnej za myślenie bardziej analityczne i konkretne) odpowiadałby procesor w architekturze von Neumanna, a prawej (bardziej abstrakcyjnej, wrażeniowej, sensorycznej) procesor w architekturze Modha. Po połączeniu powstanie procesor działający na wzór mózgu, mogący się uczyć i mający możliwości człowieka. A gdy to się stanie spod kontroli może wymknąć się wszystko...

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (0)