Wpływ sztucznej inteligencji na branżę robotyki

Coraz częściej naukowcy i przedsiębiorcy uczą roboty, jak wykonywać skomplikowane zadania z pomocą sztucznej inteligencji (Artificial Intelligence – AI). Jednak zdaniem specjalistów możliwości współczesnych robotów są ograniczone. A jednocześnie określenie „sztuczna inteligencja” obejmuje obecnie więcej zagadnień niż dawniej, co może prowadzić do pewnych niejasności.

Naukowcy oraz przedsiębiorcy od dziesięcioleci pracują ze sztuczną inteligencją, starając się pomóc ludziom zrozumieć nieuchwytną naturę tego zagadnienia. Ich praca pomaga rozwiewać pewne niejasności wokół sztucznej inteligencji i pokazuje, jakie są możliwości jej wykorzystania w robotyce, w zastosowaniach przemysłowych.

– Uważam, że największym nieporozumieniem jest ogólne pojęcie na temat poziomu zaawansowania tej dziedziny – twierdzi Rodney Brooks, członek zarządu oraz CTO w firmie Rethink Robotics. – Pracowaliśmy ze sztuczną inteligencją od 1956 roku, przeszło 62 lata (to właśnie wtedy „ojciec” sztucznej inteligencji, John McCarthy, użył wyrażenia „sztuczna inteligencja”). Jednak jest to coś znacznie bardziej skomplikowanego niż sama fizyka, a już same zagadnienia związane z fizykalnością w układach sztucznej inteligencji wymagają sporo czasu na opracowanie. Uważam zatem, że sztuczna inteligencja dopiero raczkuje.

Brooks podkreśla, że sztuczna inteligencja zawdzięcza swoją popularność mediom przedstawiającym korzystające z niej niesamowite, antropomorficzne lub upodobnione do zwierząt roboty, spektakularne boty grające z ludźmi np. w szachy czy ping pong. Sztuczna inteligencja istnieje, ale stawia dopiero pierwsze kroki.

Część nieporozumień wynika z porównywania osiągów maszyny z jej ostatecznymi umiejętnościami. Gdy obserwujemy człowieka wykonującego pewne zadanie, możemy założyć jego kompetencje – umiejętności i talent – które musi posiadać, by je wykonywać. Ze sztuczną inteligencją nie jest tak samo.

– Sztuczna inteligencja może świetnie radzić sobie podczas gry w szachy, lecz sama nie wie, że gra w szachy – twierdzi Brooks. – Mylimy możliwości maszyn z ich kompetencjami. Kiedy widzisz, jak program uczy się czegoś, czego może również nauczyć się człowiek, robisz błąd, myśląc, że posiada on zdolności rozumienia takie jak ty.

Czym jest sztuczna inteligencja, a czym nie jest?

AI stało się hasłem marketingowym. Podobnie jak niegdyś słowo „robot”, obecnie nagle wszystko wydaje się posiadać sztuczną inteligencję. To, czym na prawdę jest sztuczna inteligencja, trudno sprecyzować. Nawet eksperci spierają się, co należy nazywać sztuczną inteligencją. Jak zauważa Brooks, to co było uważane za sztuczną inteligencję w latach sześćdziesiątych, obecnie jest wykładane podczas pierwszych lekcji programowania, a w konsekwencji – nie jest już dłużej nazywane sztuczną inteligencją. – Do pewnego czasu nazywamy to sztuczną inteligencją. Potem zaczyna to być już po prostu informatyka – twierdzi Brooks.

Uczenie maszynowe (machine learning) i wszystkie jego odmiany, włącznie z uczeniem głębokim (deep learning), uczeniem ze wzmocnieniem (reinforcement learning) oraz uczeniem przez naśladowanie (imitation learning), to części składowe sztucznej inteligencji.

– Sztuczna inteligencja była przez pewien czas bardzo wąską specjalizacją. Niektórzy ludzie uważali ją za bardzo specyficzną technikę spośród wszystkich technik opartych na szukaniu – twierdzi Ken Goldberg, profesor i członek zarządu Katedry Inżynierii Przemysłowej i Badań Operacyjnych na Uniwersytecie California (UC) w Berkley. – Obecnie termin „sztuczna inteligencja” kojarzony jest z dużą częścią robotyki i uczenia maszynowego, tak więc obejmuje w praktyce kilka obszarów różnych nauk i specjalizacji.

Przykładowo, zaawansowane komputerowe systemy wizyjne są formą sztucznej inteligencji. – Jeżeli zadaniem takiego systemu wizyjnego jest sprawdzenie, czy np. śruba znajduje się na swoim miejscu, to takie rozwiązanie było już dostępne w latach sześćdziesiątych. Byłoby nadużyciem nazwanie takiego systemu sztuczną inteligencją – twierdzi Goldberg. – Równocześnie komputerowy system rozpoznający na podstawie obrazu z kamery twarze pracowników uważany jest za sztuczną inteligencję. W takim przypadku, na obecnym etapie rozwoju technologii i oprogramowania, takie stwierdzenie jest uprawnione, ponieważ jest to znacznie bardziej wysublimowane zadanie.

 

Rys. 1. Rodney Brooks uważa, że sztuczna inteligencja wciąż raczkuje. Nie istnieje możliwa do przewidzenia konkurencja między inteligencją maszyn i ludzi. Ludzie pozostają mądrzejsi. Źródło: Rethink Robotics/Robotic Industries Association (RIA)

 

Brak kontekstu

Ważną różnicą między ludzką inteligencją a inteligencją maszyn jest kontekst. My ludzie posiadamy zdolność rozumienia otaczającego nas świata. Sztuczna inteligencja tego nie potrafi.

– Pracowaliśmy nad kontekstem w ramach sztucznej inteligencji przez 60 lat i nic nie posunęło się naprzód – twierdzi Brooks. – Dlatego właśnie nie uważam, że będziemy w stanie stworzyć sztuczną superinteligencję. Odnosimy sukcesy w ściśle określonych dziedzinach i to jest rewolucyjne. Oczywiście rozumienie mowy przez maszyny jest dziś znacznie lepsze niż dekadę temu. Kiedyś żartowałem z działania systemów rozumienia mowy. To już przeszłość. Brooks przedstawia jako przykład produkt Amazon Alexa. Google Assistant i Apple Siri to kolejne dwa przykłady.

– Mówisz coś do Alexa, a ona to rozumie, nawet gdy w tle gra muzyka lub inni ludzie rozmawiają w pokoju – twierdzi Brooks. – Zdumiewające, jak dobrze to działa – z pewnością jest to zasługa głębokiego uczenia. Zatem niektóre z wąskich dziedzin AI stały się dużo bardziej doskonałe. I będziemy wykorzystywać te elementy do ulepszania naszych produktów.

– Kiedy zakładaliśmy firmę Rethink Robotics, przeanalizowaliśmy wszystkie komercyjne systemy rozpoznawania mowy. Uważaliśmy wówczas, że niedorzeczne jest instalowanie systemu rozpoznawania mowy w robocie przemysłowym. Myślę, że to się już zmieniło. Takie rozwiązanie może już mieć sens, podczas gdy nie miało go jeszcze w 2008 roku.

Mechanizm rozpoznawania mowy opracowuje ciągi słów. Brooks twierdzi, że dokładne ciągi słów wystarczą do zrobienia wielu rzeczy, ale tego rodzaju system wciąż nie zastąpi inteligencji człowieka. – Oto różnica – podsumowuje. – Rozumienie słów to dość ograniczona zdolność. Dzieli nas wiele od jej rozszerzenia.

Możliwości te stały się podstawą wielu optymistycznych prognoz dotyczących rozwoju sztucznej inteligencji, które jednocześnie bywają bardzo pesymistyczne, jeśli chodzi o rolę ludzi w przyszłości.

Badania nad sztuczną inteligencją w życiu codziennym

Goldberg faworyzuje mnogość, a nie jednokrotność, zauważając zasadność stosowania różnych kombinacji ludzi i maszyn pracujących razem w celu rozwiązywania problemów i szukania innowacyjnych rozwiązań. Ten rodzaj współpracy jest istotny, gdy sztuczna inteligencja opuszcza teren laboratorium i wkracza do prawdziwego świata.

Pieter Abbeel, profesor wydziału inżynierii elektrycznej i informatyki na UC w Berkley, który jednocześnie jest prezesem i kierownikiem grupy naukowej Emodied Intelligence, pracuje nad wdrożeniem sztucznej inteligencji do przemysłu. On również podkreśla zasadność współpracy ludzi i maszyn.

– Oto część naszego wyzwania – twierdzi Abbeel. – Dowieść, jak ludzie mogą wykorzystać tę technologię i użyć jej w celu uczynienia nas samych mądrzejszymi, zamiast traktować maszyny jako coś odrębnego. Maszyny, będąc częścią naszej codzienności, pozwalają nam być bardziej produktywnymi, co sprawia, że temat ten jest tak bardzo ekscytujący.

Mimo że Abbeel jest podekscytowany przyszłością AI, uważa również, że należy zachować pewną ostrożność. – Uważam, że dokonał się znaczny postęp, a w konsekwencji pojawiło się wiele ekscytacji wokół sztucznej inteligencji – twierdzi. – Jeśli mówimy o obawach, to należy pamiętać o tym, że najbardziej obiecujące postępy, takie jak rozumienie mowy, maszynowe tłumaczenia i rozpoznawanie obiektów na obrazie, to zasługa tak zwanego nadzorowanego uczenia (supervised learning).

Zdaniem Abbeela należy zrozumieć różnice między poszczególnymi typami sztucznej inteligencji. W dziedzinie uczenia maszynowego istnieją trzy główne typy uczenia się: uczenie nadzorowane (supervised learning), nienadzorowane (unsupervised learning) i uczenie ze wzmocnieniem (reinforcement learning).

– Uczenie nadzorowane to tylko rozpoznawanie schematów – twierdzi Abbeel. Bardzo trudnym do rozpoznania schematem jest mowa i jej translacja na tekst lub tłumaczenie jednego języka na inny, lecz taka sztuczna inteligencja nie ma żadnego celu. Owszem, potrafi tłumaczyć np. z języka angielskiego na chiński oraz zapisywać wypowiadane zdania w formie ciągu znaków, lecz jest to jedynie dopasowywanie do schematu. Po dostarczeniu danych wejściowych – zdjęć lub znaków – maszyna powinna nauczyć się sposobu, w jaki powstaje znak z obrazka.

– Nienadzorowane uczenie to taki proces, w którym dostarczasz jedynie obrazy – twierdzi Abbeel. – Liczysz na to, że jedynie poprzez oglądanie dużej liczby obrazów maszyna zacznie rozumieć, jak wygląda świat, a następnie, rozwijając tę umiejętność, w przyszłości może nauczyć się czegoś szybciej. Nienadzorowane uczenie nie ma konkretnego zadania do wykonania. To tylko karmienie sztucznej inteligencji dużą ilością danych.

– Istnieje również uczenie ze wzmocnieniem, które jest inne i bardzo ciekawe, lecz zarazem dużo trudniejsze (uczenie ze wzmocnieniem uważa się za podstawę postępu w technologii samochodów autonomicznych). Takie uczenie występuje wówczas, gdy nadasz maszynie cel. Może to być cel w postaci wysokiego wyniku w grze wideo, wygrania partii szachów lub zmontowania ze sobą dwóch części. W tym miejscu, przy takim podejściu część obaw sceptyków jest uzasadniona. Co może się stać, jeżeli AI ma zły cel? Jakie powinny być te cele?

Ważne jest, aby ludzie i sztuczna inteligencja nie rozwijali się z dala od siebie. Budujemy coraz mądrzejsze urządzenia i nasze możliwości jako ludzi będą się zwiększać.

– To, co szczególnie mnie ekscytuje, to fakt, że ostatnie wydarzenia w dziedzinie sztucznej inteligencji dały jej możliwość zrozumienia tego, co widzi na obrazach – twierdzi Abbeel.

 

Rys. 2. Pieter Abbeel to naukowiec o poglądach i umiejętnościach przełomowych w dziedzinie uczenia maszynowego stosowanego w przemyśle i robotach samoistnie uczących się nowych zadań. Źródło: Embodied Intelligence/RIA

 

Deep learning robotów chwytających

Autolab Goldberga skupia się na sztucznej inteligencji od ponad dekady i wykorzystuje ją w projektach robotów pracujących i zintegrowanych w chmurze, a także do takich zastosowań, jak głębokie uczenie ze wzmocnieniem (deep reinforcement learning), uczenie demonstracyjne oraz rozwój robotów wyspecjalizowanych w niezawodnym chwytaniu i manipulacji obiektami dla celów logistyki magazynowej, robotyki domowej i zabiegów chirurgicznych.

Projekt Dexterity Network (Dex-Net) pokazał, że sztuczna inteligencja może pomóc robotom w nauce chwytania obiektów różnych rozmiarów i kształtów poprzez „pokazywanie” sieci neuronowej typu deep learning milionów modeli 3D, obrazów i sposobów uchwytu obiektów. Poprzednio robot uczył się, jak chwytać przedmiot przez czasochłonne, wielokrotne ćwiczenia z różnymi obiektami. Dzięki zastosowaniu chmury punktów syntetycznych zamiast prawdziwych obiektów w celu wyćwiczenia sieci neuronowej do chwytania obiektów, ostatnie iteracje Dex-Netu są znacznie efektywniejsze, osiągając nawet 99% precyzji chwytu.

W dalszej perspektywie Goldberg ma nadzieję na rozwinięcie niezwykle niezawodnego chwytu robota, potrafiącego współpracować z różnymi obiektami, takimi jak narzędzia, obiekty w domu, zapakowane przedmioty i części przemysłowe.

Roboty współpracujące z funkcją deep learning

Oprogramowanie firmy Rethink Robotics o nazwie Intera 5 zostało zaprojektowane w celu uczynienia robotów współpracujących Baxter i Sawyer inteligentniejszymi. Jak twierdzi Brooks, system wizyjny i algorytmy nauki robotów zawierają sporo sztucznej inteligencji.

– Tradycyjne roboty przemysłowe nie wykorzystują sztucznej inteligencji – mówi Brooks. – My robimy to, ponieważ patrzymy w przyszłość. Implementujemy deep learning w robotach. Staramy się radzić sobie ze zmiennymi warunkami otoczenia, ponieważ uważamy, że w przypadku 90% procesów wytwarzania roboty pracują w podobnych warunkach jak ludzie.

Sawyer i Baxter są wyposażone w moduł uczenia się przez demonstrację, który wykorzystuje sztuczną inteligencję.

– Kiedy uczysz robota przez demonstrację, pokazujesz mu kilka rzeczy, obracając jego ramieniem, a on wykorzystuje program zwany drzewem zachowań – twierdzi Brooks. – Robot sam pisze dla siebie program, wyręczając cię w tym trudnym zadaniu.

Intera 5 to graficzny język programowania. Zdaniem Brooksa możesz go przeglądać, modyfikować lub tworzyć program w widoku drzewa zachowań, omijając wówczas opcję automatycznego uczenia się.

 

Rys. 3. Operator wyposażony w kask wirtualnej rzeczywistości i urządzenie śledzące ruch i sterujące robotem. W ten sposób operator pokazuje robotowi, jak chwytać i manipulować obiektem, aby mógł on nauczyć się wykonywać nowe zadania za pomocą nauczania ze wspomaganiem. Źródło: Embodied Intelligence/RIA

 

Sztuczna inteligencja zmienia oblicze programowania robotów

Sztuczna inteligencja zmienia sposób, w jaki programowane są roboty. Abbeel i jego zespół z Embodied Intelligence wykorzystują siłę sztucznej inteligencji, by umożliwić robotom przemysłowym naukę nowych skomplikowanych zadań.

Ich praca wyewoluowała z badań Abbeela na UC Berkley, gdzie dokonał on przełomu w zastosowaniu uczenia przez naśladowanie (imitation learning) oraz głębokiego uczenia ze wzmocnieniem (deep reinforcement learning) do uczenia robotów manipulacji obiektami. Startup wykorzystywał kombinację czujników i sterowania, by zdalnie sterować robotem. Na potrzeby pobierania danych wejściowych operator ubrany był w kask wirtualnej rzeczywistości, pokazujący przez kamerę obraz z robota.

Sterowanie odbywało się przez urządzenie wirtualnej rzeczywistości, które jest wyposażone w poręczne narzędzie trzymane przez operatora. Ruch ręki operatora jest rejestrowany. Współrzędne położenia i orientacja w przestrzeni przekazywane są do komputera poruszającego robotem. W ten sposób operator ma bezpośredni wpływ na sterowanie, poruszając kiścią robota jak marionetką. – Umożliwiamy człowiekowi znalezienie się wewnątrz robota – twierdzi Abbeel. – Człowiek może widzieć oczami robota i sterować jego rękami.

Abbeel uważa też, że ludzie są tak zręczni, że nie ma sensu porównywać kiści robota z naszymi rękami. Wykorzystując narzędzia wirtualnej rzeczywistości (VR), operator jest zmuszony do przestrzegania ograniczeń wynikających z konstrukcji robota.

– Uczysz robota podstaw umiejętności przez demonstracje – twierdzi Abbeel. – Nie oznacza to, że od samego początku będzie on szybko działał. Robot będzie wykonywał daną czynność w ludzkim tempie, czyli raczej powoli. To pierwsza faza, zwana uczeniem przez naśladowanie (imitation learning). Uczysz robota przez demonstracje. Następnie w fazie drugiej robot przechodzi w tryb nauczania ze wspomaganiem, ucząc się na własnych błędach i próbach. Cała sztuka polega na tym, że robot już nauczył się podstaw wykonywanego zadania. Teraz musi jedynie nauczyć się, jak robić to szybciej. Może nauczyć się tego relatywnie szybko przez nauczanie ze wspomaganiem.

Abbeel twierdzi, że ich technologia służy głównie do zadań wykonywanych w trudnych warunkach wizyjnych i czynności wymagających manipulacji, które są zbyt skomplikowane dla tradycyjnych technik programowania.

W konsekwencji Embodied Intelligence pozwoli innym ludziom na używanie oprogramowania do przeprogramowania robotów poprzez demonstracje. Pozwoli to każdej firmie, małej i dużej, szybko zaadaptować roboty do różnych zadań.

Nasz wspólny potencjał

Chmury robotów, uczenie maszynowe, komputerowe systemy wizyjne i rozumienie mowy – we wszystkich tych aspektach sztucznej inteligencji dokonuje się postęp, a raz na jakiś czas obserwujemy przełom w jednej z dziedzin. Jednakże sztuczna inteligencja nie może się równać z ludzkim umysłem.

Nawet jeśli roboty z pomocą sztucznej inteligencji i ergonomii kiedyś zbliżą się do poziomu zręczności człowieka, mogą nigdy nie być w stanie uchwycić świata z całym jego potencjałem. Umiejętność rozumienia kontekstu i pomysłowość będą zawsze cechami ludzkimi. Technologia nigdy nie jest ani zła, ani dobra. Zależy to od tego, jak ją wykorzystujemy. Dzięki sztucznej inteligencji i robotyce posiadamy ogromny potencjał do zmiany naszego życia na lepsze.


Tanya M. Anandan, redaktor pomocniczy w Robotic Industries Association (RIA) i Robotics Online.

Facebook
LinkedIn