Co dziś może zrobić sztuczna inteligencja
Co dziś może zrobić sztuczna inteligencja
Anonim

Uwaga, spoiler: do powstania maszyn jeszcze dużo czasu.

Co dziś może zrobić sztuczna inteligencja
Co dziś może zrobić sztuczna inteligencja

Kiedy Elon Musk przedstawia humanoidalnego robota Tesla Bot, wydaje się, że nowa naukowa rewolucja jest tuż za rogiem. Trochę więcej – a sztuczna inteligencja (AI) prześcignie człowieka, a maszyny zastąpią nas w pracy. Jednak profesorowie Gary Marcus i Ernest Davis, obydwaj uznani eksperci od sztucznej inteligencji, proszeni są o niespieszne wyciąganie takich wniosków.

W Reboot sztucznej inteligencji naukowcy wyjaśniają, dlaczego nowoczesna technologia jest daleka od ideału. Za zgodą wydawnictwa „Alpina PRO” Lifehacker publikuje fragment pierwszego rozdziału.

W tym momencie istnieje ogromna przepaść – prawdziwa przepaść – między naszą ambicją a rzeczywistością sztucznej inteligencji. Ta przepaść powstała z powodu nierozwiązania trzech konkretnych problemów, z których każdy musi być uczciwie rozwiązany.

Pierwszym z nich jest to, co nazywamy łatwowiernością, która opiera się na fakcie, że my, ludzie, tak naprawdę nie nauczyliśmy się rozróżniać ludzi od maszyn, a to sprawia, że łatwo nas oszukać. Przypisujemy inteligencję komputerom, ponieważ my sami ewoluowaliśmy i żyliśmy wśród ludzi, którzy w dużej mierze opierają swoje działania na abstrakcji, takich jak idee, przekonania i pragnienia. Zachowanie maszyn jest często powierzchownie podobne do zachowania ludzi, dlatego szybko przypisujemy maszynom ten sam typ podstawowych mechanizmów, nawet jeśli maszyny ich nie posiadają.

Nie możemy pomóc, ale myślimy o maszynach w kategoriach kognitywnych („Mój komputer myśli, że usunąłem plik”), bez względu na to, jak proste reguły przestrzegają maszyny. Ale wnioski, które usprawiedliwiają się w odniesieniu do ludzi, mogą być całkowicie błędne w przypadku programów sztucznej inteligencji. Ze względu na podstawową zasadę psychologii społecznej nazywamy to podstawowym błędem trafności.

Jeden z najwcześniejszych przykładów tego błędu miał miejsce w połowie lat 60., kiedy chatbot o imieniu Eliza przekonał niektórych ludzi, że naprawdę rozumie to, co mu mówili. W rzeczywistości Eliza po prostu wychwyciła słowa kluczowe, powtórzyła ostatnią rzecz, jaką powiedziała jej osoba, iw sytuacji bez wyjścia uciekła się do standardowych sztuczek konwersacyjnych, takich jak „Opowiedz mi o swoim dzieciństwie”. Gdybyś wspomniała o swojej matce, zapytałaby cię o rodzinę, chociaż nie miała pojęcia, czym tak naprawdę jest rodzina i dlaczego jest ważna dla ludzi. To był tylko zestaw sztuczek, a nie demonstracja prawdziwej inteligencji.

Pomimo tego, że Eliza w ogóle nie rozumiała ludzi, wielu użytkowników dało się zwieść dialogom z nią. Niektórzy spędzali godziny na wpisywaniu fraz na klawiaturze, rozmawiając w ten sposób z Elizą, ale błędnie interpretując sztuczki chatbota, myląc mowę papugi z pomocną, szczerą radą lub współczuciem.

Joseph Weisenbaum Twórca Elizy.

Ludzie, którzy doskonale wiedzieli, że rozmawiają z maszyną, szybko o tym zapomnieli, podobnie jak miłośnicy teatru odrzucają na chwilę niedowierzanie i zapominają, że akcja, której są świadkami, nie ma prawa nazywać się realną.

Rozmówcy Elizy często domagali się zgody na prywatną rozmowę z systemem, a po rozmowie upierali się, mimo wszystkich moich wyjaśnień, że maszyna naprawdę ich rozumie.

W innych przypadkach błąd w ocenie autentyczności może być fatalny w dosłownym tego słowa znaczeniu. W 2016 roku jeden właściciel zautomatyzowanego samochodu Tesla tak bardzo polegał na pozornym bezpieczeństwie trybu autopilota, że (zgodnie z opowieściami) całkowicie zanurzył się w oglądaniu filmów o Harrym Potterze, pozostawiając samochód sam.

Wszystko poszło dobrze - aż w pewnym momencie zrobiło się źle. Po przejechaniu setek, a nawet tysięcy kilometrów bez wypadku auto zderzyło się (w każdym tego słowa znaczeniu) z nieoczekiwaną przeszkodą: przez autostradę przejechała biała ciężarówka, a Tesla wpadła tuż pod naczepę, zabijając na miejscu właściciela auta. (Samochód kilkakrotnie ostrzegał kierowcę, aby przejął kontrolę, ale kierowca wydawał się zbyt zrelaksowany, aby szybko zareagować.)

Morał z tej historii jest jasny: fakt, że urządzenie może wydawać się „inteligentne” przez chwilę lub dwie (a nawet sześć miesięcy) wcale nie oznacza, że tak naprawdę jest lub że może poradzić sobie ze wszystkimi okolicznościami, w których osoba zareagowałaby odpowiednio.

Drugi problem nazywamy iluzją szybkiego postępu: mylenie postępu w sztucznej inteligencji, związanego z rozwiązywaniem łatwych problemów, z postępem, związanym z rozwiązywaniem naprawdę trudnych problemów. Tak stało się na przykład z systemem IBM Watson: jego postęp w grze Jeopardy! wydawało się bardzo obiecujące, ale w rzeczywistości system okazał się znacznie dalej od zrozumienia ludzkiego języka, niż przewidywali twórcy.

Możliwe, że program AlphaGo DeepMind pójdzie tą samą ścieżką. Gra w go, podobnie jak szachy, jest wyidealizowaną grą informacyjną, w której obaj gracze mogą w każdej chwili zobaczyć całą planszę i obliczyć konsekwencje ruchów brutalną siłą.

W większości przypadków w prawdziwym życiu nikt nie wie nic z całkowitą pewnością; nasze dane są często niekompletne lub zniekształcone.

Nawet w najprostszych przypadkach istnieje duża niepewność. Kiedy decydujemy, czy iść do lekarza na piechotę, czy pojechać metrem (bo dzień jest pochmurny), nie wiemy dokładnie, ile czasu zajmie oczekiwanie na metro, czy pociąg utknie na drodze, czy wciśniemy się do wagonu jak śledzie w beczce albo zmokniemy w deszczu na dworze, bojąc się jechać metrem i jak lekarz zareaguje na nasze spóźnienie.

Zawsze pracujemy z informacjami, które posiadamy. Grając w Go z samym sobą miliony razy, system DeepMind AlphaGo nigdy nie miał do czynienia z niepewnością, po prostu nie wie, jaki jest brak informacji lub ich niekompletność i niespójność, nie mówiąc już o złożoności interakcji międzyludzkich.

Jest jeszcze jeden parametr, który sprawia, że gry umysłowe bardzo różnią się od rzeczywistego świata, a to znowu ma związek z danymi. Nawet złożone gry (jeśli zasady są wystarczająco surowe) można modelować niemal idealnie, dzięki czemu systemy sztucznej inteligencji, które w nie grają, mogą z łatwością gromadzić ogromne ilości danych, których potrzebują do trenowania. Tak więc w przypadku Go maszyna może symulować grę z ludźmi, po prostu grając przeciwko sobie; nawet jeśli system potrzebuje terabajtów danych, sam je utworzy.

Programiści mogą w ten sposób uzyskać całkowicie czyste dane symulacyjne niewielkim lub żadnym kosztem. Wręcz przeciwnie, w świecie rzeczywistym nie ma idealnie czystych danych, nie da się ich zasymulować (ponieważ reguły gry ciągle się zmieniają), a tym trudniej zebrać na próbę wiele gigabajtów odpowiednich danych i błąd.

W rzeczywistości mamy tylko kilka prób przetestowania różnych strategii.

Nie jesteśmy w stanie np. powtórzyć wizyty u lekarza 10 milionów razy, stopniowo dostosowując parametry decyzji przed każdą wizytą, aby radykalnie poprawić nasze zachowanie w zakresie wyboru transportu.

Jeśli programiści chcą wyszkolić robota, aby pomagał osobom starszym (powiedzmy, by pomagać chorym spać), każdy kawałek danych będzie wart prawdziwych pieniędzy i prawdziwego ludzkiego czasu; nie ma możliwości zebrania wszystkich wymaganych danych za pomocą gier symulacyjnych. Nawet manekiny do testów zderzeniowych nie zastąpią prawdziwych ludzi.

Konieczne jest zbieranie danych na temat prawdziwych osób starszych o różnych cechach ruchów starczych, na różnych typach łóżek, różnych typach piżam, różnych typach domów, i tutaj nie można popełnić błędu, ponieważ upuszczenie osoby nawet na odległość kilku centymetry od łóżka byłyby katastrofą. W tym przypadku stawką jest pewien postęp (do tej pory najbardziej elementarny) w tej dziedzinie osiągnięty przy użyciu metod wąskiej sztucznej inteligencji. Opracowano systemy komputerowe, które grają niemal na poziomie najlepszych ludzkich graczy w grach wideo Dota 2 i Starcraft 2, w których w danym momencie uczestnikom pokazywana jest tylko część świata gry, a tym samym każdy gracz mierzy się z problem braku informacji – to, że światło dłoni Clausewitza nazywa się „mgłą nieznanego”. Jednak opracowane systemy nadal pozostają bardzo wąsko skoncentrowane i niestabilne w działaniu. Na przykład program AlphaStar, który gra w Starcraft 2, nauczył się tylko jednej konkretnej rasy od wielu różnych postaci, a prawie żaden z tych osiągnięć nie jest grywalny jak każda inna rasa. I oczywiście nie ma powodu, by sądzić, że metody stosowane w tych programach są odpowiednie do dokonywania udanych uogólnień w znacznie bardziej złożonych sytuacjach rzeczywistych. prawdziwe życie. Jak IBM przekonał się nie raz, a już dwa razy (najpierw w szachach, a potem w Jeopardy!), sukces w problemach z zamkniętego świata wcale nie gwarantuje sukcesu w otwartym świecie.

Trzeci krąg opisywanej przepaści to przeszacowanie niezawodności. W kółko widzimy, że jak tylko ludzie za pomocą sztucznej inteligencji znajdą rozwiązanie jakiegoś problemu, który może przez jakiś czas funkcjonować bezawaryjnie, automatycznie zakładają, że z rewizją (i z nieco większą ilością danych) wszystko będzie działać niezawodnie.czas. Ale niekoniecznie tak jest.

Znowu zabieramy samochody bez kierowców. Stosunkowo łatwo jest stworzyć demonstrację pojazdu autonomicznego, który będzie poprawnie jechał spokojną drogą po wyraźnie oznaczonym pasie; jednak ludzie potrafili to robić od ponad wieku. Jednak znacznie trudniej jest sprawić, by te systemy działały w trudnych lub nieoczekiwanych okolicznościach.

Jak powiedziała nam w e-mailu Missy Cummings, dyrektor Humans and Autonomy Laboratory na Duke University (oraz były pilot myśliwca marynarki wojennej Stanów Zjednoczonych), pytanie nie brzmi, ile kilometrów bez kierowcy może przebyć bez wypadku. do których samochody te są w stanie dostosować się do zmieniających się sytuacji. Według jej Missy Cummings, e-mail do autorów 22 września 2018 r., nowoczesne pojazdy półautonomiczne „zazwyczaj działają tylko w bardzo wąskim zakresie warunków, które nie mówią nic o tym, jak mogą działać w warunkach mniej niż idealnych”.

Wyglądanie na całkowicie niezawodne na milionach mil testowych w Phoenix nie oznacza dobrych wyników podczas monsunu w Bombaju.

Ta zasadnicza różnica między zachowaniem pojazdów autonomicznych w idealnych warunkach (takich jak słoneczne dni na podmiejskich drogach wielopasmowych) a tym, co mogą zrobić w ekstremalnych warunkach, może łatwo stać się kwestią sukcesu lub porażki dla całej branży.

Przy tak małym nacisku na autonomiczną jazdę w ekstremalnych warunkach i przy tym, że obecna metodologia nie ewoluowała w kierunku zapewnienia, że autopilot będzie działał poprawnie w warunkach, które dopiero zaczynają być brane pod uwagę jako rzeczywiste, może wkrótce stać się jasne, że miliardy dolarów zostały wydane na metody budowania samojezdnych samochodów, które po prostu nie zapewniają niezawodności jazdy podobnej do ludzkiej. Możliwe, że aby osiągnąć poziom pewności technicznej, którego potrzebujemy, wymagane są podejścia zasadniczo odmienne od obecnych.

A samochody to tylko jeden z wielu podobnych. We współczesnych badaniach nad sztuczną inteligencją jej wiarygodność jest globalnie niedoceniana. Dzieje się tak częściowo dlatego, że większość obecnych zmian w tej dziedzinie wiąże się z problemami, które są wysoce odporne na błędy, takimi jak polecanie reklam lub promowanie nowych produktów.

Rzeczywiście, jeśli polecimy Ci pięć rodzajów produktów, a lubisz tylko trzy z nich, nic się nie stanie. Jednak w wielu kluczowych zastosowaniach sztucznej inteligencji na przyszłość, w tym w samochodach bez kierowcy, opiece nad osobami starszymi i planowaniu opieki zdrowotnej, niezawodność na poziomie ludzkim będzie miała kluczowe znaczenie.

Nikt nie kupi domowego robota, który może bezpiecznie zanieść starszego dziadka do łóżka tylko cztery razy na pięć.

Nawet w tych zadaniach, w których współczesna sztuczna inteligencja powinna teoretycznie ukazać się w jak najlepszym świetle, regularnie zdarzają się poważne awarie, czasem wyglądające bardzo śmiesznie. Typowy przykład: komputery w zasadzie już dość dobrze nauczyły się rozpoznawać, co jest (lub się dzieje) na tym lub innym obrazie.

Czasami te algorytmy działają świetnie, ale często generują zupełnie niewiarygodne błędy. Jeśli pokazujesz obraz zautomatyzowanemu systemowi, który generuje podpisy do zdjęć codziennych scen, często otrzymujesz odpowiedź, która jest niezwykle podobna do tego, co napisałby człowiek; na przykład w poniższej scenie, w której grupa ludzi gra we frisbee, bardzo nagłośniony system generowania napisów Google nadaje mu dokładnie właściwą nazwę.

Rys 1.1. Grupa młodych ludzi grających we frisbee (podpis pod zdjęciem, automatycznie generowany przez sztuczną inteligencję)
Rys 1.1. Grupa młodych ludzi grających we frisbee (podpis pod zdjęciem, automatycznie generowany przez sztuczną inteligencję)

Ale pięć minut później można łatwo uzyskać absolutnie absurdalną odpowiedź z tego samego systemu, jak to się stało np. z tym znakiem drogowym, na którym ktoś nakleił naklejki: komputer o nazwie Twórcy systemu nie wyjaśnili, dlaczego wystąpił ten błąd, ale takie przypadki nie są rzadkie. Można założyć, że system w tym konkretnym przypadku sklasyfikował (być może pod względem koloru i faktury) zdjęcie jako podobne do innych zdjęć (z których się dowiedział) oznaczonych jako „lodówka wypełniona dużą ilością jedzenia i napojów”. Oczywiście komputer nie rozumiał (co można łatwo zrozumieć), że taki napis byłby odpowiedni tylko w przypadku dużego prostokątnego metalowego pudełka z różnymi (a nawet nie wszystkimi) przedmiotami w środku. ta scena to „lodówka z dużą ilością jedzenia i napojów”.

Ryż. 1.2. Lodówka wypełniona mnóstwem jedzenia i napojów (całkowicie nieprawdopodobny nagłówek, stworzony przez ten sam system co powyżej)
Ryż. 1.2. Lodówka wypełniona mnóstwem jedzenia i napojów (całkowicie nieprawdopodobny nagłówek, stworzony przez ten sam system co powyżej)

Podobnie samochody bez kierowcy często poprawnie identyfikują to, co „widzą”, ale czasami wydają się przeoczyć oczywiste, jak w przypadku Tesli, która regularnie zderzała się z zaparkowanymi wozami strażackimi lub karetkami pogotowia ratunkowego na autopilocie. Takie martwe punkty mogą być jeszcze bardziej niebezpieczne, jeśli znajdują się w systemach, które kontrolują sieci energetyczne lub są odpowiedzialne za monitorowanie zdrowia publicznego.

Aby wypełnić lukę między ambicją a rzeczywistością sztucznej inteligencji, potrzebujemy trzech rzeczy: jasnej świadomości wartości, o które chodzi w tej grze, jasnego zrozumienia, dlaczego nowoczesne systemy AI nie wykonują swoich funkcji wystarczająco niezawodnie oraz, wreszcie, nowa strategia rozwoju myślenia maszynowego.

Ponieważ stawki związane ze sztuczną inteligencją są naprawdę wysokie pod względem miejsc pracy, bezpieczeństwa i tkanki społecznej, istnieje pilna potrzeba, abyśmy wszyscy – specjaliści od sztucznej inteligencji, zawody pokrewne, zwykli obywatele i politycy – zrozumieli prawdziwy stan rzeczy w tej dziedzinie w celu poznania krytycznej oceny poziomu i charakteru rozwoju dzisiejszej sztucznej inteligencji.

Tak jak ważne jest, aby obywatele zainteresowani wiadomościami i statystykami zrozumieli, jak łatwo jest wprowadzać ludzi w błąd słowami i liczbami, tak i tutaj jest coraz bardziej istotny aspekt zrozumienia, abyśmy mogli dowiedzieć się, gdzie jest sztuczna inteligencja. gdzie to jest prawdziwe; co jest w stanie zrobić teraz, a czego nie umie i być może się nie nauczy.

Najważniejszą rzeczą jest uświadomienie sobie, że sztuczna inteligencja to nie magia, a jedynie zestaw technik i algorytmów, z których każdy ma swoje mocne i słabe strony, jest odpowiedni do niektórych zadań, a nie do innych. Jednym z głównych powodów, dla których postanowiliśmy napisać tę książkę, jest to, że wiele z tego, co czytamy o sztucznej inteligencji, wydaje nam się absolutną fantazją, wyrastającą z bezpodstawnej wiary w niemal magiczną moc sztucznej inteligencji.

Tymczasem ta fikcja nie ma nic wspólnego z nowoczesnymi możliwościami technologicznymi. Niestety, dyskusja o sztucznej inteligencji wśród ogółu społeczeństwa była i jest pod silnym wpływem spekulacji i przesady: większość ludzi nie ma pojęcia, jak trudno jest stworzyć uniwersalną sztuczną inteligencję.

Wyjaśnijmy dalszą dyskusję. Choć wyjaśnienie realiów związanych ze sztuczną inteligencją będzie wymagało od nas poważnej krytyki, my sami w żadnym wypadku nie jesteśmy przeciwnikami sztucznej inteligencji, bardzo lubimy tę stronę postępu technologicznego. Przeżyliśmy znaczną część naszego życia jako profesjonaliści w tej dziedzinie i chcemy, aby rozwijała się ona jak najszybciej.

Amerykański filozof Hubert Dreyfus napisał kiedyś książkę o tym, do jakich wyżyn, jego zdaniem, sztuczna inteligencja nigdy nie może sięgnąć. Nie o tym jest ta książka. Skupia się po części na tym, czego sztuczna inteligencja nie może obecnie zrobić i dlaczego ważne jest, aby to zrozumieć, ale znaczna część mówi o tym, co można zrobić, aby poprawić myślenie komputerowe i rozszerzyć je na obszary, w których teraz ma trudności z wykonaniem pierwszego kroku.

Nie chcemy, aby sztuczna inteligencja zniknęła; pragniemy, aby poprawiła się ona zresztą radykalnie, abyśmy naprawdę mogli na nią liczyć i rozwiązywać z jej pomocą wiele problemów ludzkości. Mamy wiele krytyki na temat obecnego stanu sztucznej inteligencji, ale nasza krytyka jest przejawem miłości do nauki, którą uprawiamy, a nie wezwaniem do rezygnacji i porzucenia wszystkiego.

Krótko mówiąc, wierzymy, że sztuczna inteligencja może rzeczywiście poważnie zmienić nasz świat; ale wierzymy również, że wiele podstawowych założeń dotyczących sztucznej inteligencji musi ulec zmianie, zanim będziemy mogli mówić o prawdziwym postępie. Proponowany przez nas „reset” sztucznej inteligencji nie jest wcale powodem do zakończenia badań (choć niektórzy mogą rozumieć naszą książkę właśnie w tym duchu), ale raczej diagnozą: gdzie teraz tkwimy i jak się z tego wydostaniemy dzisiejsza sytuacja.

Wierzymy, że najlepszym sposobem na posunięcie się naprzód może być spojrzenie w głąb siebie, zmierzenie się ze strukturą własnego umysłu.

Naprawdę inteligentne maszyny nie muszą być dokładnymi replikami ludzi, ale każdy, kto uczciwie patrzy na sztuczną inteligencję, zobaczy, że wciąż można się wiele nauczyć od ludzi, zwłaszcza od małych dzieci, które pod wieloma względami znacznie przewyższają maszyny. ich zdolność do przyswajania i rozumienia nowych pojęć.

Naukowcy medyczni często określają komputery jako systemy „nadludzkie” (w taki czy inny sposób), ale ludzki mózg wciąż jest znacznie lepszy od swoich krzemowych odpowiedników w co najmniej pięciu aspektach: możemy zrozumieć język, możemy zrozumieć świat, możemy elastycznie dostosować się do nowych okoliczności, możemy szybko nauczyć się nowych rzeczy (nawet bez dużej ilości danych) i potrafimy rozumować w obliczu niekompletnych, a nawet sprzecznych informacji. Na wszystkich tych frontach nowoczesne systemy sztucznej inteligencji są beznadziejnie w tyle za ludźmi.

Ponowne uruchomienie sztucznej inteligencji
Ponowne uruchomienie sztucznej inteligencji

Sztuczna inteligencja: Reboot zainteresuje ludzi, którzy chcą zrozumieć nowoczesne technologie i zrozumieć, jak i kiedy nowa generacja sztucznej inteligencji może uczynić nasze życie lepszym.

Zalecana: