Podcast

Aleksandra Przegalińska z MIT o sztucznej inteligencji

Dzisiaj będziemy mówić o sztucznej inteligencji, ale trochę z innej strony.

Aleksandra Przegalińska
Aleksandra Przegalińska. Źródło. Autor:  Albert Zawada.

Aleksandra Przegalińska jest doktorem filozofii, a teraz prowadzi badania w MIT. Żyjemy w bardzo ciekawych czasach, cytując Olę:

„Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany”.

Poznasz również opinie Oli  na temat, czy Test Turinga już jest zaliczony, czym jest dolina niesamowitości i jak wyglądają najnowsze tematy w tym obszarze.  Również o tym, co to jest microtargeting, co potencjalnie pomogło Donaldowi Trumpowi, prezydentowi Stanów Zjednoczonych, wygrać wybory. Zapraszam wysłuchania…

Vladimir:
Cześć Ola. Proszę przedstaw się kim jesteś, co robisz, co lubisz i gdzie mieszkasz?

Ola:
O jaki szereg trudnych pytań! Cześć, nazywam się Ola Przegalińska. Jestem badaczką nowych technologii, pracownikiem naukowym. Mieszkam i pracuję w tej chwili przede wszystkim w Bostonie, ale często też bywam w Warszawie, gdzie jest mój drugi dom. W Bostonie pracuję na MIT (Massachusetts Institute of Technology) w departamencie który się nazywa Center for Collective Intelligence i zajmuję się inteligencją roju i różnymi cyfrowymi śladami, które ludzie po sobie zostawiają, głównie w sieci.

W Warszawie pracuję na Akademii Leona Koźmińskiego, zajmuję się tam też nowymi technologiami, troszeczkę startupami. No i oczywiście, przede wszystkim, sztuczną inteligencją, bo to jest taki podstawowy obszar moich badań i to jest też coś, co lubię. Więc mam taką, można powiedzieć, uprzywilejowaną sytuację, że zawodowo zajmuje się tym co lubię, a z takich innych rzeczy, które bardzo lubię, to ostatnio strasznie mi się spodobało wspinanie. I tym się ostatnio pasjonuje, przynajmniej wakacyjnie, poza wieloma innymi rzeczami.

Vladimir:
Wiele ciekawych rzeczy, o to będę jeszcze dopytywał później. Też mogę potwierdzić że byłaś w Warszawie, jak na przykład teraz. Natomiast zapytam co ostatnio czytałeś i dlaczego warto to przeczytać?

Ola:
Ostatnio, z takich bardzo ciekawych książek, które mogę polecić, to przede wszystkim przeczytałam coś, co się nazywa „Machines, Platform, Crowd” czyli maszyny, platformy i tłumy. To jest książka, wydana dokładnie w tym roku 2017, przez dwóch profesorów związanych zresztą z MIT, Erika Brynjolfssona i Andrew McAfee. I to jest książka, która właściwie jest pewnego rodzaju kompendium wiedzy o tym, w jaką stronę w tej chwili podążają takie mega trendy tzn. sztuczna inteligencja, rozwój cyfrowych platform wymiany wiedzy, ale też zakupowych, serwisowych, wszelkich w zasadzie tych marketplace’ów.

Rozwój właśnie takiej inteligencji roju, czyli tych wszystkich tłumów online, które można ciekawie targetować, ale które też o bardzo wielu rzeczach decydują. Także ta książka właściwie jest o wszystkim, w tym sensie, o wpływie technologii na masę obszarów, na gospodarkę, na społeczeństwo, na więzi społecznych relacji. Fenomenalna lektura i taka sumaryzacja wszystkiego, co się do tej pory ciekawego zdarzyło, też operująca na bardzo ciekawych kejsach, nie tylko o Uberze, o którym wszyscy mówią, ale o takich właśnie, można powiedzieć, mniej znanych przykładach.

Vladimir:
Brzmi bardzo ambitne. Książka będzie podlinkowana do notatek. A powiedz Ola, gdzie dokładnie pracujesz i czym się zajmujesz. Fajnie będzie, jeśli podasz przykłady, bo wydaje mi się, że dla wielu osób nadal ta cała terminologia jest nieco tajemnicza.

Ola:
Jasne. Zajmuję się, tak jak powiedziałam wcześniej, sztuczną inteligencją, ale oczywiście, to jest ogromne pole badawcze, i w jego ramach, każdy może znaleźć dla siebie miejsce. W tej chwili mamy dwa projekty, które prowadzimy właśnie na MIT.

Ale też Koźmiński, czyli moja macierzysta uczelnia w Warszawie, bardzo mnie wspiera. To są projekty, które są związane, po pierwsze, z interakcją człowieka, między maszyną a człowiekiem. Badamy czy też robimy eksperymenty naukowe, które pozwalają nam zobaczyć, jak ludzie komunikują się, na przykład, z czymś takim jak Siri i jak ich ciało na to odpowiada. To znaczy, jakie reakcje afektywne albo emocjonalne budzi interakcja z maszyną tego typu.

Takich sprzętów jest, rzeczywiście, coraz więcej. Alexa, Siri, Cortana, coraz więcej mamy wirtualnych asystentów do obsługi klienta, coraz częściej wchodzimy w komunikację przez telefon czy online rozmaitymi botami różnych firm. Czasami po prostu dla fun’u, tak jak to jest na Messengerze.

Ostatnio też powstał taki projekt jak Replika. Replika your AI friends, czyli twój przyjaciel – sztuczna inteligencja, z którym się po prostu konwersuje swobodnie.

Replika is your AI friend that you teach and grow in conversations.
Replika is your AI friend that you teach and grow in conversations.

I nas ten rozwój botów rzeczywiście bardzo zainteresował. I postanowiliśmy wspólnie z Leonem Ciechanowskim, gdzie są znakomici specjaliści od badania sygnału psychofizjologicznego, po prostu sprawdzić, jakiego typu afekty, jakiego typu odpowiedzi (można powiedzieć emocjonalne) generują się podczas interakcji z takim botem.

To znaczy, czy to jest inne od interakcji z ludźmi, czy to się jakoś zasadniczo różni od tego jak rozmawiamy sobie z dowolną osobą, którą znamy, czy to jest właściwe interakcja bardzo podobna do interakcji z ludźmi, z punktu widzenia tego jak to emocjonalnie odbieramy. I to jest taki jeden duży projekt, w którym w tej chwili siedzimy, grzebiemy. A drugi projekt, który realizujemy, to jest projekt z zakresu właściwie IoT i internetu rzeczy i technologii ubieralnych.

Właściwie można powiedzieć, przeprowadzamy swoiste crash-testy takich technologii ubieralnych kolejnej generacji. To znaczy interesują nas nie jakieś proste reaktywności, jakich jest bardzo wiele teraz, z których wiele ludzi korzysta, mają jakieś opaski na rękę, z nimi biegają, one im liczą kalorie itd…

Nas interesują, można powiedzieć, bardziej wyrafinowane sprzęty, mianowicie, interesują nas headbandy. Czyli takie opaski na głowę, które dokonują pomiaru takich rzeczy, które kiedyś jeszcze właściwie były nie do wyobrażenia, że można je mierzyć. Tak jak, na przykład muse, poziom stresu albo poziom koncentracji. Być może można było coś takiego zmierzyć w laboratorium, ale nikt żaden konsument nie mógł sobie indywidualnie tego zrobić. To są opaski do indywidualnego użytku.

Za ich pomocą też chcemy przeprowadzać rozmaite eksperymenty, ale też po prostu pracujemy nad tym, żeby je rozwijać, żeby zwiększać ich funkcjonalności. Taką opaską, którą w tej chwili się zajmujemy. To jest opaska, która służy do badania poziomu koncentracji i do tego, żeby ten poziom koncentracji zwiększać. Ma taką dodatkową aplikację z botem, która doradza w jaki sposób trzeba działać, żeby być bardziej skoncentrowanym. To jest taki sprzęt, który rzeczywiście w tej chwili testujemy na MIT.

Vladimir:
Tyle rzeczy! Zaraz będę o to wszystko dopytywał. Ale najpierw jeszcze może zapytam o Twoją własną książkę, którą napisałaś „Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję„. Do kogo jest ta książka skierowana i jakie tematy tam poruszasz? Bo ja tę książkę dopiero też znalazłem, przyznam szczerze, pewnie chciałbym ją przeczytać. Więc podziel się więcej, co możemy w niej znaleźć.

Ola:
Książka jest taką bardzo zmienioną, popularyzowaną wersją mojego doktoratu. Doktorat, oczywiście, o sztucznej inteligencji, ale był pisany na wydziale filozofii. Tam można spodziewać się trudnej terminologii,  która na początku, dla osób które nie mają tego backgroundu, będzie mniej zrozumiała, ale przez to można szybko przebrnąć. Książka, w zasadzie, dla wszystkich.

Książka jest podsumowaniem tego, co się działo w sztucznej inteligencji, jakie kolejne paradygmaty w tym projekcie sztucznej inteligencji następowały, jakie będą następowały, czyli jakich możemy się spodziewać. Tutaj też podaję przykłady o różnych sposobach, w jakich można rozwijać sztuczną inteligencję. Nie na takim bardzo inżynieryjnym poziomie ostatnim, tylko na poziomie koncepcyjnym.

Sztuczna inteligencja to jednak ogromny projekt intelektualny, to nie są tylko praktyki inżynieryjne, ale to jest też jakiś taki duży paradygmat, który mówi nam o tym, jak stworzyć maszynę, która będzie w jakiś sposób podobna do człowieka, jak do tego doszłoby, gdyby to się udało, i w którą stronę powinniśmy się kierować. Jakiego typu funkcje ludzkie, funkcje inteligencji człowieka trzeba by było odtwarzać, żeby ta maszyna faktycznie była do nas podobna, albo żeby mogła ją cechować jakaś forma inteligencji. I w tym projekcie sztucznej inteligencji od lat 50., 40. ubiegłego wieku, różne na to pomysły były.

Staram się czytelnika przez to przeprowadzić, czyli każdy, kto jest zainteresowany sztuczną inteligencją, może to przeczytać. Dalej, właśnie, od strony też paradygmatów różnych, można powiedzieć, filozoficznych, bo to jest duży metafizyczny, filozoficzny projekt. Dzisiaj, może ludzie którzy się zajmują IT, nie do końca tak o tym myślą, ale dla badaczy sztucznej inteligencji, to jest dosyć jasne. Za tym projektem stoją zbyt silne założenia dotyczące tego, jak poznajemy, jak myślimy, my jako ludzie, jak możemy to odtwarzać na maszynie.

Staram się w swojej książce to pokazać, to jakoś zilustrować i pokazać, jakie różne etapy sztucznej inteligencji przechodziła, bo na początku chcieliśmy budować maszyny, które będą najlepiej grały w szachy, potem zmieniliśmy zdanie i chcieliśmy budować maszyny, które będą potrafiły poruszać się w przestrzeni fizycznej, czyli będą potrafiły sobie jakoś radzić z takimi bolączkami codzienności, chodzić, odpowiadać na bodźce zewnętrzne. To są dwie różne koncepcje sztucznej inteligencji. I staram się pokazać, która zwyciężyła i dlaczego, jaki jest stan wiedzy na dzisiaj, jak możemy te wiedzy dalej rozwijać, jakie są kolejne wyzwania, co należałoby zrobić chociażby w obszarze botów, żeby te boty faktycznie stały się takimi bardzo zaawansowanymi maszynami.

Vladimir:
Rozumiem, że ta książka nadaje się dla wszystkich osób, które się interesują sztuczna inteligencją i…

Ola:…rozwojem technologii również.

Vladimir:
Teraz zadam najważniejsze pytanie dzisiejszej rozmowy, później to będzie wszystko dookoła. Pytanie jest takie, czym jest osobliwość i czy należy jej się bać.

Ola:
No tak, mogłam się spodziewać 🙂 Czym jest osobliwość? To zależy od definicji. Czym czy kim, to też jest dobre pytanie. Jest osobliwość w matematyce, która jest oczywiście zupełnie innym fenomenem niż tym, którym się zajmujemy. W kontekście sztucznej inteligencji, osobliwość – to jest taki punkt,  wyspekulowany dosyć, niejasny, kiedy on nastąpi w przyszłości, kiedy maszyna właśnie osiągnie co najmniej ludzkie kompetencje.

To znaczy będzie intelektualnie sprawna tak samo jak człowiek, będzie cechować  być może także samoświadomością, czyli stanie się jakby czymś, na pewno z nami porównywalnym. I dlatego to się nazywa osobliwość, bo nie wiemy co dalej od tego punktu może nastąpić. To znaczy że to będzie punkt osobliwy w historii cywilizacji człowieka, dlatego że on wszystko zmieni. Nie było nigdy nic takiego. Nic takiego się nie zdarzyło. Singular, takie wyjątkowe, prawda. Bo Singularity, to jest angielski ekwiwalent osobliwości polskiej. I to jest taki moment, od którego bardzo trudno przewidzieć, co się może zdarzyć, bo tutaj pojawia się wtedy taki gracz na świecie, na Ziemi, który będzie zupełnie poza nami.

To znaczy, w jakimś sensie będzie, być może, nie do przewidzenia w jaki sposób on rozegra swoją relację z nami, z ludźmi. Więc tak naprawdę, ta osobliwość – to jest swego rodzaju zagadka. Też czasami mówi się „osobliwość” o maszynie osobliwej, czyli właśnie o takiej sztucznej inteligencji, która będzie już na ludzkim poziomie, a nawet na wyższym poziomie niż człowiek, przekracza kompetencje człowieka. I wtedy dojdzie do jakiejś takiej reorganizacji tego jak funkcjonują nasze społeczeństwa, jak funkcjonujemy, jak gospodarki nasze funkcjonują. To jest taki po prostu moment, absolutnie przełomowy, który nie jest porównywalny z niczym, co my do tej pory, jako cywilizacja, przeżywaliśmy.

Natomiast nie wiemy, kiedy ono nastąpi. Są tacy ludzie, jak Ray Kurzweil, którzy mówią, że to będzie za 20 czy 30 lat, on tę datę też przesuwa trochę.

Są inni, którzy mówią że bardziej za 100. A jeszcze są inni którzy mówią że, żeby maszyna stała się osobliwa, to musi przejść jednak proces ewolucji, i nawet gdyby on miał być spakowany bardzo mocno w stosunku do tego, jak myśmy się ewolucyjnie rozwijali, to tak czy siak, to nie będzie mniej niż 1000 lat. Więc do spekulacji jest wiele, są oczywiście też tacy, którzy mówią, że osobliwość nie nastąpi, bo nie da się stworzyć świadomej maszyny.

Da się stworzyć inteligentną być może, ale samoświadomą, taką podmiotową, która będzie myślała o sobie jako o Ja, dodam że, takiej to nie da się zbudować, bo po prostu nie mamy do tego kompetencji, ona się sama nie wyłoni. Jest dużo dyskusji, debat na ten temat czy to się zdarzy i czy należy się tego bać. Prawdę mówiąc, mam takie stanowisko dosyć realistyczne. To znaczy, jeżeli mówi się ludziom, że się powinni bać, to oni wtedy naturalnie reagują, tak że ten projekt należy zatrzymać. Uważam, tak zupełnie pragmatycznie, że projektu rozwoju sztucznej inteligencji po prostu zatrzymać się nie da.

Nawet, jeśli ktoś gdzieś powie „pas”, amerykanie czy my, to być może chińczycy nie powiedzą „pas”, bo będą chcieli dalej rozwijać sztuczną inteligencję, bo będzie do czegoś tam potrzebna w medycynie, przemyśle, gdziekolwiek. I w związku z tym, tego projektu nie da się zatrzymać. Więc zamiast się bać i myśleć o nim w takich kategoriach panicznych – „uciekamy”, to po prostu trzeba do niego podejść tak na spokojnie, na chłodno i się do niego dobrze przygotować (do tego procesu). Przede wszystkim, musimy coraz bardziej upowszechniać wiedzę na temat tego, jaki jest stan rozwoju sztucznej inteligencji. On, wbrew pozorom, nie jest aż tak bardzo zaawansowany, jest masa zagadek, jest bardzo dużo trudności w tym projekcie. Mówimy naprawdę o bardzo wczesnym etapie.

Tak uważam, bo gdzieś pracuję w tym obszarze, ale trzeba zdecydowanie społeczeństwo uświadamiać i powinniśmy odbyć szereg debat, dotyczących tego jak i w jaką stronę chcemy sztuczną inteligencję kształtować. Bo to może być tak, że to będą inteligentne systemy, które będą asystowały człowiekowi, będą optymalizowane szeregi procesów i, oczywiście, zmienią nasze społeczeństwo, ale nie dojdzie do punktu żadnej konfrontacji. Natomiast oczywiście, że gdzieś tam kupuje (inkubuje) się jakaś forma taka, która będzie wykorzystana chociażby jeszcze przez człowieka w złych celach. Już będzie inteligentna, ale nie będzie miała podmiotowości woli  jeszcze.

Jakiś tam, powiedzmy, ego-maniacki polityk postanowił ją wykorzystać w jakichś swoich niecnych celach. Mam wrażenie że im bardziej projekt sztucznej inteligencji jest wspólny dla całego społeczeństwa, tym jest bezpieczniejszy, a im bardziej jest pochowany po jakichś wyjątkowych, bardzo szczególnych, nielicznych labach (laboratoriach) i ludzie nie rozumieją, bo oni się go boją, tym zasadniczo gorzej. Taka jest moja odpowiedź, nie wiem, czy ona jest jednoznaczna, ale bym powiedziała że nie należy się bać, ale należy po prostu bardzo uważnie się przyglądać i coraz bardziej w ten projekt wchodzić.

Vladimir:
Poruszyłaś bardzo ciekawy temat, a zwłaszcza to, nawet jeżeli ktoś będzie chciał to zatrzymać, to jednak to jest niemożliwe. Ostatnio czytałem takie badania, na temat kiedy właśnie ten punkt nastąpi, i są różne poglądy. Ciekawostką jest to, że właśnie naukowcy z Chin zwykle szacują to, że ten punkt nastąpi kilkadziesiąt lat wcześniej. Co jest ciekawe, dlaczego tak uważają, niewiadomo.

Naukowcy z Chin chyba wiedzą coś więcej...
Źródło.

Też jest ciekawe to że to całe środowisko naukowe w Chinach jest raczej dość zamknięte. Oni czasem coś piszą, ale takie bardzo minimalne informację co dokładnie się tam dzieje. Ale tam naprawdę się dzieje wiele ciekawych rzeczy, więc nie da się tego zatrzymać. Z tym się zgadzam w stu procentach.

Zapytam teraz coś konkretnego. Zapytałem najpierw o przyszłość,  więc zapytam teraz o tym, co mamy. A właśnie, które rozwiązania albo tendencje sztucznej inteligencji najbardziej cię zaskoczyła albo nadal zaskakuje?

Ola:
Jeszcze jakiś czas temu bym powiedziała, że to, co robi Boston Dynamics jest dla mnie poruszające. W każdym wymiarze, to jest tak zwana ucieleśniona sztuczna inteligencja czy też cielesna. Czyli stworzenie sieci sensorów, które pozwalają nam badać w jaki sposób otoczenie zewnętrzne może się do niego dostosowywać i po nim się poruszać. Nie wiem czy Ty znasz tę robotę?

Vladimir:
Tak, bardzo polecam też filmik, nie wiem jak się nazywa ten robot, taki pies, który tam skacze, biega…

Ola:
Tam jest Atlas, jest BigDog, tych projektów jest bardzo dużo.

Ten o którym mówisz to chyba jest Bigdog.

Generalnie to są niesamowite maszyny, bo inteligencia cielesna to jest jedna z moich ulubionych odłamów sztucznej inteligencji. Inteligencja oparta na sensorach, na odkrywaniu tego, czym jest percepcja, stymulowanie tej percepcji na maszynie. Fenomenalne jakieś pole badawcze. Na początku, oczywiście, miały być jakieś tam drony, które będą też wykorzystywane bojowo. Ktoś zamówił u Boston Dynamics taki projekt, bodajże DARPA czyli Amerykańska agencja obrony. Potem się okazało, że być może mają bardziej konsumenckie zastosowanie.

Na przykład mogą przynosić bardzo ciężkie paczki w magazynach Amazona. W zasadzie wydaje mi się, że to bardziej idzie w konsumencką stronę, niż w taką typowo bojową.

Co mnie, jako osobę o usposobieniu pacyfistycznym, bardzo cieszy. I to są faktycznie strasznie ciekawe projekty. To znaczy, że poziom sztucznej inteligencji cielesnej w ciele jest bardzo wysoki. Jakiś czas temu odkryłam to z wielkich zafascynowaniem, bo wydawało mi się że to jest bardzo trudne. Tam jest szereg trudnych problemów filozoficznych, ale też i inżynieryjnych, które bardzo trudno rozwiązać. I okazało się, że ta firma jest w stanie jakoś się przekroczyć i budować maszyny, które sobie w zewnętrznym środowisku radzą, nie wywracają się.

Tak jak słynny robot Hondy jeszcze jakiś czas temu. Miał przejść kilka schodków i to miał być wielki przełom sztucznej inteligencji. Potknął się na drugim schodku i upadł, a Japończycy tam płakali. To tak wyglądało bardzo długo.

Takie typowe zadania, które wydawały się rutynowe, takie jak: umyj okno czy przejdź, one po prostu z tym sobie nie radziły. To wynika z określonych ograniczeń oprogramowania, braku wiedzy ludzkiej jak to zrobić. I nagle się pojawia maszyna która po prostu skacze jak pies czy małpa. Chodzi jak krowa, chodzi również jak człowiek (do pewnego stopnia). Można próbować jej podstawić nogę, ona to ominie. Ona naprawdę jest zwinna. I to było dla mnie wielkie odkrycie i wielka radość.

Kolejnym projektem, którym dzisiaj fascynuję się to jest deep learning czy głębokie uczenie maszynowe. Widzieliśmy popis deeplearning’u kiedy AlphaGo, program komputerowy, wygrał z mistrzem tradycyjnej Chiński gry Lee Seedolem. I wygrał w taki sposób, w jaki nie wygrał żaden człowiek. Wygrał inaczej niż wygrywają ludzie ze sobą. Nie jestem specjalistą od Go, ale trochę na ten temat czytałam, też pytałam się ludzi którzy w Go grają.

Którzy tę grę analizowali, i oni mówią, że: „Niezwykłe było to, w jaki sposób ten program prowadził grę i jakie były jego kolejne posunięcia. Że to było posunięcie właśnie z niskiego porządku myślenia”. AlphaGo w pewien sposób cechował się oryginalnością i kreatywnością w tych swoich rozwiązaniach. Chociaż też, z drugiej strony czasem robił głupie błędy których nie popełnił żaden człowiek. Czyli widać że to maszyna gra, inaczej gra.

Dla mnie to jest punkt przełomowy, który pokazuje, że te możliwości deeplearning’u są bardzo duże. I że w tym obszarze będą się działy bardzo ciekawe rzeczy, które każą nam, chyba niebawem, zakwestionować właśnie to, że uważamy, że jesteśmy jedynymi bardzo kreatywnymi czy też w ogóle kreatywnymi istotami. To oczywiście nieprawda, bo zwierzęta również są kreatywne w dużej mierze. Ale na pewno nie uważaliśmy że kreatywne mogą być maszyny. Nawet kiedy boty pisały wierszyki jakiś czas temu, to się wydawało że to jest zwykłe generowanie linijek, które czasem do siebie pasują, a czasem nie. Nas to śmieszy. A dzisiaj mamy rozwiązania głębokiego uczenia maszynowego, które każą nam to zakwestionować. Rzeczywiście IBM Watson jest kolejnym przykładem, który robi trailery filmowe, który ma szereg rozmaitych zastosowań analitycznych. Niewątpliwie, w jakiś sposób, jest maszyną inteligentną. To są rzeczy które mnie bardzo interesują i inspirują.

Vladimir:
AlphaGo faktyczne zrobiło bardzo kreatywne zagranie i widać było że gra inaczej niż ludzie. Jako ciekawostkę warto dodać, że Lee Seedol też zaczął grać inaczej, niż grał przedtem. To też było bardzo fajnie opisane, dlaczego tak uważano. To wszystko było mierzone i prawdopodobieństwo tego, że Lee Seedol zrobi taki czy inny krok było przewidywane. I on robił takie rzeczy, których nie robiłby, jeżeli grałby z człowiekiem. Można powiedzieć, że kreatywność komputerowa, również wpływa na kreatywność ludzką. To jest ciekawe.

Ola:
Niewątpliwe, że on musiał dostosowywać swoje strategie. To prawda. Nie wiem, czy zaznajamiałeś się z literaturą. Tutaj jest szereg ciekawych rzeczy. Po pierwsze, że on był przekonany, że zwycięży. W zasadzie tak jak inni w ogóle nie uważali, że on powinien się cechować taką pewną siebie postawą.

On sam właśnie był przekonany, że on zdecydowanie tutaj zwycięży i to w cuglach. Jeszcze pół roku wcześniej, była pierwsza próba rozegrania z innym mistrzem gry, przez właśnie AlphaGo, i wtedy tej wersji AlphaGo bardzo źle poszło. AlphaGo w międzyczasie ogromnie się rozwinął właśnie dzięki deepleerning’owi. Dzięki analizie ogromnej ilości przypadków grania, takie które jest niedostępna człowiekowi. Bardzo się zmienił w tym czasie (od pierwszej gry). Lee Seedol podszedł do tego na luzie. Myślał że wygra i ewentualnie ta maszyna jedną partyjkę sobie ugra.

Okazało się, że po prostu praktycznie został zmieciony z powierzchni Ziemi, to zwycięstwo było walne. Wiem, że w międzyczasie on po prostu się załamał, powiedział że tak nie gra. Potem powiedział, że spróbuje się dostosować, przestawić na logikę maszyny.

No to się nie do końca powidło, chociaż jedną partię wygrał. Także to jest bardzo ciekawe, ta walka człowieka z maszyną, jako zjawisko, jest fascynująca. Ale inną rzeczą, która jest bardzo ciekawa, jeżeli chodzi o AlphaGo, to jest to, że deep learning, jako dziedzina, człowiekowi trochę wymyka. Z jednej strony wiemy jak robić deep learning, ale z drugiej strony nie wiemy jak dochodzi do uczenia się, to dla nas jest w pewnym rodzaju „blackbox”.

To znaczy możemy generować sobie określone rezultaty których chcemy, czyli możemy wytrenować maszynę, żeby coś potrafiła. Dostaniemy wysoki wskaźnik kompetencji sieci neuronowej, czyli ona robi dokładnie to, czego sobie życzymy i robi to dobrze, sprawnie, trafnie, adekwatnie. Natomiast, już coraz mniej wiemy, nie jeżeli chodzi o zwykłe uczenie maszynowe, a jeżeli chodzi o głębokie uczenie maszynowe. Jak to się faktycznie dzieje że tam do tego uczenia dochodzi.

Skąd się ta kreatywność cała bierze. I to jest bardzo ciekawe, bo może się tak zdarzyć kiedyś w przyszłości, że ta osobliwość nastąpi, a my tego nawet nie zauważymy. To jest trudny do przełknięcia scenariusz, ale patrząc na dzisiejszy rozwój deep learningu – możliwy. Ostatni cały numer MIT Technology ubiegłego tygodnia był temu poświęcony, żeby po prostu zrozumieć co się dzieje w deep learningu. Że człowiek musi nabrać kompetencji nie tylko do wywoływania określonych rezultatów (budowanie modele), ale również zrozumieć proces jak maszyna uczy się. Musi po prostu zacząć rozumieć ten cały proces i uważam że to jest bardzo ważne. Jeśli chodzi o obawianie się osobliwości, to to jest kluczowe zadanie w tej chwili.

Vladimir:
Tak to prawda! Ostatnio właśnie czytałem kilka prac naukowych na temat zrozumieniu jak działa uczenie maszynowe. W to angażują się, wszyscy duzi gracze. Deep Mind, Google Brain (obaj należą do Google, ale działają niezależnie)

Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów
Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów. Źródło.

To przejdźmy teraz do kolejnych tematów, żeby zdążyć wszystko omówić. Kim jest bot Ola i gdzie można go znaleźć?

Ola:
Bot Ola w tej chwili już się schował, ale można było go do niedawno znaleźć, pewnie będzie można również w przyszłości, na stronie Leona Koźmińskiego. Gdzie służył jako doradca wirtualny w dziekanacie dla naszych studentów. Najpierw tego bota testowaliśmy na uczelni przez rok. Miał moje imię ale co do zasady działał właśnie jako pracownik wirtualnego dziekanatu i odpowiadał na pytania studentów dotyczące rekrutacji itd. Wtedy, w pewnym sensie trenował żeby być coraz lepszym. Poprawiliśmy bazę danych, widząc czego studenci szukają i potrzebują. Potem bota już wzięliśmy na warsztat do naszych badań naukowych. Po roku przebywania na stronie, on został przez nas wykorzystany w naszym naukowym badaniu, które dotyczyło właśnie interakcji człowiek-bot.

Po prostu trzeba było znaleźć grupę ludzi którzy chcieli w tym eksperymencie wziąć udział. To nie było specjalnie trudne. Potem podpinaliśmy ich pod szereg różnych sensorów, elektrod, żeby zrozumieć ich reakcje emocjonalne podczas interakcji z botem. Zadawaliśmy im różne zadanie, żeby oni wspólnie z tym botem wykonali. Oni wykonywali te zadania, czasami krócej, czasami dłużej. My w tym czasie patrzyliśmy na to co się dzieje i jak ciało odpowiada. Jaki sygnał fizjologiczny wysyła. Czy jest stres? Czy jest spokój?

W jaki sposób to ciało odpowiada, a potem jeszcze pytaliśmy uczestników. Mieliśmy szereg ankiet, łączyliśmy odpowiedzi afektywne czyli psycho filozoficzne sygnały z deklaracjami które ludzi złożyli. Na tej podstawie próbowaliśmy sprawdzić czy się podoba i jaka wersja bota podoba się. Mieliśmy dwie wersji do testów, jedna była czysta tekstowa, a druga była z awatarem i głosem. Sprawdzaliśmy która wersja jest bardziej dla naszych użytkowników akceptowalna. Która bardziej się podoba, a która może budzić jakieś lęki czy obawy. Myślę że to jest ważne, bo odpowiedzieliśmy na szereg istotnych pytań badawczych, ale też przy okazji, może mam taką nadzieję, przysłużyliśmy się trochę biznesowi. W tym sensie że pomagamy mu tworzyć takie maszyny które będą u ludzi budzić pozytywne reakcje, a nie negatywnie.

Vladimir:
Pod koniec lat siedemdziesiątych Japoński naukowiec Mori Masahiro przeprowadził bardzo ciekawy eksperyment. Badając jakie powstają u ludzi emocje na widok robota. Początki eksperymentu były dość proste.

Dolina niesamowitosci
Dolina niesamowitosci. Źródło.

Bardzo liniowe. Czym bardziej realistyczny robot, tym większą sympatię budził u człowieka. Natomiast w pewnym momencie osiągnęli taki poziom, który teraz nazywa się „uncanny valley” albo po polsku „dolina niesamowitości„.

Nawet nie do końca wiadomo dlaczego to powstaje, aczkolwiek wiadomo, że jak widzimy robota który jest podobny do człowieka. To zwykle możemy przestraszyć się robota. Czujemy się dość niekomfortowo, czujemy  jakieś strachy i inne dziwne emocje. Bardzo gorąco polecam słuchaczom sprawdzić to na własnej skórze np. można zobaczyć robota Kismet, które wcale nie przypomina człowieka jest taki zabawny. Natomiast roboty takie jak Bina 48 albo Sofia. One są bardziej podobne do człowieka i tym bardziej wprowadzają zamieszanie i zwykle człowiek czuje się mało komfortowo.

Czy myślisz, że dolina niesamowitości może zniknąć kiedyś w przyszłości? Czy to nie jest tak że to zależy od pokolenia? Na przykład nasze pokolenie, raczej już będzie miało ten problem, no chyba że ktoś bardzo będzie pracował nad tym. Ale pokolenie naszych dzieci i jeszcze niżej, już tego problemu wcale może nie mieć.

Ola:
To jest bardzo ciekawe pytanie, które mnie również badawczo interesuje. W związku z tym mogę polecić, publikację którą wydaliśmy. Ona nazywa się The Necessity of New Paradigms in Measuring Human-Chatbot Interaction. Również mogę pokazać, jak my to badaliśmy. Mam wrażenie, że dolina niesamowitości, jest w pewnym rodzaju fenomenem psychologicznym –  zmienia się.

Ola rozmawia z Bina48
Ola rozmawia z Bina48. Źródło.

Wspomniałeś się o kilku różnych maszynach. My zresztą z Bina 48, humanoidalnych robotem, również pracowaliśmy  i mamy plan, żeby naszą metodologią badawczą objąć również tego robota. Ale to wiadomo, że interakcje z człowiekiem będą bardzo powikłane i trudne. Bo mamy do czynienia z maszyną która wygląda jak człowiek ale nie jest człowiekiem. Bardzo dziwnie wodzi oczami, dziwnie mówi i tak dalej, to będzie budziło lęki.

Myślę że to nie tędy droga, w przyszłości maszyny intelegentne raczej nie będą wyglądaly humanoidalnie, albo przynajmniej jeszcze bardzo długo nie będą humanoidalnymi robotami. Bo reakcja emocjonalna jest zdecydowanie negatywna.

Nas bardziej ciekawiło co się dzieje w przypadku botów. Mamy do czynienia z używaniem technologii głosowej. Taki użytkownik bardzo się waha na początku. Są pewne wersje botów czy robotów które odpowiadają im. Które nie wyglądają tak jak ludzie i ta interakcja nie sprawia dyskomfortu, że nie wiedzą czy to jest człowiek czy maszyna.

Nas zainteresowało to, jak w przypadku bota to może wyglądać. I rzeczywiście, zaobserwowaliśmy, że w przypadku tekstowego bota, mimo tego, że on był taki sam na poziomie inteligencji, silnika wiedzy itd.  był określony bardziej pozytywnie, niż bot który miał interakcję głosową. To oznacza, że głosowy bot budził silne reakcje emocjonalne, próbując używać lub atakować użytkownika wieloma kanałami. Ma twarz, ma głos i jeszcze coś tam chce od niego. To jest to, z czym ludzie jeszcze nie dokońca się pogodzili. Uważam, że to będzie się zmieniać. Sama ta technologia głosowa, weszła w życie mocniej teraz. Jeszcze jakiś czas temu naprawdę nie lubiliśmy tego bardzo. A teraz coraz więcej osób z tego korzysta. To jest jedna moja obserwacja.

A druga jest taka, że sama ekspozycja na nowe technologie też zmienia bardzo nasze postrzeganie technologii. To co dzisiaj jeszcze wydaje się bardzo dziwne i trudne do przyjęcia, to może się zmienić. W miarę kiedy technologie będą się rozwijać, kiedy będziemy wkraczać w tak zwaną posthumanistyczną erę.

Sami będziemy mieli coraz więcej takich technologii na sobie, ubieralnych i rozmaitych innych. Będą się rozwijać inne obszary jak nanomedycyna. Myślę, że w ogóle będzie wzrastać akceptacja dla maszyn i dolina niesamowitości będzie się bardzo przesuwała.

Chociaż z drugiej strony mam taki disclaimer, że w przypadku robotów humanoidalnych, ten silny negatywny efekt przez ostatnie kilka dekad się utrzymywał. Mimo tego, że się rozwijaliśmy, jakoś nie pokonaliśmy tej bariery strachu. Być może są takie obszary, które jeszcze bardzo długo zostaną i człowiek nie będzie chciał ich zaakceptować.

Vladimir:
Czy według Ciebie Test Turinga już został zaliczony?

Ola:
Tak! Ale ja w ogóle mam negatywny stosunek do Testu Turinga. Uwielbiam samego Turinga, cenię go ogromnie. Ale wydaję się, że test już nie ma sensu w tym momencie. Zgadywanie czy coś jest człowiekiem czy maszyną i na tej podstawie stwierdzenie czy jest inteligentny. To jest taka zabawa z przeszłości. Zabawa która poszła w złym kierunku, symulowanie, a nie rozwijanie sztucznej inteligencji. Wszyscy skupili się na tym, żeby oszukać sędziego w teście Turinga i budować takie maszyny które będą udawały ukraińskiego nastolatka, tak jak Eugene Goostman który wygrał zresztą jakąś tam wersję Testu Turinga w 2014.

Bo był taki bot, który udawał ukraińskiego nostalatka w związku z tym, jego zdolność angielskiego była mniejsza, a przez to, że był nastolatkiem mniej wiedział o świecie. On wygrał za pomocą trików. Ten test Turinga, poszedł w taką stronę “trików”, żeby oszukać sędziego, a niekoniecznie zbudować coś wartościowego. Uważam, że test Turinga przez Goostmana został zaliczony.

Uważam, że ten paradygmat zgadywania powinniśmy za sobą zostawić i skupić się na innych wersjach tego testu. Będziemy próbowali już nie na ślepo, żeby ludzie zgadywali. Próbować budować maszyny które będą oszukiwały czy symulowały człowieka z chorobą psychiczną, więc wiadomo że ta interakcja będzie inaczej przebiegać. Tylko skupić się na głębokim uczeniu (deep learning), który umożliwi nam stworzyć swobodną interakcję. Gdzie nie będziemy się zastanawiali czy rozmawiam z maszyną czy człowiekiem. Bo to po prostu nie będzie ważne. Po prostu przekazuje nam ciekawe i ważne informację w dobry sposób albo nie. Nasze badanie też tak zostało skonstruowane. Uważa, że to jest trochę kontrowersyjne, ale według mnie jest zaliczony.

Vladimir:
Test Turinga jest słabo sprecyzowany. Sam Turing zaproponował go w 1950, po czterech latach umarł i nie wprowadził jednoznacznych reguł. Dlatego teraz jesteśmy w takiej sytuacji, w dużym uproszczeniu, że każda uczelnia może zorganizować swój własny konkurs Turinga na własnych zasadach.

Tak w 2014, Kevin Warwick, znany jeszcze jako pierwszy cyborg, uznał że test Turinga został zaliczony, bazując na to, że ponad 30% badaczy uwierzyło, że Eugene jest człowiekiem. Podążając tym tropem, warto przypomnieć, że Test Turinga miał pomóc odpowiedzieć na podstawowe pytanie “czy mogą maszyny myśleć?”. John Searle, zaproponował koncepcję “Chińskiego pokoju”.

Ola:
Tak, znana filozoficzna koncepcja. Ale ona nas trochę uwikłała. Chiński pokój polegał na tym, że ja mogę, jeżeli dostanę określony zestaw procedur, nawet nie znając Chińskiego, sprawnie odpowiadać w Chińskim języku. Będę wiedziała, które procedury uruchomić, żeby odpowiedzieć adekwatnie.

Mam wrażenie, że sztuczna inteligencja na zasadzie  “chińskiego pokoju” była konstruowana. I teraz, kiedy mamy do dyspozycji takie narzędzia jak uczenie maszynowe trzeba ten “chiński pokój” opuścić, zostawić to za sobą, nie symulować, tylko pozwolić maszynie semantycznie rozumieć co ona mówi, na przykład. W tę stronę trzeba się kierować.

Vladimir:
Zamykając temat testu Turinga, kiedyś słyszałem takie powiedzenie: “dla mnie jest akceptowalne, że robot zaliczył test Turinga, natomiast bardzo zmartwiające, kiedy robot będzie udawał, że jeszcze nie zaliczył”. W tym rozumieniu, taki robot już miał posiadać coś, co jest bardziej zbliżone do myślenia. Jak myślisz, czy mogą być powody, żeby robot udawał coś dla nas? Jeżeli tak, to jakie mogą być powody dlatego?

Ola:
Na razie to bardzo zależy od tego, co w nim zapiszemy, ale też bardzo zależy od tego, jakiego typu moralną architekturę zbudujemy. To jest duże zagadnienie teraz, jaką etykę wybierzemy dla maszyn. Duże zagadnienie od czasu Asimova, ale dzisiaj wyjątkowo ważne ( to bardzo widać chociażby w rozwoju autonomicznych samochodów), jak bardzo potrzebnym zagadnieniem jest budowa AI effects czyli etyki dla inteligentnej maszyny, bo możemy pewne rzeczy założyć.

Możemy stworzyć maszynę, która będzie zbudowana na wzorcach naszych zachowań. I jestem przekonana, że ona będzie nas oszukiwała, ponieważ my oszukujemy. To znaczy jeżeli będziemy modelowali swoje cechy na maszynie, to będziemy mieli taką samą maszynę jak my sami, troszeczką cwaną, czasami może zdolną do kolaboracji, ale z drugiej strony kalkulującą pod własną wygodę.

Taką maszynę, która będzie się zachowywała jak my.

Nie wiem, czy przeprowadzałeś sobie test  Moral Machine, który prowadzi MIT. To jest test o tym kogo oszczędzisz na drodze, a kogo zabijesz pod kątem inteligentnej maszyny. W sytuacjach trudnych, kiedy maszyna musi ocenić czyje życie jest bardziej wartościowe do ocalenia, bo ma dylemat i zawsze ktoś ucierpi. I w tej chwili tak to jest rozwiązywane, że ludzie ten test zasilają swoją wiedzą, oni te testy rozwiązują i potem baza wiedzy, która wynika z ich zachowań, stanowi silnik dla maszyny.

W momencie kiedy coś takiego robimy, niewątpliwie tworzymy ontologie, zasady moralne, które są oparte na tym jak my sami funkcjonujemy. Możemy iść inaczej. Nie wiem czy możemy wyjść poza własne ograniczenia, ale możemy tworzyć maszynę, która nie będzie działała jak człowiek, w tym przynajmniej obszarze. Nie wiem na razie jak to zrobić, ale wyobrażam że jest to możliwe. I wtedy ona nie będzie zdolna do oszukiwania, bo nie będzie w jej ontologii to w jakiś sposób obecne. Czy ona później to “wykwintnie” sama, jak mogłaby to zrobić, też nie wiem. To bardzo głębokie pytanie. Myślę że jest droga taka, żeby maszyna nie oszukiwała. Myślę że powinniśmy raczej ją eksplorować niż taką, która będzie odtwarzała wszystkie ludzkie cechy, w tym ludzkie ułomności.

Vladimir:
Mówiąc o temach etycznych, warto przypomnieć dość nowoczesną historię bota z roku 2016 o nazwie Tay od Microsoftu. Kiedy uczył się od ludzi i, poniewaz ludzie są różni, nauczyli, niestety, najgorszych rzeczy, zepsuli bota.

Ola:
Nie zepsuli, tylko po prostu pokazali na co ich stać w jakiś sposób. Bot był otwarty, a oni (głównie hejterzy) zasilili go szalenie kontrowersyjną wiedzą, fake newsami i td, którą potem replikował. Po trzech dniach Microsoft zamknął go.

Vladimir:
Chodźmy dalej, bo jeszcze mam kilka bardzo ciekawych pytań.

Ludzi zostawiają sporo, tak zwanych “cyfrowych śladów” po sobie, zaczynając od “like’ów” czy komentarzy na facebooku, kończąc udostępnianiem zdjęć czy ogólnie poruszanie się po sieci. Dlatego Facebook teraz wie jak my się czujemy, albo czy rozwiedziemy się w ciągu najbliższych dwóch miesięcy….

Pojawia się coraz więcej nowych technologii, firm, które te dane wykorzystują. Natomiast nadal ochrona danych osobowych jest dość szarą strefą. Stajemy się być coraz bardziej przezroczyści.  Nie wiem czy ktoś oglądał ostatnio film Circle, w którym ta idea była dość mocna pokazana.

Pytań jest kilka, jak z tym się czujesz? Czy warto się zbuntować i być anonimową osobą (np. poprzez używanie tor’u), czy jednak zaakceptować udostępnianie danych jako konieczność? Jaka jest Twoja opinia na ten temat i czy tak naprawdę ten wybór jest tylko teoretyczny (bo zawsze możemy pójść mieszkać do jaskiń, ale dla ilu osób to jest akceptowalne)?
Ola:

Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany.

Z jednej strony jest tak, że te wielkie zbiory danych, które wynikają z naszej sieciowej aktywności mogą nam bardzo się przysłużyć. To znaczy mogą się służyć w rozwoju, na przykład, medycyny, rozwoju wielu obszarów wiedzy i to są dane, które uczą maszyny i pozwalają im bardziej nam pomagać,  lepiej asystować. To są bardzo wartościowe dane, które popychają nas na przód.

Z drugiej strony jest tak, że koncept prywatności nie został całkowicie porzucony. Wiele ludzi ma zastrzeżenia do tego, jak do naszych danych, tych “śladów cyfrowych”, instrumentalnie podchodzić.  Mam wrażenie, że jesteśmy w takim punkcie, w którym wykuwają się nowe paradygmaty ochrony w sieci. Możemy się spodziewać, że po etapie kompletnie otwartego podejścia, gdzie masa firm zrobiła na naszych danych duży biznes, nie do końca swoich użytkowników o tym informowała, będziemy teraz w takim punkcie, gdzie regulator będzie wkraczał, czyli Państwo, Unia Europejska i masa innych instytucji w celu chronienia użytkownika. Żeby sieć wycinała nas na nasze życzenie, żebyśmy nie byli obiektem manipulacji na danych.

Uważam że przed nami jest bardzo trudny, turbulentny okres, w którym to będzie się wykuwało od nowa. Mam nadzieje że będą powstawały też nowe ciekawe innowacje. Elon Musk dał szereg funduszy czy grantów na rozwój bezpieczeństwa w sieci. Mam wrażenie, że będziemy teraz w takim punkcie, że będziemy korygować dotychczasowy kurs. Myślę, że to nie jest tak, że każdy konsument będzie musiał koniecznie zainstalować sobie tor’a albo cokolwiek innego, żeby w ogóle funkcjonować, tylko raczej będziemy szli w taką stronę, aby wszyscy w miarę bezpiecznie funkcjonowali, bo to będzie im zapewnione. Może to jest idealistyczne, ale mam wrażenie że to jest punkt zwrotny, należy ten obszar obserwować.

Vladimir:
Nie chcę teraz wchodzić w szczegóły polityczne, bo podcast jest o czymś innym. Ale chcę pokazać moc i co można osiągnąć, mając dostęp do danych i odpowiednich technologii. Po ostatnich wyborach w Stanach Zjednoczonych, bardzo głośno stało się o tak zwayme “microtargetingu” i podobno Trump skorzystał z tego. Jaka jest Twoja opinia, czy już jesteśmy w momencie, kiedy robot nam podpowiada co mamy zrobić, żeby wpłynąć na globalne procesy? Proszę podaj przykład z życia, co dokładniej taka maszyna może doradzić, żeby to wpłynęło na odbiorców?

Ola:
Każdy kto korzysta z Netflixa, chociażby, widzi to po systemie rekomendacji. Tak samo jak każdy, który korzysta z Amazona. To jest uczenie maszynowe, które pozwala dokładać do naszego dotychczasowego systemu wyboru jakieś potencjalne preferencje. Czyli analitykę predykcyjną stosuje na podstawie naszych dotychczasowych wyborów, analizuje co nam jeszcze warto pokazać, co by mogło nam się spodobać i prowadzi sobie rating co nam mogło bardziej się podobać, a co mniej. Każdy, kto korzysta z tego typu usług, takich jak online shopping, który ma rekomendacje doskonale zobaczy to na własnym przykładzie. Zresztą Netflix jest bardzo ciekawym przykładem. Jest szereg publikacji który dają go jako przykład, jak można zbudować system rekomendacyjny.

Tutaj można powiedzieć, że microtargeting występuje. I tak jak powiedziałeś – w wyborach. Ten kto ma dobry microtargeting, będzie te wybory wygrywał. To już po sytuacji z listopada z wyborem Donalda Trumpa, prezydenta USA, wyraźnie widać. Przewaga technologiczna w dużej w mierze może zdecydować o tym jak będzie wyglądała prognoza polityczna za jakiś czas.

Myślę, że już teraz również politycy po tej sytuacji to bardzo dobrze zrozumieli.  To można zobaczyć na podstawie wyborów we Francji. Było tam bardzo silne przygotowanie, zwłaszcza w tematach microtargeting czy potencjalnego ataku hakerskiego czy rozpowszechnianie fake news’ów. Nasi decydenci już wiedzą, że taka przewaga technologiczna może czasami albo już coraz częściej zdecydować jak będzie wyglądała scena polityczna.

Vladimir:
Szacuje się, że wiele miejsc pracy zostanie zastąpione przez roboty i to już w najbliższym czasie. Już teraz to się dzieje. Ostatnio Satya Nadella, CEO Microsoft, powiedział, że szykuje kolejną fale zwolnień. Warto powiedzieć, że nie chodzi o oszczędzanie, bo Microsoft nadal w tysiącach poszukuje ludzi. Chodzi o zmianę sposobu myślenia, o zatrudnianie ludzi z odpowiednimi umiejętnościami.

Microsoft jest duża firmą i pewnym sensie to jest przykład, który pokazuje co będzie się działo wszędzie… Z jednej strony roboty zabiorą nam pracę, z drugiej strony stworzą wiele innych, które będę wymagały zaangażowania naszego mózgu. Mam na myśli myślenie abstrakcyjne, kreatywność czy racjonalna krytyka. Pytań jest kilka. W jaki sposób należy przygotować ludzi do tych zmian? Kolejne pytanie, które mi ostatnio również zadano, a co robić z ludźmi którzy są “przeciętni”, czyli nie mają ochoty do kreatywnego czy abstrakcyjnego myślenia. Jaką masz opinię na ten temat?

Ola:
W rzeczywistości, my od dawna wykorzystaliśmy maszyny jako sposób optymalizacji naszej pracy, ale również zawsze obawialiśmy się. Od stu lat na pewno, z nakładem nawet, obawiamy się kolejnych maszyn które wchodzą na rynek i zabierają kolejne miejsca pracy.  Do tej pory, to rzeczywiście, zawsze było tak, i to trzeba wyraźnie powiedzieć, że technologia więcej miejsc pracy tworzyła niż zabierała. Mimo pojawiających się lęków. Zawsze było tak, że były pewne grupy, które na tym traciły i albo musiały się przekwalifikować albo schodziły z rynku pracy. Co generowało masę frustracji, co dla mnie jest zrozumiałe w 100 procentach.

Ale nowe technologii tworzyły nowe miejsca pracy i nowe zawody przede wszystkim. Zawód informatyka, teraz bardzo powszechny, jeszcze jakiś czas był bardzo “wąskim” zawodem, dostępnym dla małej grupy ludzi. Teraz mamy zawody jak UX Designer, specjalista od social mediów itd. To są zawody których jeszcze jakiś czas temu nie było. Podobnie będą nowe zawody. Z pojawianiem się nowych technologii, zawsze pojawiły się nowe zawody, które potrzebowały nabywania nowych umiejętności.

Niedawno na konferencji w Kopenhadze był zaprezentowany bardzo ciekawy case jak Duński rząd radzi sobie z tym, żeby ludzi przekwalifikowywać. I to rzeczywiście jest ogromny wysiłek, ale taki który się opłaca. Mamy do czynienia z taką sytuacją, po pierwsze, że jeszcze przez długi czas technologie będą tworzyły nowe miejsca pracy. Dlatego nie należy się obawiać, że te miejsca pracy całkowicie znikną. Znikną pewny zawody, ale na ich miejscu pojawią się inne zawody.  Natomiast drugą ważną rzeczą jest działanie regulatora, np. Państwa. Chronić ludzi, którzy będą narażeni na utraty miejsca pracy i danie im szansy na przekwalifikowanie.

W długofalowej perspektywie zdecyduje się, czy chcemy ścieżkę tak zwanego uniwersalnego dochodu podstawowego. W przypadku takiej takiej sytuacji, kiedy automatyzacja postąpi radykalnie i będzie coraz mniej miejsc pracy dla człowieka. Zostanie tylko opieką nad innymi, gdzie będzie potrzebna inteligencja emocjonalna. Zresztą ciekawa, bo jakiś czas temu wydawało się, że takie cechy bardziej humanistyczne czy społeczne to jest kompletnie niepotrzebne, bo potrzebna jest inteligencja analityczna. Teraz mam takie wrażenie, że mamy renesans, takich wyjątkowo ludzkich przymiotów i ich potrzeby na rynku pracy. To pewne takie zawody jeszcze bardzo długo utrzymają się. Związane z opieką, ale również artystyczne. Gdzie ludzie cechują się umiejętnościami, które maszynom jest bardzo trudno powtórzyć.

Ale powiedzmy, że tych miejsc pracy w długofalowej perspektywie będzie ubywało. To wtedy trzeba zdecydować jak my chcemy działać. Opodatkować roboty, stworzyć uniwersalny dochód dla wszystkich, skrócić dzień pracy dla wszystkich, a jednocześnie dawać im dofinansowanie. Czasem wydaje się, że trzeba pracować straszną ilość godzin, w wielu krajach już pracuję się mniej. Mają czas na inne rzeczy. Tutaj nie chce rysować jakieś hurraoptymistycznej perspektywy, ale podeszłabym do tego, żeby trochę studzić negatywne emocje związane z tym. Jasne, że jedne zawody znikną, ale przez jakiś czas będą jeszcze powstawały nowe. Każde państwo musi zrozumieć jak ważna jest ta kwestia, jak ważną rolę pełni sztuczna inteligencja w naszym życiu. Musi odpowiednio się do tego odnieść. Każde państwo, ale również takie wspólnoty jak Unia w swoim zakresie również, powinno starać się na te wyzwania odpowiedzieć.

Vladimir:
Mam nadzieje, że teraz nas faktycznie słuchają ludzie którzy są decyzyjni w tych tematach i będą brać na siebie odpowiedzialność. A ostatnie pytanie na dzisiaj jak można Ciebie znaleźć w sieci?

Ola:
Można mnie dodać na “fejsie”, można znaleźć na LinkedIn, Twitter. No i pewnie, jeżeli ktoś chciałby poszukać moje publikację to polecam wyszukiwarkę Google Scholar. Wystarczy wpisać tam moje nazwisko. Zapraszam do kontaktu, do wymiany uwag i komentarzy. I pomagania, żeby ta nasza praca była jak najbardziej pożyteczna.

Vladimir:
Dziękuję Ci bardzo Ola za Twój czas, za chęć podzielenia się wiedzą.

Ola:
Dzięki wielkie.

Podsumowanie

Jakie masz wrażenia po tej rozmowie? Przyznam się, że dla mnie było bardzo ciekawe mówić na temat sztucznej inteligencji z osobą który bada ją nieco z innej strony.

Kiedyś wcześniej czytałem książkę „Ja Robot” i główna bohaterka była Susan Calvin była robopsychologiem. Wtedy mnie bardzo zaciekawiło to, że taki zawód w ogóle jest możliwy. Druga, rzecz która zwróciła moją uwagę, Susan bardziej lubiła maszyny niż ludzi. To również było wytłumaczone dlaczego – bo są prawdziwe, przezroczyste i otwarte.

Gdy rozmawiałem z Olą, trochę czułem, że właśnie ona w najbliższej przyszłości może wykonywać taki zawód jak robopsycholog. Albo nawet gdzieś pomiędzy, rozumieć psychologię ludzi i robotów. Brzmi to trochę kosmiczne… Jaka jest Twoja opinia na ten temat?

Muszę przyznać, że miałem znacznie więcej pytań, niż zdążyłem zadać. Jeden z obszarów nad którym Ola pracuje są technologie ubieralne. Pewnie większość z nas kojarzy zegarki czy pulsometry. Ale czy wiesz o takich urządzeniach jak Pavlok?

To jest narzędzie dyscyplinarne, które nosisz na ręce i ono kopie Cię prądem kiedy robisz coś czego nie powinieneś. To jest bardzo ciekawe, że teraz jest bardzo popularne w Stanach. Zastanów się do czego to potencjalnie może doprowadzić? Również, nasuwa się pytanie, jaka jest różnica pomiędzy właścicielami niewolników, których bili i kazali coś robić i takimi urządzeniami. Oczywiście, teraz takie urządzenie człowiek zakłada samodzielnie, ale jak z tym będzie jutro? Jak to widzisz?

Zapraszam również do oglądanie  krótiej, 11 minutowej prezentacji na TEDx

Prezentacja na temat transhumanizmu

Zarządzanie sobą: Quantified Self i nowe trendy wearable technologies

Nie-ludzki podmiot w świetle badań filozoficznych i neuronaukowych

Wszystkie notatki znajdziesz na stronie biznesmysli.pl/10. Wraz z linkami, video oraz zdjęciami.

Dziękuję bardzo za informację zwrotną, komentarze czy maile które dostaję.

W między czasie, Krystian Zych zaprosił mnie na wywiad do podcastu „Jak zrobić podcast?”. Gdzie możesz dowiedzieć się więcej o mnie, o tym jak robię „Biznes Myśli” i innych tematach.

https://jakzrobicpodcast.pl/podcast/biznes-mysli-o-sztucznej-inteligencji-opowiada-vladimir-alekseichenko/

Dobrą wieścią dla Ciebie może być to, że aktywnie kontynuuje moją pracę nad przygotowaniem praktycznego warsztatu jak użyć uczenia maszynowego. Zależy mi na tym, żeby pokazać rozwiązanie które mogą dać jak największą wartość dla biznesu. Uwaga! Proszę podziel się ze mną swoim problem biznesowym który chcesz rozwiązać. A może akurat wybiorę Twój i pomogę Ci go rozwiązać. Zapraszam do rozmowy.

To tyle na dzisiaj. Dziękuję Ci bardzo za Twój czas i energię. Następnym razem dowiesz o tym jak wygląda sztuczna inteligencja w jednym z czołowych banków w Polsce.

Cześć i wszystkiego dobrego!

Książka polecana przez gościa

Od 2013 roku zacząłem pracować z uczeniem maszynowym (od strony praktycznej). W 2015 założyłem inicjatywę DataWorkshop. Pomagać ludziom zaczać stosować uczenie maszynow w praktyce. W 2017 zacząłem nagrywać podcast BiznesMyśli. Jestem perfekcjonistą w sercu i pragmatykiem z nawyku. Lubię podróżować.

2 komentarze

  • Kamila Szafrańska

    Mnie bardzo interesuje, w jaki sposób AI może działać w obszarze sztuki – malarstwo, muzyka, tworzenie wierszy i cieszę się, tak jak to zostało wspomniane w podcaście, że również i tym tematom zaczyna się poświęcać nieco uwagi, a nie tylko zdolnościom analitycznym. To przecież również zagadnienia, które da się przenieść na biznes. (Na przykład AI która pomoże skomponować muzykę do filmu lub która zaprojektuje ładne logo dla firmy, czy też jakiś plakat reklamowy) Wierzę, że badania w tym zakresie powiedzą też coś więcej o nas samych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *