Sztuczna inteligencja i prawo
Z tego odcinka dowiesz się:
- sztuczna inteligencja i prawo, czy prawo nadąża za zmianami związanymi ze sztuczną inteligencją?
- jakie wyzwania, możliwości, czy zagrożenia wiążą się z nadaniem praw robotom?
- czy robot może posiadać akt urodzenia, obywatelstwo, a nawet indeks wyższej uczelni?
- czy można sklonować robota?
- czy będzie możliwe uzyskanie obywatelstwa, takiego samego jak ma człowiek – przez robota?
- czy człowiek powinien być informowany o tym, że jest obsługiwany przez robota?
- czy są przepisy regulujące istnienie robotów w społeczeństwie?
- kiedy na polskich drogach będą jeździły samochody bez kierowców?
- do kogo należą prawa autorskie w przypadku utworu wykonanego przez sztuczną inteligencję?
- jakie są warunki harmonijnej koegzystencji ludzi i sztucznej inteligencji?
- dlaczego warto skorzystać z kursu „Praktyczne uczenie maszynowe” na DataWorkshop?
Technologia pędzi do przodu, a jak jest z prawem? Czy obywatelstwo Sophii to normalne obywatelstwo, czy jednak tylko udawane? Czy Sophia ma podobne prawa jak człowiek, czy chociażby jak obywatel? Czy potrzebuje wizy, żeby podróżować? Takich ciekawych pytań jest mnóstwo, więc musiałem ten temat poruszyć.
Dzisiejszym gościem jest Martyna Czapska, która jest prawnikiem i jako jedyna w moim otoczeniu zajmuje się prawem związanym z tak zwaną sztuczną inteligencją. Nasza rozmowa mogła być znacznie dłuższa, bo tyle ciekawych wątków rodziło się po drodze. Być może warto będzie nagrać jeszcze jeden odcinek za jakiś czas, na przykład za rok, myślę, że wtedy pojawi się wiele nowych ciekawostek. Co o tym myślisz?
Martyna przygotowała dla Ciebie prezent, ale o tym będzie na końcu. Po wywiadzie z Martyną znajdziesz opinię Roberta, programisty z dziesięcioletnim doświadczeniem, absolwenta drugiej edycji kursu „Praktyczne uczenie maszynowe” na DataWorkshop.
Zapraszam do przeczytania.
Cześć Martyna, przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz?
Cześć! Bardzo dziękuję za zaproszenie do Twojego podcastu. Nazywam się Martyna Czapska. Jestem prawnikiem, konkretniej radcą prawnym, jestem też miłośniczką fantastyki i Sci-Fi, co tłumaczy, dlaczego zajmuję się między innymi prawem sztucznej inteligencji i prawem robotów, oprócz tego głównie prawem własności intelektualnej – to jest moja ulubiona dziedzina, a jestem z Łodzi, tutaj pracuję i żyję.
Co ostatnio czytałaś?
Jeśli chodzi o beletrystykę, to ostatnio wróciłam do „Lśnienia” Stephena Kinga
i ciurkiem czytam teraz „Doktor Sen” – wcześniej nie miałam okazji.
Natomiast z branżowej literatury, jestem w trakcie czytania książki „When Robots Kill: Artificial Intelligence Under Criminal Law” Gabriela Hallevy`ego.
To jest książka, która traktuje o tym, jak możemy podejść do sztucznej inteligencji, jeżeli chodzi o prawo karne. Są to na razie takie pomysły, bo nie ma przepisów, które by mówiły o prawie karnym i sztucznej inteligencji. Natomiast są to bardzo ciekawe rozważania. Jedna z pierwszych takich książek, więc zdecydowanie mogę polecić, mimo, że jestem dopiero na początku, ale już widzę, że będzie ciekawie.
Brzmi ciekawie. Dzisiaj poruszymy wiele ciekawych tematów na skrzyżowaniu tak zwanej sztucznej inteligencji i prawa, bo na tym się znasz. Technologia szybko pędzi do przodu, świat zmienia się szybciej, niż myślisz. Natomiast jak jest z prawem?
Zaczniemy może od Sophii, bo w sumie nie tak dawno miałem okazję być na konferencji, gdzie zobaczyłem ją na żywo. Akurat ta część – jeśli chodzi o inteligencję – jakoś szczególnie mnie nie zaskoczyła. Chociażby Google Duplex ze swoją rozmową gdzieś w restauracji czy u fryzjera robi większe wrażenie. Natomiast Sophia jest humanoidalnym robotem, czyli ma wyglądać podobnie do człowieka. I mam wrażenie, że większy nacisk twórcy kładą na to, żeby wyglądała bardziej ludzko, ale też przy okazji Sophia ma obywatelstwo Arabii Saudyjskiej. I rodzi się pytanie: co to znaczy dla nas, jako ludzi? I też: jakie to stwarza wyzwania, możliwości, a może nawet zagrożenia?
Rzeczywiście obywatelstwo Sophii jest chyba najbardziej znane i najszerzej dyskutowane. Wzbudziło wiele kontrowersji z uwagi na to, że to jest obywatelstwo Arabii Saudyjskiej. Sophia jest robotem płci żeńskiej, więc zrozumiałe są kontrowersje, które to wywołało. Ale nie jest to jedyny przypadek. Mamy też robota model Pepper.
Jest to taki mały robocik, trochę udający dziecko, w Belgii otrzymał również akt urodzenia i nazywa się Fran Pepper. Był też przypadek, gdzie w Japonii bot, który nie ma akurat ciała, również dostał coś w rodzaju obywatelstwa. Na razie to są takie, można powiedzieć, happeningi. Celem tego jest zwrócenie uwagę, czy to na dany kraj, czy na danego robota.
Zresztą nawet w Polsce poszliśmy tym trendem, bo kiedy Sophia była w Krakowie, gdzie miałaś okazję ją oglądać, dostała również indeks krakowskiej AGH, ze swoim zdjęciem. Można się było pośmiać, że Sophia będzie teraz uczęszczała na zajęcia. Ale tak naprawdę to, że roboty dostają czy akty urodzenia, obywatelstwo, czy nawet indeks uczelni wyższej nie oznacza, że zaczynają mieć prawdziwe prawa, jakie mają ludzie.
Fran Pepper na przykład „pracuje” na Uniwersytecie w Belgii na recepcji – zresztą te roboty są do tego przeznaczone – ale to nie oznacza, że dostaje za swoją pracę wynagrodzenie. Tak samo jak Sophia nie może kupić sobie domu w Arabii Saudyjskiej. Myślę, że nie może przyjść na zajęcia na AGH, chociaż niewątpliwie to by było spore wydarzenie, gdyby się pojawiła i oznajmiła, że chce wziąć udział w wykładzie.
W przypadku Sophii, to nad czym się pracuje, to jest właśnie to podobieństwo, o którym mówiłeś. Podobieństwo do człowieka, mimika, to może być bardzo fajny punkt wyjścia do rozmowy o tym, czy roboty powinny mieć coś, co nazywamy zdolnością prawną, czyli innymi słowy: czy mogą na przykład dostawać wynagrodzenie za swoją pracę, czy w ogóle mogą zawrzeć umowę o pracę, kupić sobie samochód, wynająć mieszkanie itd. Na razie roboty tego nie mają. Te działania związane z nadawaniem im obywatelstwa, to tak naprawdę działania marketingowe, ale być może w przyszłości dojdziemy do tego pytania na serio. No i teraz jeśli pójdziemy tym tropem, to wyzwania jakie stawiane będą przed prawem, to przede wszystkim prawo człowieka do tego, żeby zdawał sobie sprawę z tego, że rozmawia z robotem.
Wspomniany przez Ciebie Google Duplex, który pokazywał rozmowę sztucznej inteligencji, czy to z salonem fryzjerskim, czy z restauracją, nie pozostawia wątpliwości, że osoby, które brały udział w eksperymencie – robiły to nieświadomie. Nie wiedziały, że po drugiej stronie nie ma prawdziwej osoby, tylko jest sztuczna inteligencja.
Jeżeli chodzi o obecnie obowiązujące przepisy, to mamy RODO, czyli ogólne rozporządzenie o ochronie danych osobowych, rozporządzenie europejskie i tam jest mowa o czymś takim, jak zautomatyzowane podejmowanie decyzji, czyli jakiś algorytm analizuje różne informacje i może podjąć decyzję dotyczącą człowieka, na przykład decyzję o tym, czy przyznać komuś raty, czy też ich nie przyznawać. RODO zapewnia coś takiego, jak prawo do ludzkiej interwencji.
Chodzi o to, żeby nie było tak, że jest podejmowana taka automatyczna decyzja i na tym koniec, tylko żeby osoba miała możliwość spotkać się też z jakimś „ludzkim” konsultantem, czy porozmawiać z nim w jakiś inny sposób, żeby mogła ewentualnie spróbować tę decyzję jakoś podważyć albo przekonać go do tego, żeby jeszcze raz się nad nią zastanowić. To jest taki pierwszy namacalny przykład tego, że powinniśmy mieć taką świadomość, że rozmawiamy z robotem.
Jeżeli chodzi o Google Duplex, czy w ogóle o takie boty, z którymi można rozmawiać przez telefon albo przez internet, to mamy kilka kwestii do rozważenia. Jeżeli chodzi o roboty humanoidalne, to wiadomo, że Sophia nie jest doskonała i nie daje się na razie pomylić z człowiekiem, ale jeżeli powstaną doskonalsze roboty, to wtedy ten problem będzie o wiele bardziej aktualny. I druga kwestia, która nam się wtedy pojawi, czy robota można na przykład uderzyć, czy nawet zabić? Jeżeli robot będzie wyglądał podobnie do człowieka, to będziemy sobie zadawać pytanie, czy dana osoba chciała skrzywdzić człowieka, czy chciała skrzywdzić robota, a jeśli sądziła, że krzywdzi człowieka – czy powinna być za to ukarana.
Takie rzeczy są już dzisiaj w prawie karnym. Mamy taką instytucję usiłowania nieudolnego, kiedy właśnie nie da się popełnić przestępstwa, ale osoba, która próbuje, o tym nie wie, natomiast pojawia się pytanie, czy jeżeli będzie maszyna tak podobna do człowieka, że spokojnie można ją pomylić i ktoś chciałby tę maszynę skrzywdzić, to, czy na pewno z taką osobą wszystko jest w porządku, czy na pewno nie powinno być to w jakiś sposób karane.
No i ostatnia kwestia, to obywatelstwo czy osobowość robotów, to jest kwestia tego, że być może takie bardzo autonomiczne maszyny będą mogły dostać jakieś prawa w przyszłości. Prawdopodobnie mniejsze niż ludzie, nie sądzę, żeby roboty tak od razu mogły chociażby kupić sobie nieruchomość. Ale na przykład w raporcie Komisji Europejskiej, w sprawozdaniu z ubiegłego roku, jest mowa o osobach elektronicznych i takie najbardziej zaawansowane autonomiczne maszyny mogłyby dostać status takich osób.
Z kolei w Indiach, w dokumencie, który też traktuje o sztucznej inteligencji, jest mowa o tym, że przepisy, których muszą przestrzegać osoby posługujące się autonomicznymi maszynami, powinny też obowiązywać w odniesieniu do tych maszyn. Być może w przyszłości będziemy mieli do czynienia z czymś takim jak „byty autonomiczne”, to się trochę kojarzy z tymi osobami elektronicznymi z Komisji Europejskiej. No i wreszcie w Indiach w bardzo ciekawy sposób przywołano analogię do praw zwierząt. Te prawa też kiedyś nie były specjalnie rozwinięte, no i tam właśnie jest mowa o tym, że być może prawa robotów będą ewoluowały w podobnym stylu, jak miało to miejsce z prawami zwierząt.
Jak widać jest bardzo dużo wyzwań i jak to wszystko wymieniałaś, to się zastanawiałem, jak to wszystko ogarniemy, jako ludzie. Spróbujemy też to trochę rozwinąć w tym odcinku. Będę dopytywać o jeszcze kilka innych tematów. Wrócę jeszcze do Sophii, bo pamiętam, jak byłem na konferencji, to tak z ciekawości zastanawiałem się nad tym, jak ona podróżuje z punktu widzenia prawnego, skoro jest obywatelem Arabii Saudyjskiej.
Pamiętam, że sprawdziłem, że obywatele Arabii Saudyjskiej potrzebują wizy do Polski – pytanie, które sobie sam zadawałem: ciekawe czy ona ma tą wizę? Jak miałbym możliwość zapytać o cokolwiek Sophię, to zapytałbym: „Czy masz Sophia wizę, czy jesteś tutaj nielegalnie?” [śmiech]. Jak to jest? Czy roboty nie potrzebują takich przepisów? Bo chyba to wynikało z Twoich słów.
Dokładnie tak. Roboty na razie nie są osobami w rozumieniu ani prawa, ani oczywiście w takim rozumieniu biologicznym i w związku z tym traktujemy je jako maszyny, więc myślę, że Sophia po prostu jest przewożona jako przedmiot, jakkolwiek brutalnie by to nie brzmiało. Natomiast być może będzie tak w przyszłości, że roboty będą miały jakieś ograniczenia, ale raczej wynikające z tego, że zostaną na przykład uznane za jakiś towar niebezpieczny, bo można sobie wyobrazić potraktowanie robota jako broni, a jeżeli to byłby robot militarny, to już wtedy absolutnie tak.
Być może powstaną jakieś prawa, które będą ograniczały przewożenie robotów inteligentnych albo robotów humanoidalnych. Myślę, że jesteśmy jeszcze dość daleko od tego, żeby robot potrzebował na przykład takiej wizy, dlatego że wiązałoby się to z uznaniem go za osobę. Myślę, że na ten moment Sophia jest po prostu jednym z przedmiotów, które są przewożone pomiędzy poszczególnymi państwami, z powodu braku wizy przebywała w Polsce nielegalnie, ale z punktu widzenia tego, że jest maszyną, to oczywiście została tutaj, tak jak każda inna maszyna, przywieziona.
To jest bardzo ciekawe: zadaję jedno pytanie i widzę kilka kolejnych wątków, które też można poruszyć. Nie jest to jednoznaczne jak będzie w przyszłości, jak np. wspomniałaś o robocie militarnym, to faktycznie może być on traktowany jako broń. Pociągnę ten wątek jeszcze dalej i ciekawy jestem, co na to powiesz. Generalnie klonowanie ludzi jest zabronione, przynajmniej tak to jest formalnie, jak to jest de facto, zostawmy ten temat poza dyskusją.
Zastanawiam się teraz nad Sophią. Teoretycznie Sophię da się skopiować gdzieś w chmurę, jeżeli chodzi o ten stan bajtów, który ona ma w głowie, prawdopodobnie może nawet ma to w chmurze. Następnie używając drukarki 3D można ją wydrukować. Teraz pewnie jeszcze nie ma takich drukarek, które wydrukują Sophię, ale powiedzmy, w tej bliskiej przyszłości pewnie pojawią się takie drukarki. No i właśnie, teraz się pojawia cały szereg pytań: czy można zrobić klona Sophii, czy w ogóle to jest legalne?
Prawa autorskie poruszymy trochę później, ale ciekawi mnie, kto będzie właścicielem tej Sophii i czy w ogóle istnieje pojęcie „właściciela robota”? Czy nadal paszport – o ile w ogóle istnieje – tej pierwsze Sophii obowiązuje też dla drugiej? I jeszcze ostatnia rzecz – tak z punktu widzenia informatyki – na ile łatwo będzie odróżnić, kto był pierwszy? Tak naprawdę ta informacja nie starzeje się, to są jakieś zera, jedynki, materia może się starzeć, mogą być uszkodzenia, ale stan bajtów? Ciężko wykryć jaki jest stan bajtów. Co o tym myślisz?
To jest naprawdę mega ciekawe pytanie, jedno z najciekawszych, jakie dostałam. Przede wszystkim wiadomo, że klonowanie w tym biologicznym sensie nam tutaj odpada, bo Sophia jest maszyną, no więc możemy mówić o klonowaniu jako o kopiowaniu. Tutaj to zależy oczywiście od techniki, na ile wiernie dałoby się odtworzyć Sophię, zarówno oprogramowanie, jak i powłokę, w której ona się porusza. Załóżmy, że byłoby to w jakimś stopniu możliwe i rzeczywiście jest co najmniej kilka pytań o naruszenie prawa. Przede wszystkim, to byłoby naruszenia praw Hanson Robotics, czyli firmy, która wyprodukowała Sophię, nie samej Sophii, bo ona na razie ma tylko status maszyny.
Mogłoby tutaj dojść np. do naruszenia patentu, a nie wątpię, że Sophia pewnie jakieś patenty ma. Jeżeli by się udało skopiować akurat taką jej część, która jest nimi chroniona, to doszłoby do naruszenia prawa własności przemysłowej. Przy skopiowaniu samego wyglądu twarzy – wątpię, ale wszystko zależy od tego, co byłoby skopiowane, czy to by był na przykład jakiś mechanizm, który nią porusza, czy jakaś inna część, która ma taką ochronę związaną z własnością przemysłową.
Druga kwestia to ochrona nieuczciwej konkurencji. Załóżmy, że ktoś skopiowałby twarz i ciało Sophii i udawałby, że sprzedaje oryginał albo w jakiś inny sposób próbowałby się podpiąć pod renomę, która otacza Sophię i jej towarzyszy. W tym momencie mogłoby się okazać, że to jest naruszenie tej uczciwej konkurencji i tutaj ewentualnie można ścigać taką osobę. Jeśli chodzi o prawa autorskie, to zastanawiałam się, czy twarz Sophii można by podciągnąć pod utwór. Trochę to jest naciągane. Teoretycznie, w prawie autorskim, utwór może oznaczać bardzo wiele rzeczy. Gdyby Sophia miała jakiś oryginalny tatuaż, powiedzmy, na czole, bo to jest głównie ta część, która przypomina skórę i on by został skopiowany na drugiej Sophii, to myślę, że możnaby się było pokusić jeszcze o jakieś roszczenia jeżeli chodzi o prawa autorskie.
Natomiast, co do odróżniania, oczywiście nie jestem ekspertem technicznym czy informatycznym, ale myślę, że tutaj najlepszą formą zabezpieczenia byłyby jakieś ograniczenia techniczne. Może na przykład oprogramowanie, które steruje Sophią mogłoby wykryć, że nie jest uruchamiane na oryginalnym sprzęcie, czyli w oryginalnym ciele Sophii, być może jakiś chip mógłby blokować takie kopiowanie. Myślę, że rozwiązania prewencyjne byłyby wskazane. Natomiast, jeżeli to by się udało skopiować, to mielibyśmy podobną sytuację jak w przypadku bardzo dobrych podróbek markowych produktów, gdzie czasami jest rzeczywiście bardzo ciężko odróżnić i tylko najmniejsze detale świadczą o tym, że mamy do czynienia z podróbką a nie z oryginałem.
Jeżeli chodzi o kwestie tego paszportu, już wychodząc tak bardzo naprzeciw, to oczywiście ten paszport byłby wydany dla oryginalnej Sophii, także myślę, że klon – w sensie podróbki, idealnej kopii – nie powinien się nim posługiwać i nie mógłby tego robić, tym bardziej, że tutaj nie mielibyśmy do czynienia z czymś takim, jak w przypadku klonowania ludzi, bo tutaj jednak doszłoby do sklonowania, tak bardzo Sci-Fi, ale mimo wszystko: osobowości, wspomnień, charakteru itd., ale w przypadku Sophii pojawia się pytanie: na ile by się to udało skopiować, na ile ona ma osobowość? Pytanie, czy w takim skopiowanym robocie zostałoby to samo co w oryginale?
Być może komuś byłby potrzebny robot w sensie ciała, oprogramowanie, w sensie jakaś mechanika, która działa, ale byłaby ona zapełniona zupełnie inną treścią. Wtedy to już nie byłby klon, tylko kopia takiej zewnętrznej powłoki, ale nie oprogramowania. Także jest znowu mnóstwo możliwości, mnóstwo pytań bez odpowiedzi, ale rzeczywiście to, o czym mówisz jest realnym problemem, jeżeli chodzi o zabezpieczenie praw programistów czy inżynierów, którzy konstruują sztuczną inteligencję i roboty. Wiadomo, że nikt nie chce, żeby jego tajemnice czy jego sposoby wydostały się na zewnątrz i to jest myślę jeden z priorytetów: taka ochrona tajemnicy przedsiębiorstwa, ochrona know-how. Oczywiście, jeżeli chodzi o przepisy, to ochrona patentowa też, jak najbardziej. To wszystko bardzo aktualne kwestie i myślę, że jedne z takich najbardziej przyziemnych i takich, z którymi już dzisiaj mamy do czynienia, jeśli chodzi o roboty i o sztuczną inteligencję.
Już wcześniej wspomniałaś, że mimo tego, że mamy jedno słowo jak „obywatelstwo”, to obywatelstwo dla robotów i obywatelstwo dla człowieka nie jest tożsame. Zastanawiam się teraz nad dwoma rzeczami. Pierwsza to jest to, co mamy teraz w Unii i w Polsce, jak wygląda prawo dotyczące robotów? Druga – to trochę taki kierunek na przyszłość, powiedzmy 5, 10, może 15 lat. Czy będzie ten punkt, kiedy obywatelstwo człowieka i robota stanie się pojęciem tożsamym?
Jak na razie jeszcze w polskim prawie próżno byłoby szukać ustawy, czy przepisów, które mówiłyby wprost o tym, co mogą roboty. W Unii Europejskiej też takich przepisów póki co nie ma, ale są ruchy, które są wykonywane w kierunku tego, żeby rozwijać dyskusje i pracować nad pewnymi ułatwieniami, czy uregulowaniami tych kwestii, które w miarę da się regulować. Przede wszystkim Komisja Europejska kładzie nacisk na fundusze, które powinny zostać przeznaczone, czy to na rozwijanie technologii, czy na edukację związaną ze sztuczną inteligencją.
Ponadto jeszcze do końca bieżącego roku komisja ma też opracować kodeks etyki, dotyczący rozwoju sztucznej inteligencji. To miałyby być wskazówki, które mówiłyby o tym, jak tę sztuczną inteligencję tworzyć i rozwijać. Także do połowy przyszłego roku, jeżeli chodzi o prawo, komisja ma opracować wytyczne dotyczące interpretacji dyrektywy w sprawie odpowiedzialności za produkty, czyli przepisów, które mówią o sytuacji, co się dzieje, kiedy produkt wyrządza komuś jakąś szkodę, np. dlatego, że był od początku wadliwy i stało się coś, co nie powinno.
O tych przepisach mówi się w kontekście robotów, że jak na razie to są rzeczy, produkty, więc być może można byłoby się posiłkować tymi regulacjami, które już mamy o odpowiedzialności za produkty. W tym kierunku Komisja Europejska planuje wydać zbiór wskazówek. Jak interpretować te przepisy? Myślę, że właśnie pod roboty. Inną kwestią jest dokument, o którym wspomniałam wcześniej, czyli sprawozdanie zawierające zalecenia dla Komisji Europejskiej. Zostało wydane zimą zeszłego roku i tam też pojawiły się pewne pomysły, dotyczące wprowadzenia prawa, które mogłoby uregulować w jakiś sposób istnienie robotów w społeczeństwie.
Przede wszystkim mówiło się tam o rejestrze inteligentnych robotów. To miałoby wyglądać tak, że wiedzielibyśmy, ile tych robotów w Unii jest, gdzie one się znajdują. Prawdopodobnie dlatego, że inteligentne roboty budzą już pewne kontrowersje, mogłyby być bardziej autonomiczne, więc może dobrze byłoby śledzić, jaki jest ich stan. Była też mowa o kodeksie postępowania dla inżynierów robotyki, czyli pewne wskazówki, jak powinni postępować, jak powinni programować i tworzyć sztuczną inteligencję. Podjęto również temat statusu osób elektronicznych, który mógłby zostać nadany najbardziej rozwiniętym robotom i co ciekawe Unia dopuściła, że takie roboty, takie osoby elektroniczne mogłyby być odpowiedzialne za ewentualne szkody, jakie mogłyby wyrządzić, czy to w wypadku decyzji, które autonomicznie by takie roboty podjęły, czy w wypadku interakcji z osobami trzecimi.
No i ostatnia rzecz, o której już wcześniej troszkę mówiliśmy, czyli prawo człowieka do tego, żeby zdawał sobie sprawę, że rozmawia z maszyną, tutaj podkreślone między innymi w kontekście osób starszych, tak, żeby – jeżeli roboty włączą się w większym stopniu w opiekę nad starzejącym się społeczeństwem – te osoby nie miały wątpliwości, że ich opiekun nie jest człowiekiem tylko robotem.
Wspomniałaś o autonomicznych samochodach, więc porozmawiajmy na ten temat. Co prawda mam osobny odcinek, gdzie z Karolem poruszyliśmy wiele tematów technicznych, teraz jednak chcę zająć się tematem prawnym. Jeżeli dojdzie do wypadku i winny będzie samochód autonomiczny albo przynajmniej będzie w tym uczestniczył, to kto poniesie karę za to? Programista? Ubezpieczyciel, który musiałby ubezpieczyć ten samochód? Albo może producent samochodu? Może jeszcze ktoś?
Tutaj można by mieć różne pomysły, można by się było zastanawiać, czy to zawsze powinien być producent albo czy to zawsze powinien być użytkownik. Myślę, że raczej taka zero-jedynkowa odpowiedź nie jest możliwa, ale przede wszystkim musimy też rozdzielić jeszcze dwie kategorie tych autonomicznych samochodów. W tym momencie trwają różne testy, ale w tych autach jest zawsze kierowca. Mówi się o tym, że kierowca ma być w stanie przejąć kontrolę nad takim autonomicznym samochodem i to jest jedna rzecz. Czyli te samochody niby mają swój autonomiczny tryb, ale jednak w środku jest człowiek.
Natomiast docelowo, oczywiście, w autonomicznych pojazdach chodziłoby o to, żebyśmy nie musieli być stale w gotowości, żeby można było wziąć np. autonomiczną taksówkę i w obu tych przypadkach pojawiają się różne pytania. Ta pierwsza grupa samochodów jest znacznie bardziej aktualna. Tutaj posłużę się przykładem marcowego wypadku samochodu Ubera w Arizonie, w USA. Ten samochód, jak wszyscy wiemy, działał w trybie autonomicznym i doszło do śmiertelnego potrącenia pieszej, która przechodziła przez ulicę w miejscu nieoznakowanym. I tam mowa jest o tym, że były pewne usterki w oprogramowaniu.
Ono błędnie uznało tę kobietę za przeszkodę, której nie trzeba omijać, ale też duży nacisk kładziony jest na to, że ludzki kierowca, który był w tym samochodzie i który miał reagować, gdyby coś się stało, tak naprawdę w czasie jazdy nie patrzył do końca na drogę. Widać na nagraniu z wypadku, że on po prostu patrzy w dół. Doniesienia prasowe i raport policyjny mówią o tym, że oglądał w tym czasie program na serwisie streamingowym, na którym miał wykupione konto. I tutaj pojawiają się wątki przypisania i jemu pewnej odpowiedzialności. Myślę, że konsekwencje wyciągnie głównie Uber. Jednak w mediach jest obecna taka dyskusja i mówi się o tym, że kierowca powinien być w stanie zareagować.
W przypadku takich aut bez kierowcy w ogóle nie będziemy wymagać, żeby kierowcy mieli prawo jazdy, czy żeby patrzyli na drogę, żeby mieli rozeznanie, więc oczywiście ten problem nam odpadnie. Wydaje mi się, że takim dosyć sensownym pomysłem byłyby jakiegoś rodzaju obowiązkowe ubezpieczenia, do zdecydowania jest, czy ma je wykupić producent, czy użytkownik samochodu, czy obie te osoby, ewentualnie jakiś fundusz, na który na przykład producenci samochodów mogliby wpłacać pieniądze. Byłby to wtedy fundusz dla osób poszkodowanych w wypadkach.
Generalnie chodziłoby o to, żeby ustalić taką zasadę odpowiedzialności, żeby osoby poszkodowane mogły w jakiś sposób dochodzić odszkodowania czy zadośćuczynienia. Mówi się wśród prawników o tym, że to powinna być odpowiedzialność na zasadzie ryzyka, czyli nie trzeba udowadniać, że ktoś ponosi winę za wypadek, po prostu korzystanie z takiego samochodu wiąże się z pewnym ryzykiem i trzeba być gotowym, żeby je ponieść. Myślę, że w przyszłości pewnie pójdzie to w stronę obowiązkowych ubezpieczeń, ewentualnie jakiegoś funduszu gwarancyjnego. No i decyzji ustawodawcy, kto miałby te ubezpieczenia opłacać, czy producent czy użytkownik, tutaj w zasadzie można znaleźć argumenty i na jedną, i na drugą koncepcję. Sądzę, że w tym kierunku pójdą rozwiązania. Są pewne przepisy dotyczące samochodów autonomicznych w Niemczech, o tym jeszcze powiem za chwilę, ale takiego konkretnego rozwiązania, które pozwalałyby nam powiedzieć, że zawsze jest tak albo inaczej, albo zbioru klarownych reguł, póki co nie ma.
Różne kraje, niektóre stany w USA, właśnie wspomniałaś Arizonę i jeszcze kilka innych, mają zezwolenie, że mogą się po ich terenie poruszać autonomiczne samochody, pewnie inne kraje też za niedługo się dołączą. Chociażby w Niemczech, mniej więcej rok temu, w czerwcu 2017, były adaptowane prawa – tu prawdopodobnie mnie trochę skomentujesz, wyjaśnisz, co to znaczy w praktyce – i jest możliwość poruszania się autonomicznym samochodem po niemieckich drogach.
BMW inwestuje pieniądze, stworzyło taki ośrodek w kwietniu 2018 i mają ambicje zatrudnić około 2 000 specjalistów do sztucznej inteligencji albo tych autonomicznych pojazdów, mówiąc bardziej precyzyjnie. Ciekawy jestem, jak to będzie się rozwijać w Polsce. Od razu powiem, że słyszałem, że Jaworzno ma pewne ambicje technologiczne, robią pewne zdjęcia, przygotowują się. Jestem pewien, że technologicznie to się da zrobić, ale interesuje mnie, na ile prawo w Polsce pozwoli na uruchomienie takich rzeczy, czyli kiedy zobaczymy autonomiczny samochód na drogach w Polsce.
Tu może trochę skoryguję, bo ten autonomiczny samochód zawsze posiada poziomy, teraz mam na myśli poziom trzeci lub powyżej, a to oznacza, że samochód może się poruszać po drodze do prędkości 60 km/h, bez człowieka. Jest autonomiczność poziomu 2. Mam nadzieję, że moje pytanie jest zrozumiałe. Czyli kiedy zobaczymy w Polsce autonomiczny samochód?
Jeżeli chodzi o prawo w Niemczech, o którym wspomniałeś, to rzeczywiście w ubiegłym roku takie przepisy zostały przyjęte i tam jako naczelną zasadę przyjęto unikanie śmierci człowieka za wszelką cenę. Czyli niezależnie od płci, wieku, od jakichkolwiek innych czynników, ludzie powinni być traktowani dokładnie tak samo i nawet za cenę zniszczenia własności prywatnej, publicznej, czy zwierząt na drogach, zawsze jednak trzeba chronić człowieka. To może być trochę kontrowersyjne, ale jest to chyba w tym momencie takie najrozsądniejsze wyjście. Tyle tylko, że w Niemczech w tych przepisach przyjęto, że w samochodzie autonomicznym musi być kierowca. W momencie kiedy dostanie sygnał od systemu samochodu powinien być w stanie przejąć kontrolę nad kierownicą, czyli tak jak w definicji i prawie polskim, o której też za chwilę jeszcze powiem.
Jeżeli chodzi o nasze prawo, ono nie ignoruje pojazdów autonomicznych. W lutym tego roku została wprowadzona w ustawie „Prawo o ruchu drogowym” definicja takiego pojazdu i ona również zakłada, że w każdej chwili kierowca powinien być w stanie przejąć kontrolę nad samochodem. Czyli nie ma tej takiej pełnej autonomii, która pozwalałaby na to, żeby samochody absolutnie bez kierowców, czy z kierowcą np. śpiącym albo zupełnie zajętym czymś innym, mogły wyjechać na drogę. Nasze prawo przewiduje szereg wymagań, jeżeli chodzi o testowanie samochodów autonomicznych. To jest oczywiście kwestia wykupienia odpowiedniej polisy, zdobycia odpowiednich pozwoleń w urzędach, trzeba wypełnić papiery, trzeba uzyskać zezwolenie.
Ale jest jedna bardzo ciekawa rzecz, która może wpłynąć na to, czy i kiedy zobaczymy na naszych drogach samochody autonomiczne. Mianowicie, żeby dostać pozwolenie, trzeba powiedzieć, jaką trasą będzie jechał ten pojazd, który ma być testowany. Te trasy podaje się do wiadomości mieszkańców i osoba, która ma jakąkolwiek nieruchomość, która leży przy takiej trasie, może sprzeciwić się tym testom, może powiedzieć, że nie chce, by koło jej nieruchomości przejeżdżał samochód. Dlaczego mówię „nieruchomość”, a nie na przykład „dom”? Dlatego, że nie ma w naszych przepisach ograniczenia, że to musi być właściciel, który mieszka przy tej trasie, czy ma tam chociażby dom mieszkalny albo jakiś kawałek lasu. Po prostu ma być właścicielem nieruchomości.
I z jednej strony, ja to widzę jako takie uznanie tej społecznej nieufności wobec sztucznej inteligencji, wobec robotów, która na pewno się pojawia jeszcze wciąż nie tylko w Polsce, ale też w innych krajach. Z drugiej strony, widzę to jako zagrożenie dla płynności takich testów, jako potencjalny czynnik, który może zniechęcić inwestorów do testowania samochodów w Polsce albo może bardzo to utrudnić, dlatego że przepisy nie wymagają żadnego usprawiedliwienia, nie trzeba mówić, dlaczego się nie zgadzamy, po prostu wystarczy się nie zgodzić. Z tego co wiem Jaworzno rzeczywiście zostało sfotografowane i na razie nie widziałam informacji konkretnych, które by mówiły, kiedy samochód będzie testowany. Natomiast rzeczywiście wiem, że ta gmina ma takie ambicje. Ja oczywiście trzymam kciuki, żeby te testy się odbyły, aczkolwiek powstaje pytanie, czy rzeczywiście ta lista wymagań, zwłaszcza ta możliwość sprzeciwiania się przez mieszkańców, nie będzie czymś, co troszeczkę w Polsce nam te testy przyhamuje.
Pozostawmy już w takim razie temat autonomicznych samochodów. Są to pewne wyzwania, wiem, że w innych krajach odwrotnie budują pewne środowiska, gdzie można testować, ale wydaje mi się, że ten temat poruszyliśmy w wystarczającym stopniu.
Chcę teraz poruszyć troszkę inny wątek, a mianowicie prawa autorskie, czym też również się zajmujesz. Ten temat jest dość trudny, tak delikatnie mówiąc, a myślę, że w aspektach sztucznej inteligencji będzie jeszcze trudniejszy. Na początek zadam prawdopodobnie trochę łatwiejsze pytanie, ale takie z życia wzięte. Wyobraźmy sobie, że jest jakieś gotowe rozwiązanie i dostarczy je nam Google Cloud. Wysyłamy tam zdjęcia, a jako odpowiedź dostajemy, co jest na tym zdjęciu, jaki to obiekt itd.
W obecnych czasach, wyzwaniem w uczeniu maszynowym są dane, a właściwie ich brak. Ludzie czasami cieszą się, gdy zdobędą dane, ale tak naprawdę to jest dopiero połowa sukcesu. Podam konkretny przykład: mamy zdjęcia rentgenowskie albo zdjęcia jakichś nieruchomości, ale nie są podpisane, to model nie może się nauczyć, co jest na tych zdjęciach. Możemy to rozwiązać na kilka sposobów: możemy zatrudnić sobie studentów, ale to niestety się nie skaluje.
Są pewne inne triki, jak można użyć – dziwnie to zabrzmi – ale jednak żywych ludzi i zdelegować to zadanie, ale tam też są pewne ograniczenia. Możemy wziąć sobie już gotowy model i potraktować go jako element, który może pomóc nam zdobywać odpowiedzi. Ten proces nazywa się etykietowanie albo labelowanie. Teraz już przejdę do pytania o własność albo o prawa autorskie, czy w tym przypadku firma, która zbuduje model na odpowiedziach innego modelu ma jakiś problem prawny? Jak należy to zinterpretować, tak pod kątem prawnym?
Myślę, że to by zależało w dużej mierze od licencji, na której byłaby udostępniana ta pierwsza usługa, którą wykorzystujemy, żeby już mieć opisane zdjęcia i nauczyć nasz własny model. Myślę że przede wszystkim to zależałoby od tego, na co nam ta licencja pozwala, czyli jeżeli w tym modelu jest mowa o tym, że nie można go wykorzystywać do określonych celów, na przykład do celu tworzenia własnego modelu, to w tym momencie doszłoby do złamania licencji i mogłoby się to wiązać się z różnymi konsekwencjami, np. z utratą dostępu do oprogramowania.
Jeżeli byłoby to oprogramowanie czy usługa chmurowa, mogłoby się wiązać z roszczeniami ze strony twórcy tego pierwszego modelu, czyli np. roszczenia związane ze szkodą, z utraconymi korzyściami, związanymi z tym, że wytrenowaliśmy własny model i oferujemy jego usługi w niższej cenie. Wyobrażam sobie, że mogłoby to w ten sposób wyglądać, ewentualnie, jeśli doszłoby do skopiowania jakiegoś rozwiązania przeznaczonego do podpisywania zdjęć i można byłoby takie rozwiązanie uznać za utwór, czyli właśnie za to, co chroni prawo autorskie, to oczywiście też można byłoby występować z roszczeniami dotyczącymi prawa autorskiego, na przykład z roszczeniem o odszkodowanie, po to żeby przestać naruszać te prawa. Możliwości jest sporo, ale w kontekście tego, o co pytasz myślę, że przede wszystkim należałoby się dobrze zapoznać się z licencją oprogramowania, z którego korzystamy, czy na pewno możemy wykorzystać je w takich celach, żeby trenować swoje własne modele.
Rozumiem, że tu trzeba sprawdzić licencje i zobaczyć, czy przypadkiem ich nie łamiemy. Co prawda, jest to trochę śliski wątek, bo czasami nie jest łatwo udowodnić, że akurat odpowiedź uzyskaliśmy od tego modelu, a nie od studenta i tu pewnie można znaleźć jakąś szarą strefę. Ale zostawmy już ten wątek. Teraz troszkę trudniejszy przykład. Znowu wspomnę o Google, bo w sumie robi wszystkie ciekawe rzeczy związane z AI.
Google ma teraz pewne ambicje i częściowo już to realizowało, kiedy jest jedna sieć neuronowa albo tylko model, który tworzy inną jeszcze bardziej potężną sieć. Ten łańcuch teraz wygląda jak jeden krok, ale wydaje mi się, że w przyszłości tych kroków może być jeszcze kilka, to znaczy, że kilka sieci może budować jeszcze jedną. Jeżeli zastanowimy się przez chwilę, to kto będzie właścicielem tych modeli? Czy ten pierwszy „rodzic” albo, jak to ująć, ten ostatni model dotknięty przez człowieka staje się właścicielem tych wszystkich modeli, które zostały stworzone przez ten model? Albo jeszcze jakoś inaczej? Jak Ty to widzisz?
To jest pytanie, które jest rzeczywiście ciężkie i do tego bardzo kontrowersyjne. Przede wszystkim w prawie autorskim jest naczelna zasada, obowiązująca nie tylko w Polsce, czyli zasada ludzkiego autorstwa. Mogliśmy się przekonać o tym, jakie to jest silne, na przykładzie selfie, które zrobiła sobie kilka lat temu małpka. Była batalia sądowa, próba przyznania praw autorskich tej małpce, bodajże PETA wtedy występowała w jej imieniu i ta próba się nie powiodła. W historii prawa autorskiego jest kilka przypadków, kiedy próbowano przełamać tę zasadę, najśmieszniejszym był chyba bodajże z XIX wieku, gdzie pani twierdziła, że duch podyktował jej poemat.
Sąd nie podzielił tego zapatrywania. Natomiast rzeczywiście to jest bardzo silna zasada, która powoduje, że w tym momencie autorem, w rozumieniu przepisów, może być tylko i wyłącznie człowiek. Powstaje więc pytanie, co się dzieje, kiedy sztuczna inteligencja coś tworzy: czy to inną sztuczną inteligencję w kolejnych i kolejnych powtórzeniach, czy jeżeli namaluje obraz, co też nie jest niemożliwe.
Mamy na przykład projekt The next Rembrandt. Co jeżeli sztuczna inteligencja robi różne rzeczy, które wydawałoby się, że są zarezerwowane dla ludzi? Tutaj jest kilka koncepcji, łącznie z tym, że w ogóle to nie powinna być domena prawa autorskiego tylko jakaś inna domena, skupiająca się bardziej na tym, że firma, która tworzy taką AI, która jest w stanie jeszcze „wypluć” z siebie, czy to coś artystycznego, czy jakiś inny algorytm, powinna czerpać z tego zyski, z uwagi na to, że dokonała nakładów, zainwestowała w to, żeby mieć taką sztuczną inteligencję. W związku z tym pieniądze, które ona może zarobić, powinny wracać do tej firmy. Tylko to już wtedy nie są prawa autorskie, ale to jest całkiem przekonujące.
Natomiast jeżeli mielibyśmy się zastanawiać nad prawami autorskimi, to powstaje pytanie: czy kiedykolwiek będziemy mogli powiedzieć, że sztuczna inteligencja może być autorem utworu w rozumieniu prawa autorskiego? Od razu powiem, że na razie praktycznie nie ma przepisów, które by to regulowały. Wiele osób w ogóle nie dostrzega konieczności ich wprowadzania, właśnie mówiąc o tym, że mogą być inne mechanizmy, które pozwolą na ochronę tego, co produkuje sztuczna inteligencja. Koncepcji wśród prawników jest kilka, bo jeżeli już byśmy się trzymali tych praw autorskich, to jedni mówią, że powinien je mieć programista, bo on programuje, tworzy i gdyby nie programista to sztuczna inteligencja nie byłaby w stanie nic zrobić. Inni z kolei mówią, że to powinien być użytkownik, ewentualnie osoba, która karmi tą sztuczną inteligencję danymi. Bo z kolei gdyby nie dane, jak słusznie sam zauważyłeś, to ta sztuczna inteligencja za wiele też nie dałaby rady zrobić.
Ciekawostką jest to, że jest jedno prawo, które przyjęło przepis odnoszący się do utworów generowanych komputerowo, ale niekoniecznie w taki sposób wyraźny odnoszące się do sztucznej inteligencji i to jest prawo w Wielkiej Brytanii. Tam, jako utwory wygenerowane komputerowo, zostały wskazane takie utwory, w których nie występuje ludzki autor i w Wielkiej Brytanii przepisy mówią, że autorem jest osoba, która podjęła czynności konieczne do tego, żeby taki utwór powstał. To jest oczywiście bardzo nieprecyzyjne określenie i Brytyjczycy sami mają z tym problem.
Zresztą tutaj możemy się zastanawiać, kto bardziej podjął te czynności, czy właśnie użytkownik, który nacisnął guzik, czy osoba, która wgrała dane, czy osoba, która jest autorem sztucznej inteligencji. Natomiast jest to swego rodzaju pierwszy krok. Wydaje mi się, że nie ma szans na to, żeby w najbliższym czasie uznać, że sztuczna inteligencja może być sama w sobie autorem. Myślę, że ta zasada ludzkiego autorstwa będzie się trzymać. Po pierwsze dlatego, że wiele osób twierdzi, że to jest istota prawa autorskiego, a po drugie myślę, że to będzie taka chęć obrony tego ludzkiego bastionu, tej sztuki, która się już wydaje taka bardzo związana z emocjami i osobowością człowieka.
Natomiast nie ulega wątpliwości, że moim zdaniem, w najbliższych latach prawo w jakiś sposób będzie musiało zareagować na udział sztucznej inteligencji w twórczości, czy to w taki sposób, że stworzy jakieś nowe regulacje, czy na przykład te obowiązujące będą interpretowane w taki sposób, żeby pasowały również do sztucznej inteligencji, a w przyszłości do robotów.
W jednym z poprzednich odcinków wspomniałem o raporcie „Ramię w ramię z robotem”, przygotowanym przez McKinsey, Forbes, gdzie między innymi wspomina się, że nawet 49%, czyli prawie 50% czasu pracy w Polsce, odpowiednik siedmiu z kawałkiem milionów miejsc pracy, może zostać zautomatyzowanych do roku 2030, czyli już niebawem. Zastanawiam się właśnie, czy prawo będzie jakoś chronić człowieka lub obywateli przed tymi wyzwaniami. Czy w ogóle są pomysły, żeby tutaj jakoś zadziałać, czy raczej wszyscy na razie obserwują? Teraz mam na myśli bardziej świat prawny lub może na poziomie państwa. Jak to odbierasz? Jak jak to interpretujesz?
Przyznam się od razu, że ja też tak średnio raz w miesiącu czytam, że zostanę zastąpiona robotami i że generalnie żywot prawników zbliża się do końca. Natomiast nie ulega wątpliwości, że w jakimś stopniu ta automatyzacja nastąpi, że część miejsc pracy zniknie, ale oczywiście powstaną też nowe zawody. Będą potrzebni eksperci, czy to od sztucznej inteligencji, czy to osoby o takich miękkich kompetencjach, których robotom nie powierzymy albo przynajmniej nie od razu. Natomiast jednak wystąpi ta przepaść czasowa między tym, gdy sporo osób tę pracę straci, zanim będą mieli szansę rozwinąć się w innym kierunku. I tutaj rzeczywiście są różne inicjatywy w różnych państwach.
Przede wszystkim mówi się, dyskutując o tym, że trzeba kłaść nacisk na edukację. I nie mam tutaj na myśli tylko uczenia się na przykład już w podstawówce, jak obcować z technologią, z robotami, ale także to, że trzeba się uczyć cały czas, czyli konieczne jest kształcenie ustawiczne, trwające przez całe życie, że społeczeństwo powinno być przygotowane do tego, żeby w którymś momencie te swoje kompetencje zmienić i dostosować się do postępującej automatyzacji, robotyzacji rynku pracy. Takie programy dotyczące kształcenia przewidują, że dla pewnej grupy osób będą kształcone te kompetencje cyfrowe.
Jeżeli chodzi o inicjatywy państwowe, są one na przykład w Singapurze czy w Zjednoczonych Emiratach Arabskich. Finlandia też podkreśla znaczenie tego uczenia się na co dzień, a oprócz tego jest jeszcze taka koncepcja, o której się mówi, ale która będzie ciężka do zrealizowania, być może zaakceptowania, czyli koncepcja dochodu podstawowego. Tutaj chodziłoby o to, że obywatele otrzymują pewną kwotę, na przykład co miesiąc, po prostu z samej racji tego, że są. Nie byłby to taki zasiłek, gdzie trzeba byłoby spełniać jakieś specjalne kryteria. Oczywiście mówię o takim rozwiązaniu koncepcyjnym, modelowym. To miałoby zapewnić szanse na przeżycie, nawet jeżeli tej pracy przez automatyzację nie będzie. Taką koncepcję testuje teraz Finlandia, jeszcze do końca tego roku, oczywiście na wybranej grupie osób bezrobotnych. Mają nadzieję, że to doprowadzi do zmotywowania, że takie osoby, mając zabezpieczony ten podstawowy byt, będą chciały się czy to dokształcić, czy to poszukać jakiejś pracy. Wyniki pewnie poznamy w przyszłym roku.
Dyskusja na temat automatyzacji tych miejsc pracy na razie – mam wrażenie – toczy się przynajmniej na medialnym poziomie, raczej w takim tonie: „to roboty zabiorą nam pracę”, ewentualnie na drugim biegunie są właśnie zawody przyszłości i coraz to bardziej futurystyczne wizje tych zawodów. W moim odczuciu przede wszystkim potrzebna byłaby edukacja. I tutaj też oczywiście jest to kwestia zmian w prawie, bo kwestia zmian, czy to w programach szkolnych, czy jakichś dofinansowań na kursy, które przygotowały by nas trochę na to życie z robotami.
Tak, jak najbardziej, dyskusja się rozpoczęła. Może jeszcze nie wszędzie ale jest pewna świadomość tych zagrożeń. A z drugiej strony, w takiej szerszej świadomości, w takim społecznym odbiorze, myślę że jednak głównie jest to nacisk na zagrożenia związane z robotami. A chyba trochę w zbyt małym stopniu na edukację, która może w przyszłości pomóc po prostu się przekwalifikować, dopasować do tego, że otaczają nas roboty i trzeba wykonywać inną pracę niż dotychczas.
Jak myślisz, czy w dłuższej perspektywie prawo, jako narzędzie, wyrobi się z tymi wyzwaniami, że technologie zmieniają się bardzo szybko? Mam na myśli taką bardzo prostą zasadę, której nauczyłem się w życiu: należy używać właściwych narzędzi dopasowanych do konkretnego problemu. Zastanawiam się, czy to nie jest tak, że prawo jednak trochę nie nadąża i musi powstać coś innego, bardziej praktycznego, co potrafi chociaż w jakiś sposób zarządzać tymi zmianami? Pytanie trochę takie bardziej wizjonerskie niż konkretne, ale bardzo jestem ciekaw Twojej opinii.
Bardzo bym chciała móc powiedzieć, że prawo, jak rycerz na białym koniu, pomoże nam wszystkim i dzięki temu będziemy mieć poukładane, jak to jest z tą sztuczną inteligencją. Niestety prawo ma to do siebie, że idzie dosyć wolno. Wiadomo, że technologia przyspieszyła zwłaszcza w ostatnich latach, że to jest kwestia wynalazków, przełomów i to naprawdę idzie błyskawicznie, natomiast prawo, to jest, po pierwsze dużo dyskusji, po drugie dużo procedur. Nie tak łatwo jest uchwalić coś na poziomie europejskim, nie tak łatwo jest zgodzić się czasami na poziomie krajowym, w związku z tym to musi trwać.
Wreszcie kwestia tego, że każdy kraj ma swoje prawo i swoje zapatrywanie na to, jak powinno działać społeczeństwo, a prawo jest właśnie od tego, żeby organizować to życie społeczeństwa. Rzeczywiście, to na pewno nie jest narzędzie idealne, na pewno jest tutaj wiele słabości, widzimy teraz, że technologia i badania nad sztuczną inteligencją trwają od dawien dawna, a taka dyskusja na poważnie, jeżeli chodzi o prawo, dopiero się zaczyna. W ostatnim czasie sporo osób o tym pisze. Mam wrażenie, że to jest taki boom na to, żeby wypowiadać się, jeżeli chodzi o sztuczną inteligencję, bo jest to aktualnie na fali. Ale prawdziwa dyskusja i prawdziwe przepisy są jeszcze o kawałek drogi od nas.
Pytanie tylko, w jaki sposób moglibyśmy sobie usystematyzować ten rozwój technologiczny i tę kwestię sztucznej inteligencji. Jeżeli miałby to być jakiś komitet społeczny, jakaś ocena społeczna, to musielibyśmy bardzo uważać, żeby to się nie zamieniło w takie reprezentowanie poglądów grupy osób. Na tym polega oczywiście polityka i nasz system, ale mam na myśli jakieś wyższe grupy, mam na myśli to, że mogłoby się to odbywać bez jakichś ram prawnych czy instytucjonalnych, żeby nie skończyło się po prostu forsowaniem skrajnych poglądów.
Dlatego pod tym kątem na pewno nie jestem w 100% obiektywna, ale myślę, że jednak jakieś ramy prawne są w porządku, o ile oczywiście powstaną dosyć sprawnie. Na pewno nie będzie tak, że wszystko zdołamy uregulować. Myślę, że nie zdołamy zrobić tak, żeby prawo nadążało za technologią w takim tempie, w jakim ona podąża do przodu. Nie powinno też być tak, że będziemy reagować na jednostkowe wypadki, na przykład jest wypadek z udziałem robota, więc zakazujemy użytkowania jakiegoś typu robota. Tego oczywiście absolutnie nie widzę.
Tutaj chciałabym się odnieść do tego, że takim idealnym, ale utopijnym rozwiązaniem, wydają się być „Trzy Prawa Robotyki” Asimova, też bardzo często przywoływane, jeżeli mówi się o prawie i robotach, zresztą wyskakują w Google na pierwszym miejscu. Tylko tam był stworzony taki świat, w którym wszyscy przyjęli pewne uniwersalne zasady etyczne, które były wgrywane robotom i dzięki temu to działało. W prawdziwym świecie nie będziemy mieli z tym do czynienia. Prawo jest potrzebne, ale jeszcze bardziej byłoby potrzebne porozumienie i to ponad podziałami, czy to krajowymi, czy to politycznymi, ale to jest niestety piękne marzenie, które nie spełni się w najbliższym czasie.
Pozostaje mieć nadzieję, że mimo wszystko, z tymi ograniczonymi narzędziami i prawem, które mamy, uda się jakoś wypracować takie ramy rozwoju sztucznej inteligencji, żeby z jednej strony go nie zahamować, żeby nie było tak, że uniemożliwimy swobodny rozwój technologii, a z drugiej strony, żeby chronić uczestników tego rozwoju, czyli przede wszystkim ludzi, ale w przyszłości być może również roboty, tak, żebyśmy wzajemnie jakoś mogli koegzystować. Chciałabym, żeby to tak wyglądało, mam świadomość, że prawo nie jest idealne, ale wierzę że mimo wszystko, w jakimś stopniu, jest w stanie trochę pomóc nam poukładać to, co się teraz dzieje na świecie i tę nową rewolucję przemysłową, która już teraz jest dookoła nas.
To jest bardzo ciekawe, zobaczymy, jak to się zmieni, bo myślę, że w tej chwili nikt nie jest w stanie jednoznacznie powiedzieć, jak możemy zarządzać tymi zmianami, ale raczej każdy, kto chociaż w miarę jest zaangażowany w dyskusję rozumie, że procesy dotyczące prawa muszą być troszkę szybsze, decyzje muszą być podejmowane szybciej. Ale też nie chodzi o to, żeby decyzje były szybsze i gorszej jakości, tylko żeby były pewne tzw. hamulce, o których też wspomniałaś. Z drugiej strony te zmiany muszą nadążyć za rozwojem.
I ostatnie już pytanie na dzisiaj. Wiem, że prowadzisz też blog, dzielisz się różnymi treściami. Proszę podaj namiary jak można go znaleźć, ale również podaj, gdzie można jeszcze Ciebie znaleźć w sieci.
Oczywiście! Zapraszam na blog LexRobotica.pl i na fanpage na Facebooku. Najłatwiej skontaktować się ze mną, porozmawiać, pogadać o sztucznej inteligencji albo o czymkolwiek innym przez fanpage Lexrobotiki czy mój prywatny profil na Facebooku, to są takie dwa najłatwiejsze kanały kontaktu.
Bardzo dziękuję Ci za dzisiejszą rozmowę. Masz tę pozytywną energię i myślę, że jeżeli wśród prawników będzie więcej takich osób, to te zmiany na pewno nastąpią szybciej. Trzymajmy kciuki wszyscy razem, żeby te zmiany były dobre dla nas wszystkich, czyli ludzi. Dziękuję bardzo.
Dziękuję bardzo!
Co o tym wszystkim myślisz? Mam do Ciebie parę pytań.
Na ile mentalnie jesteś gotów na nadchodzące zmiany? Czy prawo przetrwa na dłuższą metę, biorąc pod uwagę dynamikę zmian? Czy roboty zdobędą prawa obywatelskie, a być może nawet i prawa człowieka? Chociaż możemy popatrzeć na tę kwestię z drugiej strony, większość ludzi przez całe życie jest jedynie obywatelami. Zostawiam Ci to do przemyślenia…
Martyna przygotowała dla Ciebie prezent. Zapisz się na newsletter, żeby go pobrać.
Dzisiaj Robert Laszczak opowie o swoich wnioskach po kursie „Praktyczne uczenie maszynowe” na DataWorkshop. Trzecia edycja rusza w poniedziałek, 29 października. Będzie jeszcze lepsza niż druga, bo wprowadziłem kilka poprawek, ale również zrobiłem jeden dość ciekawy eksperyment, o którym powiem trochę później, a dzięki niemu materiał stał się jeszcze łatwiej przyswajalny. Specjalnie dla słuchaczy BiznesMyśli mam zniżkę 20% ważną do 1 września 2018. Wystarczy przy zakupie wpisać promokod: BIZNES_MYSLI_20.
Zapraszam do wysłuchania opinii Roberta.
Cześć Robert. Przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz.
Cześć Vladimir. Jestem Robert. Pracuję jako programista, aktualnie jestem team leaderem. Programuję aktualnie w Golangu, pracuję w firmie Modulus, tworzymy aktualnie portal dla kolekcjonerów i mieszkam w Krakowie, tak jak Ty.
Co ostatnio przeczytałeś?
Ostatnio, można powiedzieć, wróciłem do klasyki, bo czytałem książkę, do której powróciłem po latach po namowach znajomego i jest to Pragmatyczny programista. Książka ma już w sumie 20 lat, ale jeśli popatrzymy na te wszystkie modne metody programowania, to większość z nich była tam przedstawiana. To fajnie pokazuje, że w informatyce część rzeczy nie jest nowa, tylko została ulepszona, to nie są jakieś nowe metody, tylko stare, dobrze znane metody. Podobnie jak w machine learningu.
Tak, zgadzam się. Tak mniej więcej działa ten świat. Powiedziałeś, że programujesz teraz w Golango, ale również interesujesz się uczeniem maszynowym. Powiedz, jak to się stało, że się tym zainteresowałeś?
Tak, staram się interesować wszystkim, co się dookoła mnie dzieje. Myślę, że każdy, kto ma do czynienia z programowaniem, natrafił na coś takiego jak machine learning i widział potencjalne możliwości, jakie to mu daje. Raz, jest to ciekawość, a dwa, pewien pragmatyzm i chęć rozwiązywania problemów, których takie bardziej tradycyjne metody nie pozwalają do końca rozwiązać. Myślę, że to są główne przyczyny, dlaczego zainteresowałem się tym tematem.
Jesteś absolwentem drugiej edycji „Praktyczne uczenie maszynowe” na DataWorkshop, powiedz, co Ci się najbardziej spodobało w kursie?
Najbardziej spodobało mi się Twoje praktyczne podejście. Tak, jak już mówiłem, praktycznie 10 lat zajmuję się programowaniem i od samego początku starałem się podchodzić do tych zagadnień najbardziej praktycznie, jak się da. I w tym wypadku, Twoje podejście do uczenia tego tematu bardzo mi się podobało. Podam jako przykład taką analogię, która dla programistów będzie na pewno bardzo zrozumiała. Czy jeśli chcemy się nauczyć implementować strony www, to zaczynamy naukę od protokołu TCP? Raczej nikt tak teraz nie robi, tylko zaczynamy od praktyki, jak użyć prostego flaska, żeby zaimplementować jakieś proste REST API, a jeśli potrzebujemy potem zgłębić, jak działa TCP i HTTP – jak najbardziej, ale nie jest to temat, od którego chcielibyśmy zaczynać. Jest to trudne i nie jesteśmy tego w stanie wykorzystać w praktyce.
A podczas Twojego kursu zaczęliśmy od wysokopoziomowych zagadnień, które pozwalają nam zaimplementować coś, co już faktycznie działa. Odwołuję się do tych analogii z pisaniem stron internetowych, nie zaczynamy od tych bardzo niskopoziomowych rzeczy, tylko robimy coś, co można pokazać, co można wykorzystać i co jest jak najbardziej użyteczne.
Dziękuję bardzo, dość ciekawa analogia. Czy było coś, co Cię zaskoczyło podczas kursu?
Na pewno zaskoczyło mnie to, ile czasu mi to zajęło, żeby ten kurs przejść – ostrzegałeś, jak najbardziej – ale może nie do końca wierzyłem, że ten kurs pochłonie tyle czasu. Zaskoczyło mnie to, że ten temat nie jest aż taki trudny, jakby się mogło niektórym wydawać. Jeśli troszkę czasu poświęcimy i będziemy mieć dość dużo samozaparcia, to jesteśmy w stanie na bardzo zadowalającym poziomie, nauczyć się tej techniki. Dorzuciłbym jeszcze to, że po tym kursie mogliśmy zaimplementować coś, co jest potrzebne.
Tak, jak wcześniej odwoływałem się do tych kursów, gdzie budujemy strony internetowe, tutaj też można już wykorzystać w praktyce bardzo proste rzeczy, które są ludziom potrzebne. Wydaje mi się, że to jest bardzo ważne, bo co z tego, że przeczytamy 50 artykułów, 50 książek, jak nie użyjemy tego w praktyce. Jak dla mnie, jest to najważniejsza część, że musimy zrobić coś w praktyce i dopiero wtedy zobaczymy realne problemy, które wychodzą w normalnym życiu. To, jak dla mnie, jest główny plus tego kursu.
Jak czasem się mówi, wiedza nie użyta w praktyce jest bezużyteczna.
Tak, dokładnie. Tym bardziej, jeśli szukamy jakiejś pracy, no to najważniejsze jest to, co faktycznie już robiliśmy, a nie to, że przeczytaliśmy 10 książek o tym, jak to robić. Realnie dla pracodawcy nie jest to takie wartościowe, jeśli przeczytaliśmy 10 książek, bo to nie wnosi aż takiej wartości, ale jeśli powiemy, że zaimplementowaliśmy jakąś stronę internetową, która coś robiła, to jest wow i tu widać plus, który można wnieść do danego przedsięwzięcia.
Czy masz już plany, jak chcesz zastosować wiedzę ML? Być może jakiś hobbystyczny projekt, może gdzieś w pracy albo w inny sposób?
Akurat mam to szczęście, że w pracy jeszcze nie stosujemy, ale już mamy przynajmniej dwa bardzo ważne zastosowania dla uczenia maszynowego. Raz, to rozpoznawanie rzeczy, które ktoś wrzuca, aby je odpowiednio skategoryzować, a dwa, żeby spersonalizować treść strony pod danego użytkownika. Jeśli tworzymy portal, na który możemy wrzucić bardzo wiele typów przedmiotów, prawdopodobnie nie każdego będzie interesować przeglądanie znaczków pocztowych, a nie każdego będzie interesować sztuka. Czasem to się może wykluczać, na przykład kogoś może to interesować, ale mogą też być jakieś subtelne połączenia, czasem może być ciężko wychwycić takimi bardziej tradycyjnymi metodami, więc to jeszcze przede mną.
Ale na pewno dzięki kursowi wiem, że faktycznie można tak zastosować machine learning i wiem, w którą stronę iść. Wiem też, że nie wszędzie można zastosować ML, może są jakieś prostsze metody, którymi rozwiążę ten problem.
Jak myślisz, kto powinien zrobić ten kurs?
Jestem programistą i z mojej perspektywy najlepiej widzę, że ten kurs pokazał mi, że na część problemów, najlepszym rozwiązaniem może być machine learning i nawet jeśli nie chcemy zostać w przyszłości data scentistami, warto się tym zainteresować, nawet po to, żeby mieć kontekst, jeśli budujemy jakąś aplikację, to jak możemy przygotować dane, żeby były przydatne dla reszty firmy, która pracuje bliżej data science. Tak samo jest to bardzo ważna rzecz dla architektów oprogramowania, żeby wiedzieli, że dla kogoś innego wyprodukowanie danych, które będą dobre, będzie bardzo przydatne. Do tego trzeba mieć kontekst, trzeba wiedzieć, jak można tych danych użyć. Nawet jeśli faktycznie nie chcesz zostać data scientist, ale chcesz być dobrym programistą, który wie, jak działa świat, który umie pewne klocki połączyć, to naprawdę warto znać przynajmniej podstawy.
Analogicznie mogę się odnieść do tego, że dobrze znać MySQL, nawet jeśli nie jesteś bazodanowcem, chociaż to też może być inna sytuacja, ale warto zna po prostu kontekst, to jest dla mnie najważniejsze.
To jest bardzo fajna odpowiedź. Ja ostatnio robiłem webinar i prezentację na ten temat, nazwałem to „Programista 2.0”, to jest klasyczny programista plus wzbogacenie wiedzy na temat ML. To nie chodzi o to, że ta osoba musi być ekspertem z ML tylko, jak zwróciłeś uwagę, potrafi rozpoznać kontekst i połączyć odpowiednie kropki w odpowiednim czasie.
Dokładnie. Tym bardziej, że do rozwiązania jakichś trywialnych problemów nie potrzebujemy nie wiadomo jakich umiejętności. To właśnie bardzo dobrze pokazuje, że niektóre problemy są na tyle proste, że ich rozwiązanie nie jest trudne i nie trzeba mieć nie wiadomo jakiego specjalisty, żeby rozwiązał to za nas. Często naprawdę w swoim życiu zderzałem się z problemami, które można by rozwiązać łatwiej, bez nie wiadomo jakiej wiedzy.
Robercie, ostatnie pytanie na dzisiaj. Jak można Cię znaleźć w sieci, gdyby ktoś chciał z Tobą porozmawiać?
Myślę, że najlepsze miejsce to Twitter, bądź LinkedIn. Na Twitterze można mnie znaleźć pod nickiem @roblaszczak, na LinkedIn jako Robert Laszczak. Tam zawsze, jeśli ktoś miałby jakieś pytania, chętnie odpowiem.
Dziękuję Ci bardzo za chęć podzielenia się swoją opinią. Życzę Ci samych sukcesów w Twoim życiu zawodowym, do usłyszenia i do zobaczenia.
Dzięki wielkie. Dzięki wielkie za kurs, bo przede wszystkim oszczędził mi masę czasu, nie musiałem szukać wszystkich rzeczy w Internecie, tylko znalazłem zbiór praktyk, które były w jednym miejscu i wiem, że dało się to zastosować. Dzięki Ci za to, że odpowiadałeś na pytania.
Dziękuję.