<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>test turinga &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/tag/test-turinga/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/tag/test-turinga/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Sun, 21 Jun 2020 11:20:04 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>test turinga &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/tag/test-turinga/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</title>
		<link>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/</link>
					<comments>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 28 Aug 2017 03:00:42 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[AlphaGo]]></category>
		<category><![CDATA[computer vision]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Gartner]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[test turinga]]></category>
		<category><![CDATA[visual turing test]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=547</guid>

					<description><![CDATA[<p>Gartner opublikowała tak zwany hype cycle 2017, po polsku pewnie to brzmi jako cykl szumu albo cykl dojrzałości technologii. Hype cycle został wymyślony przez Gartner w 1995 roku i składa się z pięciu faz: najpierw pierwsze informacje na temat technologii, druga faza to dużo szumu i wielkie oczekiwania, trzecia faza rozczarowania, bo wykrywają się pewne ograniczenia, czwarta faza naprawa tych ograniczeń i znów oczekiwania. Piąta i ostatnia faza stabilizacja. Mówi się, że wtedy technologia dojrzała i oczekiwania są połączone z możliwościami. Dla przykładu, na samym początku, czyli w fazie jeden jest tak zwany smartdust, po polsku to zabrzmi jako “inteligentny kurz”. W dużym uproszczeniu, wobraź sobie ziarno piasku, a teraz pomyśl, że tam jest mini-procesor, bateria i sensory. Bateria jest ładowana poprzez słońce lub inne naturalne źródła energie. Takie cząstki mogą robić wiele różnych rzeczy, obserwować otoczenia, mierzyć różne parametry i nawet szpiegować. Stanisław Lem, jeszcze w roku 1964, pisał w “Niezwyciężony” podobną wizję. Teraz o tym mało się mówi, ale wiele się robi w miejscach, o których też mało się mówi :). Dla przykładu. Pamiętasz o swoich uczuciach kilka czy kilkanaście lat temu, kiedy po raz pierwszy wyszedł w publiczność ekran dotykowy. Wtedy to zrobiło wrażenie. Natomiast jest stosunkowa stara technologia, która już była znana co najmniej w latach 70-tych. ubiegłego stulecia. Podobnie do smartdust jest 4D printing, który też jest w pierwszej fazie. Jednym słowem 4D printing można wytłumaczyć jako &#8211; “transformer”. Wyobraź sobie, że został wydrukowany jakiś obiekt, który może transformować w inny obiekt z czasem. To ma wiele obszarów zastosowań w biznesie. Ale temat rzeka, podziel się swoją opinią czy chcesz więcej dowiedzieć się na temat technologii przyszłości jak smartdust lub 4D Printing? Wracając do cyklu dojrzałości (hype cycle). Zwykle technologia przesuwa się w czasie od lewej strony do prawej, czyli od fazy numer 1 do fazy numer 5. Dla każdej technologii to potrzebuję różną ilość czasu od kilka lat do 10 (czy nawet więcej). Machine learning po raz pierwszy pojawił się w cyklu dojrzałości 3 lata temu (przed tym były tematy powiązane takie jak data science lub bigdata). Przez trzy lata (włączając rok 2017) machine learning jest cały czas jest w fazie numer 2 (czyli dużo szumu). Ciekawostką jest, że 3 lata temu machine learning był bliżej fazy trzeciej niż w roku 2017. A co to oznacza w praktyce? Kilka wniosków. To, że jesteśmy na etapie, kiedy ilość szumu rośnie. Temat jest bardzo nagrzany i zawiera sporo magii. Kolejny wniosek jest taki, że oczekiwania rosną znacznie szybciej niż biznes jest gotów je wykorzystać. Stąd płynie kolejny wniosek, że po fazie drugiej jest faza trzecia &#8211; czyli rozczarowania wynikające z błędnego rozumienia możliwości. Postaram się pomóc Ci przejść z fazy drugiej w fazę trzecią z najmniejszą stratą jak materialną tak i moralną i przygotuję na to osobny odcinek. Już mam kilka pomysłów jak to można zrobić, ale chętnie posłucham Twoje przemyślenia na ten temat. Naukowiec Computer Vision Gościem dzisiejszego odcinku jest naukowiec z DeepMind &#8211; Mateusz Malinowski. W drugim odcinku podcastu już wspomniałem o turing test, również o tym rozmawialiśmy w innych odcinkach podcastu, np. w 10-ym z Aleksandrą Przegalińską. Natomiast Mateusz kilka lat temu zdefiniował Visual Turing Test, który nabiera coraz większą popularność i ważność. DeepMind i AlphaGo Kilka słów o DeepMind. To jest brytyjska firma zajmująca się sztuczną inteligencją założona w roku 2010. Która za 4 lata została przyjęta przez Google za 500 mln. dolarów. Firma stała się bardzo znana ze swoich osiągnięć gry w Go. DeepMind zaimplementował gracza o nazwie AlphaGo i bardzo głośnie po wygranej Lee Sedola w marcu 2016. Lee Sedol w roku 2003 zwiększył swój ranking z 4 danu do 9 danu (najwyższy). Nie ma jednego rankingu gry w Go, ale zgodnie z jednym z nich na moment gry Lee Sedol zajmował 4-tą pozycję w świecie. Już w tym roku, czyli w maju 2017 odbyła się gra Ke Jie. To jest Chińczyk, który ma teraz 20 lat i który zajmuje pozycję numer 1 przez ostatnie trzy lata. Ale AlphaGo wygrało Kei Jie. Po tym wydarzeniu CEO DeepMind, Demis Hassabis powiedział, że AlphaGo może teraz wyjść na emeryturę, bo cel został osiągnięty, a zespół, który nad tym pracował będzie robił inne projekty. Wyzwania sztucznej inteligencji AlphaGo naprawdę zrobiło ogromne wrażenie i już wydaje się, że sztuczna inteligencja staje się coraz bardziej mocniejsza.  A w tym czasie nadal są problemy które dla sztucznej inteligencji są bardzo trudne. Między innymi znane jako paradoks Moraveca. Jak mówił jeszcze Marvin Minsky: Generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie. No właśnie i taki jeden z przykładów, gdzie sztuczna inteligencja wygląda albo wyglądała bardzo słabo to rozumienie relacji. Prosty przykład. Jest stół gdzie stoi szklanka wody, kubek i talerz. Każdy z nich ma położenie, materiał, z którego zbudowany i kształt. Załóżmy talerz stoi za kubkiem. Jeżeli zapytam dziecko, które ma kilka lat lub mniej: “Co jest za kubkiem?”. Odpowiedź będzie — talerz. Dla nas to zadanie brzmi absurdalnie proste, ale jest bardzo trudne dla maszyny. Rozumienie, takich rzeczy przez maszyny jest koniecznie dla zbudowanie mocnej sztucznej inteligencji i dlatego między innymi DeepMind pracuję nad tym. Mateusz to jeden z naukowców, który pracuje nad tym problem. Zapytałem go, czy nadal to jest wyzwaniem i jakie są postępy. Mateusz powiedział: Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy Relation Networks. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu. Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi. Więcej o tym i innych tematach dowiesz się w naszej rozmowie. Na samym końcu również powiem, jak możesz dostać bezpłatnie bilet na konferencję zorganizowaną przez Google. Google organizuję trzy konferencji GDD w roku, pierwsza, jak zwykle odbywa się w stanach (już była), druga w Europie (tym razem w Krakowie) i trzecia w Azji. Konferencja odbędzie się 5 i 6 września (oryginalny koszt biletu jest 250 dolarów). Zapraszam do wysłuchania… Cześć Mateusz, przedstaw się kim jesteś i co studiowałeś, gdzie pracujesz, gdzie mieszkasz? Cześć Vladimir, nazywam się Mateusz Malinowski. Obecnie jestem naukowcem w DeepMind i pracuję nad uczeniem maszynowym, a w szczególności nad tak zwanym widzeniem maszynowym (po ang. computer vision). DeepMind jest placówka nukową, która jest związana z Google i która stała się słynna między innymi za sprawę wygraną w Go. Obecnie mieszkam w Londynie, studiowałem informatykę na Uniwersytecie Wrocławskim, ukończył magisterskie studia z informatyki na Uniwersytecie Saarlandskim w Niemczech, doktorat obroniłem z widzenia maszynowego w Instytucie Maxa Plancka. Myślę że DeepMind faktycznie jest znaną firmą, o którą wiele razy wspominałem w podcaście i nie tylko. Jeszcze porozmawiamy o tym później. Co ciekawego ostatnio przeczytałeś i dlaczego to jest warte polecenia? Przyznam szczerze, że głównie czytałem fachową literaturę. Aczkolwiek z tych artykułów, które ostatnio przeczytałem i które są w miarę przystępne, zaciekawiła mnie seria artykułów na trochę prowokujący temat “Czy neuronaukowcy potrafią zrozumieć mikroprocesorów” (Could a Neuroscientist Understand a Microprocessor? oraz Neuroscience Needs Behavior: Correcting a Reductionist Bias). Zaciekawiły mnie głównie ze względu na to, że od pewnego czasu męczy mnie to, w jaki sposób powinniśmy podejść do budowania inteligentnych maszyn. Czy powinniśmy zastosować podejście redukcjonistyczne,  gdzie tworzymy zrozumiały dla nas jakiś mały element, a potem te rzeczy skalujemy. Czy może lepiej jest podejść od całkowicie odwrotnej strony, zastanowić się nad klasą problemów do rozwiązania, w pewnym sensie opisać czego oczekujemy od takiej inteligentnej maszyny w formie funkcjonalnej, a potem stworzyć metodę, która rozwiązuje tą klasę problemów. O sztucznej inteligencji jest bardzo dużo mitów, dodatkowa jeszcze dziennikarze dolewają oliwy do ognia, można wspomnieć chociaż komentarz, o tym że Facebook wyłącza AI. Jesteś naukowcem, osobą która wie jak to jest z własnego doświadczenie. Mam nadzieje, że uda się nam trochę odczarować mity i pokazać praktyczne osiągnięcie oraz wyzwania. Najpierw co to jest tak zwana sztuczna inteligencja? Czyli zaczynamy od podstaw. To prawda, że niektóre dziennikarze zamiast informować społeczeństwo, niepotrzebnie zaogniają sytuację poprzez takie interpretacje. Co do Twojego pytania, dla mnie sztuczna inteligencja jest dyscypliną, którą zadaniem jest stworzenie maszyn, będących na co najmniej ludzkim kognitywnym poziomie. Oznacza to, że takie maszyny muszą organizować oraz interpretować różne nieustrukturyzowane sygnały i takie sygnały jak, na przykład, język, wizja na co najmniej ludzkim poziomie. Następnie, mając te sygnały, maszyny powinne w jakiś tam sposób reagować na nie i podejmować decyzje, biorąc pod uwagę sygnały wizyjne oraz językowe. Teraz może będę miał trudność, jeżeli chodzi o terminologię, ale chcę zapytać o tak zwany Symbolic AI i Sub-Symbolic AI. Proszę wyjaśnij na przykładach co to jest i na czym polega różnica? Jakie mają wady i zalety? Symboliczne AI i Subsymboliczne AI, to są dwa z pozoru odmienne podejścia do tworzenia, budowania inteligentnych maszyn. Historycznie rzecz biorąc symboliczne AI dominowało. A głównym produktem symbolicznego podejścia do AI są tak zwane systemy eksperckie. Symboliczne AI bazuje na hypotezie, że inteligencja to głównie przetwarzanie symboli. W praktyce, osoba (nazwijmy tą osobę inżynierem AI) tworzy zbiór wiedzy, a także zbiór reguł, który przetwarzają tą wiedze na nową wiedzę. Tutaj dobrym przykładem jest sylogizm logiczny. Jeżeli wszyscy ludzi są śmiertelni (to jest nasza właśnie wiedza), Vladimir jest człowiekiem (to znów jest nasza wiedza), to Vladimir jest śmiertelny i to jest nasza nowa wedydukowana, albo stworzona na podstawie jakiś reguł, wiedza. Jest sporo wyzwań, które stoją przed tworzeniem takich systemów, przede wszystkim skalowalność oraz pewna tolerancja na błędy. Na przykład, ciężko jest zebrać całą wiedzę świata w postacie formalnej, w takiej postaci która byłaby zrozumiała dla maszyny, podobnie ciężko jest stworzyć wszystkie reguły na których świat się opiera. Nasza wiedza, dotycząca wszystkich reguł jakimi człowiek się posługuje w języku angielskim, jest w najlepszym wypadku nie pewna, a być może nawet troszeczkę błędna. Sytuacja jest dużo gorsza z mniej popularnymi oraz mniej zbadanymi językami, takimi jak na przykład język polski. Idąc dalej tym torem zapytajmy się czym jest kod, w jaki sposób formalnie opisać taki obiekt, jakim jest kod i tak dalej. To nie jest taka prosta sprawa. Ostatecznie, oprócz zgromadzenia oraz sformalizowania całej wiedzy, przetwarzanie symboliczne zgromadzonej wiedzy także jest ciężkim, wymagającym procesem z perspektywy obliczeń. Jeżeli chodzi o tolerancje, to te systemy mają często problemy, na przykład, jeżeli podana wiedza jest błędna. Z drugiej strony subsymboliczne AI nastawia się raczej na takie rozmowy, bym powiedział, miękkie oraz bardziej indukcyjne. Tutaj przykładem są metody statystyczne oraz coraz bardziej popularne sieci neuronowe, a szczególnie głębokie uczenie maszynowe czyli deep learning. Z grubsza, szczególnie metody uczenia maszynowego polegają na stworzeniu ogromnych danych treningowych, mogą to być obrazki z oznaczoną kategorią. Na przykład, obrazek, który przedstawia kota razem z kategorią że to jest kot, obrazek przedstawiający psa z kategorią że to jest pies. Następnie uczymy takie maszyny na podstawie takich danych treningowych. Może brzmi to trochę magicznie, ale cały ten proces ostatecznie można formalnie i ładnie opisać za pomocą matematyki. Można także myśleć, że takie systemy uczą się pewnych wzorców za pomocą których potrafią rozwiązywać problemy, które tym systemem zadaliśmy. W pewnym sensie subsymboliczne AI jest przeciwieństwem tego symbolicznego AI i wiele z tych problemów, które wcześniej wymieniłem, tutaj nie istnieją. Pojawiają się za to nowe problemy, taki jak, na przykład, potrzeba zbudowania odpowiednich zbiorów treningowych. Tę modele też ciężej się interpretuje co jest dosyć oczywiste, ponieważ w symbolicznych metodach same wymyśliliśmy reguły, wobec tego wiemy czym te reguły są, co one znaczą. Oba nurty można obrazowo podzielić ze względu na reprezentacje myśli. Symboliczne AI sądzi, że myśl ma reprezentacje symboliczną. Z drugiej strony, szczególnie nutr głębokiego uczenia maszynowego, sądzi że myśl jest wektorem aktywacji sztucznych neuronów. Jeżeli chodzi o przyszłość AI, to osobiście nie wierze, że systemy symboliczne były tu przyszłością. Pewnie w zawęrzonych i dobrze zrozumiałych dziedzinach, takich jak, na przykład, pomóc przy naprawie komputera czy pomóc w naprawie samochodu, mogą się sprawdzać, ale wątpię żeby takie systemy uogolniały &#8211; skalowały się na świat w którym żyjemy.  Widzę więcej nadziei w systemach subsymbolicznych, tak jak głębokie uczenie maszynowe, które ostatnio stało się...</p>
<p>Artykuł <a href="https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/">Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-Z2mkBd3 wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/computer-vision-z-deepmind-mateusz-malinowski" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p><a href="http://www.gartner.com" class="broken_link">Gartner</a> opublikowała tak zwany <a href="http://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-technologies-2017/" class="broken_link">hype cycle 2017</a>, po polsku pewnie to brzmi jako cykl szumu albo cykl dojrzałości technologii. <a href="https://en.wikipedia.org/wiki/Hype_cycle">Hype cycle</a> został wymyślony przez Gartner w 1995 roku i składa się z pięciu faz: najpierw pierwsze informacje na temat technologii, druga faza to dużo szumu i wielkie oczekiwania, trzecia faza rozczarowania, bo wykrywają się pewne ograniczenia, czwarta faza naprawa tych ograniczeń i znów oczekiwania. Piąta i ostatnia faza stabilizacja. Mówi się, że wtedy technologia dojrzała i oczekiwania są połączone z możliwościami.</p>
<figure id="attachment_548" aria-describedby="caption-attachment-548" style="width: 1500px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg"><img decoding="async" fetchpriority="high" class="size-full wp-image-548" src="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg" alt="Cycle Hype | Gartner | 2017" width="1500" height="1269" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg 1500w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-300x254.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-768x650.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-1024x866.jpg 1024w" sizes="(max-width: 1500px) 100vw, 1500px" /></a><figcaption id="caption-attachment-548" class="wp-caption-text">Cycle Hype | Gartner | 2017</figcaption></figure>
<p>Dla przykładu, na samym początku, czyli w fazie jeden jest tak zwany <a href="https://en.wikipedia.org/wiki/Smartdust">smartdust</a>, po polsku to zabrzmi jako “inteligentny kurz”. W dużym uproszczeniu, wobraź sobie ziarno piasku, a teraz pomyśl, że tam jest mini-procesor, bateria i sensory. Bateria jest ładowana poprzez słońce lub inne naturalne źródła energie. Takie cząstki mogą robić wiele różnych rzeczy, obserwować otoczenia, mierzyć różne parametry i nawet szpiegować. Stanisław Lem, jeszcze w roku 1964, pisał w “Niezwyciężony” podobną wizję. Teraz o tym mało się mówi, ale wiele się robi w miejscach, o których też mało się mówi :).</p>
<p>Dla przykładu. Pamiętasz o swoich uczuciach kilka czy kilkanaście lat temu, kiedy po raz pierwszy wyszedł w publiczność ekran dotykowy. Wtedy to zrobiło wrażenie. Natomiast jest stosunkowa stara technologia, która już była znana co najmniej w latach 70-tych. ubiegłego stulecia. Podobnie do <i>smartdust</i> jest 4D printing, który też jest w pierwszej fazie. Jednym słowem 4D printing można wytłumaczyć jako &#8211; “transformer”. Wyobraź sobie, że został wydrukowany jakiś obiekt, który może transformować w inny obiekt z czasem. To ma wiele obszarów zastosowań w biznesie. Ale temat rzeka, podziel się swoją opinią czy chcesz więcej dowiedzieć się na temat technologii przyszłości jak <i>smartdust</i> lub <i>4D Printing</i>?</p>
<p>Wracając do cyklu dojrzałości (hype cycle). Zwykle technologia przesuwa się w czasie od lewej strony do prawej, czyli od fazy numer 1 do fazy numer 5. Dla każdej technologii to potrzebuję różną ilość czasu od kilka lat do 10 (czy nawet więcej). Machine learning po raz pierwszy pojawił się w cyklu dojrzałości 3 lata temu (przed tym były tematy powiązane takie jak data science lub bigdata). Przez trzy lata (włączając rok 2017) machine learning jest cały czas jest w fazie numer 2 (czyli dużo szumu). Ciekawostką jest, że 3 lata temu machine learning był bliżej fazy trzeciej niż w roku 2017.</p>
<p>A co to oznacza w praktyce? Kilka wniosków. To, że jesteśmy na etapie, kiedy ilość szumu rośnie. Temat jest bardzo nagrzany i zawiera sporo magii. Kolejny wniosek jest taki, że oczekiwania rosną znacznie szybciej niż biznes jest gotów je wykorzystać. Stąd płynie kolejny wniosek, że po fazie drugiej jest faza trzecia &#8211; czyli rozczarowania wynikające z błędnego rozumienia możliwości. Postaram się pomóc Ci przejść z fazy drugiej w fazę trzecią z najmniejszą stratą jak materialną tak i moralną i przygotuję na to osobny odcinek. Już mam kilka pomysłów jak to można zrobić, ale chętnie posłucham Twoje przemyślenia na ten temat.</p>
<h2>Naukowiec Computer Vision</h2>
<p>Gościem dzisiejszego odcinku jest naukowiec z DeepMind &#8211; <a href="http://mateuszmalinowski.com">Mateusz Malinowski</a>. W drugim odcinku podcastu już wspomniałem o turing test, również o tym rozmawialiśmy w innych odcinkach podcastu, np. w 10-ym z <a href="http://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandrą Przegalińską</a>. Natomiast Mateusz kilka lat temu zdefiniował Visual Turing Test, który nabiera coraz większą popularność i ważność.</p>
<figure id="attachment_549" aria-describedby="caption-attachment-549" style="width: 3540px" class="wp-caption aligncenter"><a href="http://mateuszmalinowski.com/"><img decoding="async" class="wp-image-549 size-full" title="Mateusz Malinowski | Naukowiec Computer Vision" src="https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small.jpg" alt="Mateusz Malinowski | Naukowiec Computer Vision" width="3540" height="4089" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small.jpg 3540w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-260x300.jpg 260w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-768x887.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-887x1024.jpg 887w" sizes="(max-width: 3540px) 100vw, 3540px" /></a><figcaption id="caption-attachment-549" class="wp-caption-text">Mateusz Malinowski</figcaption></figure>
<p><span id="more-547"></span></p>
<h2>DeepMind i AlphaGo</h2>
<p>Kilka słów o <a href="https://deepmind.com/">DeepMind</a>. To jest brytyjska firma zajmująca się sztuczną inteligencją założona w roku 2010. Która za 4 lata została przyjęta przez Google za <a href="http://www.businessinsider.com/googles-400-million-acquisition-of-deepmind-is-looking-good-2016-7">500 mln. dolarów</a>. Firma stała się bardzo znana ze swoich osiągnięć gry w Go. DeepMind zaimplementował gracza o nazwie <a href="https://deepmind.com/research/alphago/" class="broken_link">AlphaGo</a> i bardzo głośnie po wygranej <a href="https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol">Lee Sedola w marcu 2016</a>.</p>
<p>Lee Sedol w roku 2003 zwiększył swój ranking z 4 danu do 9 danu (najwyższy). Nie ma jednego rankingu gry w Go, ale zgodnie z jednym z nich na moment gry <a href="https://en.wikipedia.org/wiki/Lee_Sedol">Lee Sedol</a> zajmował <a href="https://www.goratings.org/en/history/2016-01-01.html">4-tą pozycję</a> w świecie. Już w tym roku, czyli w maju 2017 odbyła się gra <a href="https://en.wikipedia.org/wiki/Ke_Jie">Ke Jie</a>. To jest Chińczyk, który ma teraz 20 lat i który zajmuje pozycję <a href="https://www.goratings.org/en/history/2017-01-01.html">numer 1</a> przez ostatnie trzy lata. Ale AlphaGo wygrało Kei Jie. Po tym wydarzeniu CEO DeepMind, <a href="https://en.wikipedia.org/wiki/Demis_Hassabis">Demis Hassabis</a> powiedział, że AlphaGo może teraz <a href="http://kopalniawiedzy.pl/AlphaGo-go-Ke-Jie-sztuczna-inteligencja-gra-DeepMing,26490">wyjść na emeryturę</a>, bo cel został osiągnięty, a zespół, który nad tym pracował będzie robił inne projekty.</p>
<h2>Wyzwania sztucznej inteligencji</h2>
<p>AlphaGo naprawdę zrobiło ogromne wrażenie i już wydaje się, że sztuczna inteligencja staje się coraz bardziej mocniejsza.  A w tym czasie nadal są problemy które dla sztucznej inteligencji są bardzo trudne. Między innymi znane jako <a href="https://pl.wikipedia.org/wiki/Paradoks_Moraveca">paradoks Moraveca</a>. Jak mówił jeszcze <a href="https://en.wikipedia.org/wiki/Marvin_Minsky">Marvin Minsky</a>:</p>
<figure id="attachment_146" aria-describedby="caption-attachment-146" style="width: 960px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg"><img decoding="async" class="size-full wp-image-146" src="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg" alt="Marvin Minsky" width="960" height="541" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg 960w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-300x169.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-768x433.jpeg 768w" sizes="(max-width: 960px) 100vw, 960px" /></a><figcaption id="caption-attachment-146" class="wp-caption-text">Marvin Minsky</figcaption></figure>
<blockquote>
<p>Generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie.</p>
</blockquote>
<p>No właśnie i taki jeden z przykładów, gdzie sztuczna inteligencja wygląda albo wyglądała bardzo słabo to rozumienie relacji. Prosty przykład. Jest stół gdzie stoi szklanka wody, kubek i talerz. Każdy z nich ma położenie, materiał, z którego zbudowany i kształt.</p>
<p>Załóżmy talerz stoi za kubkiem. Jeżeli zapytam dziecko, które ma kilka lat lub mniej: <span class="hiddenGrammarError">“</span>Co jest za kubkiem?<span class="hiddenGrammarError">”</span>. Odpowiedź będzie — talerz. Dla nas to zadanie brzmi absurdalnie proste, ale jest bardzo trudne dla maszyny. Rozumienie, takich rzeczy przez maszyny jest koniecznie dla zbudowanie mocnej sztucznej inteligencji i dlatego między innymi DeepMind pracuję nad tym. Mateusz to jeden z naukowców, który pracuje nad tym problem. Zapytałem go, czy nadal to jest wyzwaniem i jakie są postępy. Mateusz powiedział:</p>
<blockquote>
<p><i>Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy </i><a href="https://arxiv.org/pdf/1706.01427.pdf"><i>Relation Networks</i></a><i>. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu. Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi.</i></p>
</blockquote>
<p>Więcej o tym i innych tematach dowiesz się w naszej rozmowie.</p>
<p>Na samym końcu również powiem, jak możesz dostać bezpłatnie bilet na konferencję zorganizowaną przez Google. Google organizuję trzy konferencji GDD w roku, pierwsza, jak zwykle odbywa się w stanach (już była), druga w Europie (tym razem w Krakowie) i trzecia w Azji. Konferencja odbędzie się 5 i 6 września (oryginalny koszt biletu jest 250 dolarów).</p>
<p>Zapraszam do wysłuchania…</p>
<hr />
<p><b>Cześć Mateusz, przedstaw się kim jesteś i co studiowałeś, gdzie pracujesz, gdzie mieszkasz?</b></p>
<p>Cześć Vladimir, nazywam się Mateusz Malinowski. Obecnie jestem naukowcem w <a href="https://deepmind.com/">DeepMind</a> i pracuję nad uczeniem maszynowym, a w szczególności nad tak zwanym widzeniem maszynowym (po ang. <i>computer vision</i>). DeepMind jest placówka nukową, która jest związana z Google i która stała się słynna między innymi za sprawę wygraną w <a href="https://pl.wikipedia.org/wiki/Go">Go</a>. Obecnie mieszkam w Londynie, studiowałem informatykę na Uniwersytecie Wrocławskim, ukończył magisterskie studia z informatyki na Uniwersytecie Saarlandskim w Niemczech, doktorat obroniłem z widzenia maszynowego w Instytucie <a href="https://www.mpg.de/institutes">Maxa Plancka</a>.</p>
<figure id="attachment_550" aria-describedby="caption-attachment-550" style="width: 2592px" class="wp-caption aligncenter"><a href="http://mateuszmalinowski.com/"><img decoding="async" class="size-full wp-image-550" src="https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped.jpg" alt="Code Boy | Mateusz Malinowski" width="2592" height="2277" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped.jpg 2592w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-300x264.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-768x675.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-1024x900.jpg 1024w" sizes="(max-width: 2592px) 100vw, 2592px" /></a><figcaption id="caption-attachment-550" class="wp-caption-text">Code Boy | Mateusz Malinowski</figcaption></figure>
<p><b>Myślę że <a href="https://deepmind.com/">DeepMind</a> faktycznie jest znaną firmą, o którą wiele razy wspominałem w podcaście i nie tylko. Jeszcze porozmawiamy o tym później. Co ciekawego ostatnio przeczytałeś i dlaczego to jest warte polecenia?</b></p>
<p>Przyznam szczerze, że głównie czytałem fachową literaturę. Aczkolwiek z tych artykułów, które ostatnio przeczytałem i które są w miarę przystępne, zaciekawiła mnie seria artykułów na trochę prowokujący temat “Czy neuronaukowcy potrafią zrozumieć mikroprocesorów” (<a href="http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1005268">Could a Neuroscientist Understand a Microprocessor?</a> oraz <a href="https://www.ncbi.nlm.nih.gov/pubmed/28182904">Neuroscience Needs Behavior: Correcting a Reductionist Bias</a>).</p>
<p>Zaciekawiły mnie głównie ze względu na to, że od pewnego czasu męczy mnie to, w jaki sposób powinniśmy podejść do budowania inteligentnych maszyn. Czy powinniśmy zastosować podejście <a href="https://pl.wikipedia.org/wiki/Redukcjonizm">redukcjonistyczne</a>,  gdzie tworzymy zrozumiały dla nas jakiś mały element, a potem te rzeczy skalujemy.</p>
<p>Czy może lepiej jest podejść od całkowicie odwrotnej strony, zastanowić się nad klasą problemów do rozwiązania, w pewnym sensie opisać czego oczekujemy od takiej inteligentnej maszyny w formie funkcjonalnej, a potem stworzyć metodę, która rozwiązuje tą klasę problemów.</p>
<p><b>O sztucznej inteligencji jest bardzo dużo mitów, dodatkowa jeszcze dziennikarze dolewają oliwy do ognia, można </b><a href="http://www.bbc.com/news/technology-40790258"><b>wspomnieć</b></a><b> chociaż komentarz, o tym że Facebook wyłącza AI. Jesteś naukowcem, osobą która wie jak to jest z własnego doświadczenie. Mam nadzieje, że uda się nam trochę odczarować mity i pokazać praktyczne osiągnięcie oraz wyzwania. Najpierw co to jest tak zwana sztuczna inteligencja?</b></p>
<p>Czyli zaczynamy od podstaw. To prawda, że niektóre dziennikarze zamiast informować społeczeństwo, niepotrzebnie zaogniają sytuację poprzez takie interpretacje. Co do Twojego pytania, dla mnie sztuczna inteligencja jest dyscypliną, którą zadaniem jest stworzenie maszyn, będących na co najmniej ludzkim kognitywnym poziomie.</p>
<p>Oznacza to, że takie maszyny muszą organizować oraz interpretować różne nieustrukturyzowane sygnały i takie sygnały jak, na przykład, język, wizja na co najmniej ludzkim poziomie. Następnie, mając te sygnały, maszyny powinne w jakiś tam sposób reagować na nie i podejmować decyzje, biorąc pod uwagę sygnały wizyjne oraz językowe.</p>
<p><b>Teraz może będę miał trudność, jeżeli chodzi o terminologię, ale chcę zapytać o tak zwany </b><a href="https://en.wikipedia.org/wiki/Symbolic_artificial_intelligence"><b>Symbolic AI</b></a><b> i Sub-Symbolic AI. Proszę wyjaśnij na przykładach co to jest i na czym polega różnica? Jakie mają wady i zalety?</b></p>
<p>Symboliczne AI i Subsymboliczne AI, to są dwa z pozoru odmienne podejścia do tworzenia, budowania inteligentnych maszyn. Historycznie rzecz biorąc symboliczne AI dominowało. A głównym produktem symbolicznego podejścia do AI są tak zwane <a href="https://pl.wikipedia.org/wiki/System_ekspertowy">systemy eksperckie</a>. Symboliczne AI bazuje na hypotezie, że inteligencja to głównie przetwarzanie symboli.</p>
<p>W praktyce, osoba (nazwijmy tą osobę inżynierem AI) tworzy zbiór wiedzy, a także zbiór reguł, który przetwarzają tą wiedze na nową wiedzę. Tutaj dobrym przykładem jest sylogizm logiczny. Jeżeli wszyscy ludzi są śmiertelni (to jest nasza właśnie wiedza), Vladimir jest człowiekiem (to znów jest nasza wiedza), to Vladimir jest śmiertelny i to jest nasza nowa wedydukowana, albo stworzona na podstawie jakiś reguł, wiedza.</p>
<p>Jest sporo wyzwań, które stoją przed tworzeniem takich systemów, przede wszystkim skalowalność oraz pewna tolerancja na błędy. Na przykład, ciężko jest zebrać całą wiedzę świata w postacie formalnej, w takiej postaci która byłaby zrozumiała dla maszyny, podobnie ciężko jest stworzyć wszystkie reguły na których świat się opiera. Nasza wiedza, dotycząca wszystkich reguł jakimi człowiek się posługuje w języku angielskim, jest w najlepszym wypadku nie pewna, a być może nawet troszeczkę błędna.</p>
<p>Sytuacja jest dużo gorsza z mniej popularnymi oraz mniej zbadanymi językami, takimi jak na przykład język polski. Idąc dalej tym torem zapytajmy się czym jest kod, w jaki sposób formalnie opisać taki obiekt, jakim jest kod i tak dalej. To nie jest taka prosta sprawa. Ostatecznie, oprócz zgromadzenia oraz sformalizowania całej wiedzy, przetwarzanie symboliczne zgromadzonej wiedzy także jest ciężkim, wymagającym procesem z perspektywy obliczeń. Jeżeli chodzi o tolerancje, to te systemy mają często problemy, na przykład, jeżeli podana wiedza jest błędna.</p>
<p>Z drugiej strony subsymboliczne AI nastawia się raczej na takie rozmowy, bym powiedział, miękkie oraz bardziej indukcyjne. Tutaj przykładem są metody statystyczne oraz coraz bardziej popularne sieci neuronowe, a szczególnie głębokie uczenie maszynowe czyli deep learning. Z grubsza, szczególnie metody uczenia maszynowego polegają na stworzeniu ogromnych danych treningowych, mogą to być obrazki z oznaczoną kategorią.</p>
<p>Na przykład, obrazek, który przedstawia kota razem z kategorią że to jest kot, obrazek przedstawiający psa z kategorią że to jest pies. Następnie uczymy takie maszyny na podstawie takich danych treningowych. Może brzmi to trochę magicznie, ale cały ten proces ostatecznie można formalnie i ładnie opisać za pomocą matematyki. Można także myśleć, że takie systemy uczą się pewnych wzorców za pomocą których potrafią rozwiązywać problemy, które tym systemem zadaliśmy.</p>
<p>W pewnym sensie subsymboliczne AI jest przeciwieństwem tego symbolicznego AI i wiele z tych problemów, które wcześniej wymieniłem, tutaj nie istnieją. Pojawiają się za to nowe problemy, taki jak, na przykład, potrzeba zbudowania odpowiednich zbiorów treningowych. Tę modele też ciężej się interpretuje co jest dosyć oczywiste, ponieważ w symbolicznych metodach same wymyśliliśmy reguły, wobec tego wiemy czym te reguły są, co one znaczą.</p>
<p>Oba nurty można obrazowo podzielić ze względu na reprezentacje myśli. Symboliczne AI sądzi, że myśl ma reprezentacje symboliczną. Z drugiej strony, szczególnie nutr głębokiego uczenia maszynowego, sądzi że myśl jest wektorem aktywacji sztucznych neuronów. Jeżeli chodzi o przyszłość AI, to osobiście nie wierze, że systemy symboliczne były tu przyszłością.</p>
<p>Pewnie w zawęrzonych i dobrze zrozumiałych dziedzinach, takich jak, na przykład, pomóc przy naprawie komputera czy pomóc w naprawie samochodu, mogą się sprawdzać, ale wątpię żeby takie systemy uogolniały &#8211; skalowały się na świat w którym żyjemy.  Widzę więcej nadziei w systemach subsymbolicznych, tak jak głębokie uczenie maszynowe, które ostatnio stało się bardzo popularne lub w systemach mieszanych, które łączą zalety obu podejść do AI.</p>
<p><b>Dałeś szerszą odpowiedź, fajnie. Chciałem tylko dodać o pierwszym przypadku Symbolic AI, problem który pamiętam, który jeszcze w latach 60h się pojawił &#8211; tak zwana eksplozja reguł, czyli tych reguł stało się tak dużo, i  z każdym krokiem robiło się coraz więcej, przy czym nawet dla dla bardzo prostych problemów. Ale jak powiedziałeś, przyszłość leży gdzieś na wykorzystaniu Sub-symbolic i jednak trochę Symbolic AI.<br /></b></p>
<p><b>Jesteś bardzo mocno zaangażowany w tak zwany “</b><a href="https://en.wikipedia.org/wiki/Machine_perception"><b>Machine perception</b></a><b>”, “</b><a href="https://en.wikipedia.org/wiki/Computer_vision"><b>Computer Vision</b></a><b>” i w szczególności “Visual Recognition” oraz “Visual Question Answering”? Będziemy dzisiaj zgłębiać ten temat, tylko zaczniemy od wyjaśnienia na prostych przykładach co to jest?</b></p>
<p><a href="https://en.wikipedia.org/wiki/Machine_perception"><em>Machine perception</em></a> &#8211; to jest dyscyplina, której zadaniem jest stworzenie maszyn, które interpretują i organizują docierające sygnały, jak, na przykład, dźwiękowe czy też wizyjne.</p>
<p><a href="https://en.wikipedia.org/wiki/Computer_vision"><em>Computer vision</em></a> czyli widzenie maszynowe &#8211; to jest dyscyplina, której celem jest stworzenie maszyn, które widzą świat w taki sposób jaki my widzimy, czyli trochę podobnie do machine perception, bo też chodzi o budowę maszyn które organizują i interpretują sygnały, ale są to sygnały głównie wizyjne.</p>
<p><em>Visual recognition</em> &#8211; to jest podkategoria <em>computer vision</em> i sprowadza się w zasadzie do kategoryzacji obiektów ze zdjęć, na przykład, klasyfikacja zdjęć.</p>
<figure id="attachment_552" aria-describedby="caption-attachment-552" style="width: 600px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg"><img decoding="async" class="wp-image-552 size-full" title="Computer Vision | Visual Recogniation" src="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg" alt="Computer Vision | Visual Recogniation" width="600" height="600" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg 600w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-300x300.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-150x150.jpg 150w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-75x75.jpg 75w" sizes="(max-width: 600px) 100vw, 600px" /></a><figcaption id="caption-attachment-552" class="wp-caption-text">Visual Recogniation</figcaption></figure>
<p><em>Visual Question Answering</em> &#8211; to jest całkiem niedawno przedstawiona pod-dziedzina <i>computer vision</i>, która została najpierw zapoczątkowana przez Visual Turing Test podczas mojej pracy doktorskiej. Celem jest zbudowanie maszyn, które odpowiadają na pytania dotyczące świata wizyjnego, jak, na przykład, o to co się znajduje na obrazku lub o to co się znajduje na video.</p>
<figure id="attachment_551" aria-describedby="caption-attachment-551" style="width: 1853px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg"><img decoding="async" class="size-full wp-image-551" src="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg" alt="Visual Question Answering" width="1853" height="950" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg 1853w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-300x154.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-768x394.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-1024x525.jpg 1024w" sizes="(max-width: 1853px) 100vw, 1853px" /></a><figcaption id="caption-attachment-551" class="wp-caption-text">Visual Question Answering</figcaption></figure>
<p><b><i>Computer vision</i></b><b> nie jest tak naprawdę nowym tematem. Już w latach 60-tych na </b><a href="https://dspace.mit.edu/handle/1721.1/11589"><b>MIT</b></a><b> były pierwsze próby pracować z rozpoznawaniem obiektów na zdjęciu. To był stosunkowo prosty przypadek związany z rozpoznawaniem geometrii, a przede wszystkim krawędzi w 3D obiektach&#8230; Natomiast prawdziwy rozkwit </b><b><i>computer vision</i></b><b> nastąpił 5 lat temu. No właśnie co takiego się stało 2012 roku?</b></p>
<p>Tak, sporo się zmieniło między latami 60-mi i 2012 rokiem, jeżeli chodzi o <i>computer vision</i>. Tak jak powiedziałeś, w latach 60h eksperymenty były prowadzone na obrazach o stosunkowo małej złożoności, głównie to były idealne figury geometryczne z bardzo prostą semantyką. Przez semantykę tutaj mam na myśli że było kilka kategorii, takie jak stożki, szcześciany i tak dalej, i te kategorie są łatwe do odróżnienia.</p>
<p>Obecnie, w dzisiejszych czasach, prowadzimy eksperymenty na prawdziwych obrazach, czyli takich obrazach, które można zobaczyć na Facebooku, Flickerze i tak dalej. Tutaj złożoność takich obrazów jest znacznie większa i samo odseparowanie obiektów od tła jest większym wyzwaniem. Semantyka tych obrazów jest dużo bardziej skomplikowana, jest dużo więcej obiektów na takim obrazie, mamy dużo więcej kategorii. Samo pytanie czym jest obiekt jest także skomplikowane.</p>
<p>Na przykład, czy traktować człowieka jako całość, czy to jest kompozycja z jakichś części prostszych typu nogi, ręce i tak dalej, czy może człowiek czy ogólnie obiekty są bardziej zdefiniowane przez kontekst, przez otoczenie czy może to wszystko na raz. To jest dużo bardziej skomplikowany problem niż te problemy, które badaliśmy w latach 60h. I tak jak wspomniałeś, w latach 60h można było stworzyć systemy regułowe, które rozpoznawały to co się dzieje na obrazach, a w dzisiejszych czasach na prawdziwych obrazach to jest zajęcie bardzo ciężkie i prawdopodobnie nie możemy się zdawać na systemy regułowe.</p>
<p>A skoro pytasz o rok 2012, to w tym roku nastąpił przełom w rozpoznawaniu obiektów na obrazach. W największym ówcześnie konkursie na najlepszy system rozpoznający obiekty na obrazach tak zwane <a href="http://image-net.org/">ImageNet</a>, pewna metoda, która bazowała na konwolucyjnych sieciach neuronowych (po ang. <a href="https://en.wikipedia.org/wiki/Convolutional_neural_network"><i>convolutional networks</i></a>) zdeklasowała pozostałe systemy o jakieś 10% i wygrała. I następujące rzeczy się zmieniły, tak to można podsumować.</p>
<p>Przeszliśmy od metod symbolicznych do metod subsymbolicznych, a dokładniej przeszliśmy do metod głębokiego uczenia maszynowego. Wytrenowaliśmy wspomniane metody na dużo większych zbiorach danych treningowych. Pojawianie się takich zbiorów treningowych jak właśnie ImageNet, który zbiera bardzo dużo obrazków jest kluczowe, żeby wytrenować maszyny, które rozpoznają obiekty na obrazach.</p>
<p>Rozwój sprzętu do gier komputerowych czyli karty graficzne także się przyczyniły rozwojowi AI. W szczególności umożliwiły one wytrenowanie głębokich sieci neuronowych na dużych zbiorach treningowych o których wspomniałem.</p>
<p>Technicznie jest to spowodowane tym, że sieci neuronowe dobrze się opisuje za pomocą operacji macierzowych, a te z kolei są także bardzo ważne w grach komputerowych, a za tym te operacje zostały dobrze zoptymalizowane w karty graficzne i przez to także są wykorzystywane do trenowania głębokich sieci neuronowych.</p>
<p><b>Zapytałem już o </b><b><i>computer vision</i></b><b>. Nieco podsumowując, wracają do konkursu </b><a href="http://image-net.org/"><b>ImageNet</b></a><b>, czyli konkurs gdzie algorytm próbuje klasyfikować obiekty które są na zdjęciu. Ludzi robią to z dokładnością 95% innymi słowami błąd jest 5%. </b></p>
<p><b>Pokażę teraz </b><a href="https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/"><b>dynamikę</b></a><b> rozwoju. W roku 2010 (kiedy konkurs rozpoczął się) każdy z uczestników uzyskał wynik ponad 25% błędu, za 2 lata w słynnym roku 2012 najlepszy wynik był (AlexNet) już był 16%, trzy lata później, czyli 2015 udało się osiągnąć trochę mniej niż 5% (3.57% top 5 error) a w 2017 już 29 z 38 drużyn miał wynik mniej niż 5%. Postępy są gigantyczne. Powtórzę, że algorytm robię to lepiej niż ludzi (dla pewnych kategorii). </b></p>
<figure id="attachment_553" aria-describedby="caption-attachment-553" style="width: 640px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg"><img decoding="async" class="size-full wp-image-553" src="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg" alt="Postępy z ImageNet | Zródło: Davidy Yanofski" width="640" height="827" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg 640w, https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006-232x300.jpg 232w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-553" class="wp-caption-text">Postępy z ImageNet | Zródło: <a href="https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/">David Yanofsky</a></figcaption></figure>
<p><b>Pytanie analogiczne, ale będzie dotyczyło innego obszaru. A jak wyglądają postępy z przetwarzaniem i rozumieniem tekstu (</b><a href="https://en.wikipedia.org/wiki/Natural_language_processing"><b>NLP</b></a><b>/</b><a href="https://en.wikipedia.org/wiki/Natural_language_understanding"><b>NLU</b></a><b>)?</b></p>
<p>Jeżeli chodzi o przetwarzanie języka naturalnego, to z tą dziedziną jestem dużo mniej zaznajomiony, więc nie mogę to tak ładnie podsumować. Ale z grubsza mogę powiedzieć , że obecnie wielu problemów z przetwarzania tekstu daje się rozwiązać za pomocą głębokiego uczenia maszynowego czyli za pomocą głębokich sieci neuronowych.</p>
<p>W pewnym sensie to jest bardzo fajne, bo, jak widzisz, podobne metody, które są stworzone do przetwarzania lub klasyfikacji obrazów także nadają się do przetwarzania lub klasyfikacji tekstu. Mamy w pewnym sensie unifikacje, czyli korzystamy z podobnych metod do rozwiązywania z pozoru odmiennych problemów.</p>
<p>Wracając do tematy, to tak zrbusza, ostatnio takie metody jak word2vec albo <a href="https://en.wikipedia.org/wiki/Recurrent_neural_network">rekurencyjne sieci neuronowe</a>, takie jak <a href="https://en.wikipedia.org/wiki/Long_short-term_memory">LSTM</a> udowodniają swoją pozycję przy rozwiązywaniu pewnych problemów z przetwarzania języka naturalnego. Działają one bardzo dobrze na poziomie słów lub krótszych zdań. Te metody, a szczególnie rekurencyjne sieci neuronowe także wykorzystywałem w swojej prace doktorskiej.</p>
<p><b>O Turing Test już wspomniałem kilka razy w poprzednich odcinkach, ale proszę wyjaśnij czym jestem </b><a href="https://en.wikipedia.org/wiki/Visual_Turing_Test"><b>Visual Turing Test</b></a><b>, jaki jest sens tego (albo inaczej, jakie jest zastosowanie, jakie potencjalnie problemy to może rozwiązać) i na koniec jaki jest postęp (zgodnie z estymacją kiedy będzie zaliczony)? </b></p>
<p>O tym mogę długo opowiadać. <a href="http://download.mpi-inf.mpg.de/d2/mmalinow-slides/visual_turing_test-beginning.pdf">Visual Turing Test</a> to jest problem, który zaproponowałem razem z moim opiekunem w czasie swojego pobytu na studiach doktorskich w Instytucie Maxa Plancka. Jest to problem, w którym maszyna dostaje zbiór pytań w języku naturalnym na temat danego obrazu. To mogą być pytania w stylu “ile jest krzeseł przy stole” albo “jaki przedmiot leży w kącie tego pokoju”.</p>
<p>Następnie maszyna, która dostaje takie pytanie, musi odpowiedzieć na nię, a my automatycznie sprawdzamy poprawność udzielonej odpowiedzi. Podsumowując można powiedzieć, że Visual Turing Test jest o tworzeniu takich maszyn, które jednocześnie rozumieją język naturalny, oraz widzenie (na przykład, rozumieją obrazy, zdjęcia, wideo). A to rozumienie mierzymy w sposób automatyczny przez porównanie otrzymanej odpowiedzi do odpowiedzi oczekiwanej.</p>
<p>Podczas pracy doktorskiej, nie tylko zaproponowałem taki test i opisałem kierunek jego rozwoju, także zaproponowałem konkretny zbiór danych <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a>, stworzyłem pierwsze metody, które odpowiadają na pytania o obrazy, jedną będącą połączeniem takiego symbolicznego AI z uczeniem maszynowym, a druga metoda, która już należy do nurtu subsymbolicznego (a dokładniej do głębokiego uczenia maszynowego).</p>
<figure id="attachment_554" aria-describedby="caption-attachment-554" style="width: 762px" class="wp-caption aligncenter"><a href="http://datasets.d2.mpi-inf.mpg.de/mateusz14visual-turing/challenges.pdf"><img decoding="async" class="size-full wp-image-554" src="https://biznesmysli.pl/wp-content/uploads/2017/08/daquar.jpg" alt="Zbiór danych DAQUAR" width="762" height="636" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/daquar.jpg 762w, https://biznesmysli.pl/wp-content/uploads/2017/08/daquar-300x250.jpg 300w" sizes="(max-width: 762px) 100vw, 762px" /></a><figcaption id="caption-attachment-554" class="wp-caption-text">Zbiór danych DAQUAR</figcaption></figure>
<p>Także zaproponowałem kilka metryk, które automatycznie sprawdzają jakość otrzymanych odpowiedzi. Problem okazał się z jednej strony bardzo trudny, a z drugiej &#8211; ciekawy, do tego stopnia, że wiele innych uniwersytetów, a także firm potwierdziły ten pomysł i kontynuują badania w tym kierunku.</p>
<p>Chciałbym opowiedzieć również o początkach Visual Turing Test, bo to jest dosyć istotne do zrozumienia. Problem ten powstał częściowo ze względu na moje niezadowolenie z postępów w tak zwanym <i>image captioningu</i>, gdzie zadaniem maszyny jest opisanie obrazu. Dużym problemem w <i>image captioningu</i> jest automatyczna ewaluacja (ocenianie jakości działania modelu) opisów wyprodukowanych przez maszynę.</p>
<p>Tutaj pojawia się problem: żeby automatycznie stwierdzić czy maszyna poprawnie opisała obraz, potrzebujemy innej maszyny, która rozumie i opis i obraz. Czyli mamy takie zapętlenie, aby sprawdzić czy maszyna rozumie problem musimy mieć maszynę, która już rozumie problem. W praktyce, oczywiście, korzysta się z jakichś tam <a href="https://pl.wikipedia.org/wiki/Heurystyka_(logika)">heurystyk</a>, ale wyniki ewaluacji nie zawsze są zgodne z naszymi intuicjami, a czasami ciężko się te metody interpretuje. A co byłoby, gdybyśmy zadawali bardziej skomplikowane pytania o to co się znajduje na obrazie, ale w taki sposób, aby dostać w miarę prostą odpowiedź.</p>
<p>Na przykład, jeżeli zadam pytanie “czy po mojej prawej stronie znajduję się szklanka”, z jednej strony wymagasz od systemu by ten zrozumiał obiekt szklanka, by zrozumiał pewne relacje w przestrzeni, by zrozumiał samo pytanie, ale sama odpowiedź jest już bardzo prosta &#8211; jest to “tak” albo “nie”. W praktyce okazało się, że ewaluacja nie jest aż taka prosta, ze względu na różne możliwości w interpretacji obrazu lub pytania, ale i tak te problemy są znacznie mniejsze niż w problemie image captioningu.</p>
<p>Kolejnym problemem tych metod, które opisują jest to, że jest im łatwiej oszukiwać, ze względu na to, że nie oczekujemy od takich metod niczego konkretnego, a jest wiele możliwych opisów tego samego obrazu (jedne są bardziej konkretne, inne &#8211; bardziej abstrakcyjne), a z dodatkowo pewną tendencją ludzi do antropomorfizacji powodują, że metody opisujące obraz, nie muszą być bardzo precyzyjne. Jeśli takie metody wykryją gdzieś żyrafy i opiszą obraz, jako żyrafa na trawie, to jest to duża szansa, że taki opis jest ostatecznie poprawny.</p>
<p>Te metody mogą opisać obraz bez głębszego rozumienia tego, co się znajduje na obrazie i stworzyłem Visual Turing Test, który podchodzi do podobnego problemu w inny sposób. Bo wiem, by maszyny zrozumiały to co się dzieje wokół w sposób znacznie głębszy niż to jest wymagane od problemów, w których metoda opisuje obrazy, i to jest robione poprzez zadawanie pytań o dane elementy tego obrazu.</p>
<p>Jeszcze z innej strony na taki test można spojrzeć jak na zbiór wielu indywidualnych problemów, nie tylko takich jak klasyfikacja obiektów na obrazie lecz tak jak klasyfikacja czynności, zrozumienie emocji czy też może atrybutowa charakteryzacja obiektów. Każdy taki problem jest sparametryzowany pytaniem. I to, uważam, jest bardzo ważna rzecz, bo wiem, jeżeli myślimy faktycznie o zbudowaniu prawdziwego AI, to musimy pójść w kierunku dywersyfikacji, czyli taka maszyna nie tylko powinna rozwiązać problem A, ale i problem B itd.</p>
<p>Jeszcze z innej strony Visual Turing Test  jest odejściem od standardowego paradygmatu widzenia maszynowego, zgodnie z którym maszyny badały zrozumienie sceny zdjęć poprzez <a href="https://en.wikipedia.org/wiki/Object_detection">detekcje objektów</a> albo <a href="https://pl.wikipedia.org/wiki/Segmentacja_obrazu">segmentację obrazów</a> i to odejście jest na rzecz prostszego w ewaluacji problemu, który nie wymaga specyficznej reprezentacji, takich jak, na przykład, opisanie obiektu prostokąt czy klasyfikacji poszczególnych pikseli. Ewaluacja jest dokonywana na podstawie ostatecznego celu jaki ma maszyna wykonać, czyli w tym wypadku &#8211; odpowiedzi na pytanie o obraz.</p>
<figure id="attachment_555" aria-describedby="caption-attachment-555" style="width: 655px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg"><img decoding="async" class="size-full wp-image-555" src="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg" alt="Object Detection" width="655" height="488" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg 655w, https://biznesmysli.pl/wp-content/uploads/2017/08/detection-300x224.jpg 300w" sizes="(max-width: 655px) 100vw, 655px" /></a><figcaption id="caption-attachment-555" class="wp-caption-text">Object Detection</figcaption></figure>
<p>Jeżeli chodzi o postęp &#8211; jest on bardzo duży, biorąc pod uwagę, że ten problem jest całkiem nowy. Przede wszystkim powstało wiele zbiorów danych nasz DAQUAR był pierwszy, najbardziej znaną bazą jest <a href="http://www.visualqa.org/">VQA</a>. Wielkość jest na tyle istotna, że obecne metody uczenia maszynowego do efektywnego nauczania wymagają ogromnej liczby danych. Są także inne zbiory danych, takie jak <a href="http://movieqa.cs.toronto.edu/home/" class="broken_link">MovieQA</a> gdzie pytania są na temat wideo, i jest taka baza danych syntetyczna <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>, którą ostatnio eksperymentowałem w DeepMind.</p>
<figure id="attachment_556" aria-describedby="caption-attachment-556" style="width: 658px" class="wp-caption aligncenter"><a href="https://arxiv.org/pdf/1612.00837.pdf"><img decoding="async" class="size-full wp-image-556" src="https://biznesmysli.pl/wp-content/uploads/2017/08/VQA.jpg" alt="Przykłady ze zbioru danych VQA" width="658" height="391" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/VQA.jpg 658w, https://biznesmysli.pl/wp-content/uploads/2017/08/VQA-300x178.jpg 300w" sizes="(max-width: 658px) 100vw, 658px" /></a><figcaption id="caption-attachment-556" class="wp-caption-text">Przykłady ze zbioru danych VQA</figcaption></figure>
<p>Jeżeli chodzi o estymacje, to ciężko powiedzieć kiedy rozwiążemy taki problem. Tutaj też warto odizolować sam problem Visual Turing Test od konkretnej bazy danych, która dany problem ukonkretnia. Myślę że Visual Turing Test w najszerszym znaczeniu równoważy z <a href="https://pl.wikipedia.org/wiki/Silna_sztuczna_inteligencja">General AI</a>.</p>
<p>Z kolei pewne bazy danych mogą zostać rozwiązane w najbliższej przyszłości. Na przykład, wspomniana baza <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> (baza z syntetycznymi obrazami i syntetycznymi pytaniami) została rozwiązana w DeepMind.</p>
<p><b>Zapytam jeszcze o Turing Test. </b><a href="https://en.wikipedia.org/wiki/Alan_Turing"><b>Alan Turing</b></a><b> nie zdefiniował dokładnie co ma nastąpić, żeby powiedzieć że to faktycznie się stało. Teraz jest sporo spekulacji, bo jedni uważają że już udało się osiągnąć Turing Test, drudzy mówią, że udało się przez to że nie został dobrze zdefiniowany i </b><a href="http://www.spidersweb.pl/2014/06/test-turinga-zdany.html"><b>nastolatek z Ukrainy</b></a><b> czy inne chatboty, które udają że są inteligentne. </b></p>
<p><b>Tak naprawdę tylko bardziej próbują się poruszać w bardzo ograniczonej dziedzinie. Zapytam się właśnie o Visual Turing Test, czy też prawdopodobnie będzie taka spekulacja czy jednak jest to bardziej sformalizowane, bo tego nie do końca zrozumiałem.<br /></b></p>
<p>Może nie nazwałbym to spekulacją, jest to powiedzmy odkrywanie bazy danych, która jest dobrym odzwierciedleniem tego Visual Turing Test. Może tutaj powtórzę, że na początku, jak tworzyłem test, stworzyłem go z bazą danych <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a> i można powiedzieć, że to jest pewna instancja Visual Turing Test. W jednej ze swoich publikacji określiłem mniej więcej co mam na myśli poprzez Visual Turing Test i to jest coś trochę bardziej ogólnego.</p>
<p>W pewnym sensie jasno jest to, że to zależy od innych naukowców czy też innych ludzi, jaka jest konkretna baza danych, która odzwierciedla ten Visual Turing Test, więc pod tym względem jest trochę spekulacji. To co jest dla mnie ważne w odróżnieniu od oryginalnego Turing Testu, zdefiniowanego przez Alana Turinga, jest to, że tutaj bardziej skupiamy się na wizji, na obrazach i przez to ten problem staje się bardziej konkretny od Turing Testu, bo tutaj zadaje konkretne pytania “czym jest ten obiekt” albo “ile mamy obiektów na stole” i td. I nie oczekujmy tutaj abstrakcyjnych odpowiedzi.</p>
<p>Ten problem antropomorfizacji czyli takiego nadawania ludzkiego znaczenia rzeczom, które niekoniecznie mają wiele sensu nie jest tak problematyczny, jak w Teście Turinga. Tak jak wspomniałeś że taki robot może udawać dziecko albo inną osobę i zaczynamy wierzyć w to. Tutaj to wszystko jest bardziej konkretne.</p>
<p><b>To się cieszę. Warto czasami mieć konkrety, chociaz z drugiej strony, jeżeli chodzi o Turing Test, ten test nie ma już aż tak dużo znaczenia, po prostu warto iść do przodu, niż próbować z kimś dyskutować, albo robić kolejną wojnę czy ktoś wygrał ten test czy nie. </b></p>
<p><b>Chodźmy dalej, bo jest jeszcze wiele ciekawych rzeczy. Tylko wspomnę jeszcze o </b><b><i>image caption</i></b><b> czy podpisy zdjęć. Pamiętam że kilka tygodni czy miesiąc temu czytałem artykuł o </b><a href="https://blog.keras.io/the-limitations-of-deep-learning.html"><b>ograniczeniach Deep Learning</b></a><b> i tam było między innymi zdjęcie, gdzie dziewczynka z szczoteczką stoi i algorytm rozpoznał, że to jest bejsbol. Jeżeli chodzi o geometrie, to przypomina, ale każdy człowiek zrozumie, że to była szczoteczka</b><b>. </b></p>
<figure id="attachment_557" aria-describedby="caption-attachment-557" style="width: 500px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg"><img decoding="async" class="size-full wp-image-557" src="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg" alt="Dziecko ze szczoteczką" width="500" height="382" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg 500w, https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail-300x229.jpg 300w" sizes="(max-width: 500px) 100vw, 500px" /></a><figcaption id="caption-attachment-557" class="wp-caption-text">Dziecko ze szczoteczką</figcaption></figure>
<p>Tak, to prawda, więcej jest takich sytuacji i oni są związane z tym, że sieci neuronowe nie mają głębokiego zrozumienia obrazu i raczej działają na pewnych korelacjach, na pewnych związkach statystycznych. Czasami te metody dają świetne rezultaty i możesz być zaskoczony że dany obrazek został w taki sposób opisany, ale też jest dużo wypadków gdzie opis obrazka jest zupełnie błędny.</p>
<p>To widać też na Visual Turing Test, bo wiele metod, które daje się wykorzystać do opisania obrazów także się daje trochę zmienić i wykorzystać do Visual Turing testu. Przy takich trudniejszych pytaniach, które są wcale nie aż takie trudne, te metody tak dobrze nie działają.</p>
<p><b>Zgłębię te tematy, bo jak już powiedzieliśmy na początku &#8211; pracujesz w DeepMind, ale może warto zaznaczyć, że nie reprezentujesz firmę jako taką, tylko wyrażasz swoją prywatną opinie, ale jednak porozmawiajmy o tym…</b></p>
<p><b>Zwycięstwo AlphaGo jest bardzo słynne. To było bardzo duży krok do przodu jeżeli chodzi o możliwości komputera. Ale wiem, że DeepMind robi kolejny duży krok do osiągnięcia tak zwanego General AI. </b></p>
<p><b>Algorytmy już całkiem dobrze sobie radzą z wykrywaniem kota czy psa na zdjęciu, ale algorytm nie zdaje sobie sprawę, że pies goni kota (chociaż czasem też </b><a href="https://www.youtube.com/watch?v=S7znI_Kpzbs"><b>była odwrotnie</b></a><b>). </b></p>
<p><iframe title="You Shall Not Pass, Dog" width="960" height="540" src="https://www.youtube.com/embed/S7znI_Kpzbs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Dla człowieka to jest oczywiste. Innymi słowa tak zwanej sztucznej inteligencji po prostu brakuje, jak to czasem mówi się, rozumieniu o życiu, o relacjach (po angielsku </b><a href="https://en.wikipedia.org/wiki/Commonsense_knowledge_(artificial_intelligence)"><b><i>common sense knowledge</i></b></a><b>). </b></p>
<p><b>Czyli jeszcze raz, na dzień dzisiejsze uczenie maszynowe fantastycznie sobie radzi z wykrywaniem wzorców, ale nie jest w stanie wyjaśnić dlaczego jest tak… nie ma głębszego rozumienia. W dużym uproszczeniu, możemy powiedzieć, że student też może “wykuć” na pamięć materiał i nawet zdać egzamin, ale ta wiedza jest po prostu zbiór reguł w głowie i prawie zero zrozumienia. </b></p>
<p><b>Jesteś <a href="https://arxiv.org/pdf/1706.01427.pdf">zaangażowany</a> w jeden z projektów DeepMind, gdzie właśnie próbuję się wyjść na inny poziom sztucznej inteligencji. Proszę wyjaśnij jak podchodzisz do tego tematu w DeepMind. Co już udało się osiągnąć? Również poproszę w miarę prostym, mało technicznym językiem z przykładami. </b></p>
<p>W DeepMind pracowałem nad <i>relation networks</i> i tak jak wspomniałeś, sieci neuronowe o ile dobrze potrafią rozpoznawać obiekty na obrazach, to z pewnymi rzeczami, takimi jak relacje pomiędzy różnymi obiektami to jest dużo ciężej. Głównym celem tego projektu jest zmiana tego stanu rzeczy.</p>
<p>Już jakiś czas temu chyba wspomniałem o zbiorze <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>, który jest zbiorem składającym się z trójek pytanie-odpowiedź-obraz, więc można powiedzieć że to także jest część większego projektu, który został zapoczątkowany przez Visual Turing Test czyli także do niego należy albo Vision Question Answering.</p>
<p>Ale w odróżnieniu od zbioru <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a> tutaj mamy syntetyczne pytania oraz syntetyczne obrazy, które się składają z kilku figur geometrycznych. Więc pod tym względem te bazy danych są trochę podobne do baz danych MIT z lat 60-yh, ale <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> jest położony głównie na takie relacyjne myślenie, czyli pytania są w stylu “ile jest innych rzeczy, które mają taki sam materiał jak żółty sześcian” itd.</p>
<p><b>Przepraszam, że Cię przerywam, ale myślę, że warto to trochę rozszerzyć i podać przykład co to znaczy w praktyce, bo mamy stół albo jakąś powierzchnię i tam są różne przedmioty, na przykład, sześcian, stożek, kula i też mają różne kolory. Pytanie jest takie &#8211; ile jest przedmiotów tego samego koloru albo czy jest ten sam materiał jak na stożku, prawda? </b></p>
<figure id="attachment_558" aria-describedby="caption-attachment-558" style="width: 773px" class="wp-caption aligncenter"><a href="https://arxiv.org/pdf/1706.01427.pdf"><img decoding="async" class="size-full wp-image-558" src="https://biznesmysli.pl/wp-content/uploads/2017/08/clevr.jpg" alt="Zbiór danych CLEVR" width="773" height="334" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/clevr.jpg 773w, https://biznesmysli.pl/wp-content/uploads/2017/08/clevr-300x130.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/clevr-768x332.jpg 768w" sizes="(max-width: 773px) 100vw, 773px" /></a><figcaption id="caption-attachment-558" class="wp-caption-text">Zbiór danych CLEVR</figcaption></figure>
<p>Tak. Aczkolwiek pytania mogą być znacznie bardziej skomplikowane. Na przykład, ile jest gumowych stożków, które stoją naprzeciwko zielonego sześcianu, który jest po lewej stronie od czerwonej rzeczy.</p>
<p><b>To jest ciekawe, bo jak mówimy o sztucznej inteligencji, deep learning, to zawsze jest takie zachwycenie, że właśnie wygrała AlphaGo, ale tak jak rozmawialiśmy na początku &#8211; jest to wyzwanie z </b><b><i>common sense knowledge,</i></b><b> albo rozumieniem ogólnym, albo powiązaniem tych relacji i to, co potrafi robić nastolatek albo 5-latek, w tej chwili dla algorytmu nadal jest wyzwaniem albo było wyzwaniem. Powiedz, jakie są postępy?</b></p>
<p>Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy <a href="https://arxiv.org/pdf/1706.01427.pdf">Relation Networks</a>. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu.</p>
<p>Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi. Tutaj muszę zaznaczyć, że wszystko jest na zbiorze danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> i ten zbiór jest wizyjnie prosty, ma skomplikowane relacje, skomplikowane pytania, ale ta percepcja jest prosta. Ale w każdym bądź razie, nasz system potrafi według metryk odpowiadać lepiej niż ludzie, na tej bazie danych. Dlatego można powiedzieć, że rozwiązaliśmy problem rozumienia relacyjnego, przynajmniej w stosunku bazy danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>.</p>
<p>To co jeszcze jest ważne. Mimo tego, że powiedziałem, że ten moduł porównuje dwa obiekty, to te obiekty nie muszą jawnie być podane, ta sieć neuronowa sama rozstrzyga czym jest dany obiekt na podstawie danych treningowych. To jest w zasadzie taka sieć neuronowa, gdzie się podaje tylko i wyłącznie obrazy, podaje się skomplikowane pytania, podaje się odpowiedzi (w zbiorze treningowym, oczywiście), i ona na postawie tych trójek zaczyna rozumieć obiekty i zaczyna rozumieć relacje.</p>
<p><b>To my, jako ludzkość zrobiliśmy kolejny krok w kierunku tak zwanej GAI czyli ogólnej sztucznej inteligencji. Tutaj warto jeszcze dopytać Twoją opinie na temat, jakie są wyzwania na dzień dzisiejszy w uczeniu maszynowym, jakie są największe i które da się pokonać w najbliższe 5 lat? </b></p>
<p>Jest dużo wyzwań. Myślę, że bardzo ważnym jest to, aby sieci neuronowe zaczęły dobrze sobie radzić w momencie, kiedy nie ma tak dużo danych treningowych. Jak opowiadałem o tym zbiorze danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> i rozumieniu relacyjnym, to to wszystko dobrze działa, bo mamy dużo zbiorów treningowych. W świecie rzeczywistym ciężko się buduje takie zbiory treningowe, szczególnie na wielką skalę.</p>
<p>Jesteśmy ograniczeni o takie naturalne rzeczy, jak zasoby pieniężne, ludzki, jak czas i tak dalej. I w takich skomplikowanych problemach, jak Visual Turing Test, ciężko jest zbudować takie bazy danych, które by zawierały wszystkie możliwe pytania ze wszystkimi możliwymi odpowiedziami. A my &#8211; ludzie, jakoś sobie radzimy, poprzez moze jakąś kompozycję, a być może mamy jakieś inne umiejętności, dzięki którym potrafimy tworzyć nowe zdania i potrafimy rozumieć zdania, albo całe zbiory zdań, które wcześniej nie słyszeliśmy.</p>
<p>I to jest, moim zdaniem, bardzo duże wyzwanie dla sieci neuronowych. Jak zbudować taką sieć neuronową, która jest bardzo silna do rozwiązywania problemów, ale jednocześnie nie wymaga się od niej takiego dużego zbioru treningowego, że ona potrafi na bazie kilku przykładów zrozumieć co się dzieje.</p>
<p><b>Mogę potwierdzić takim trochę z życia przykładem. Mam małe dziecko i zawsze się fascynuje, jak pokazuje w jednej książce krowę, czy inny obiekt, dosłownie jeden czy dwa razy, a później biorę inna książkę, gdzie ta krowa wygląda zupełnie inaczej i pytam “gdzie jest krowa?”, a on pokazuje prawidłowo. </b></p>
<p><b>I dla mnie to jest fascynujące. Jak to jest możliwe, bo pokazałem tylko jeden raz i zupełnie czegoś innego, ale od razu się nauczył.  Tutaj widać że mózg człowieka działa znacznie lepiej niż nowoczesne algorytmy, przynajmniej na dzień dzisiejszy. </b></p>
<p>Tak, dokładnie i na dzień dzisiejszy musiałbyś pokazać 100 instacji żeby sieć neuronowa zrozumiała czym jest krowa.</p>
<p><b>Teraz przejdźmy do tematów, może trochę etycznych, albo o odpowiedzialności. </b></p>
<p><b>Mówi się, że jesteśmy teraz na etapie, kiedy algorytmy rozwiązują coraz bardziej złożony zagadnienia, ale my jako ludzi nie do końca mamy kontrole nad tym co tam się dzieje. W ogólnym sensie tego słowa rozumiemy jak to działa (że jest tam sieć neuronowa i różne funkcję transformujące sygnał). W pewnym sensie, to jest podobnie jak to, że wiemy, że jest Słońca, Ziemia i inne planety. Jest grawitacja i inne prawa fizyki, ale myślę, że każdy fizyk który spędził swoje życie na naukę pod koniec życie mógł stwierdzić, że wiem sporo, ale nadal nie wiem jak to działa w całości.</b><b><br /></b><b><br /></b><b> Jak mówił Arystoteles „</b><b><i>Całość</i></b><b> jest czymś więcej niż </b><b><i>sumą części</i></b><b>”. No właśnie jest kilka pytań w tym obszarze.  </b><b><br /></b><b>Najpierw może wyjaśnię dlaczego to jest problemem w mojej opinii. Jeżeli zastanowić się na chwilę, to łatwo stwierdzić też nie mamy kontrolę nad ludźmi z każdym krokiem (i to oczywiście dobrze), czyli nie wiemy dokładnie co Jan Kowalski czy Adam Nowak chce zrobić dzisiaj czy jutro (chociaż, w większości przypadków to jest łatwo przewidzieć, bo ludzi płyną zgodnie z prądem).</b><b><br /></b><b><br /></b><b> Z drugiej strony, mamy odpowiedzialność, jeżeli zrobią coś złego, to na nich będzie czekała kara. Nie powiem, że osobiście podoba mi się taki model relacji, mam inne zasady wewnętrzne. Ale mniejsza o to… chodzi o to, że jest to jakiś mechanizm który reguluję działania innych. W przypadku sztucznej inteligencji. Jaka może być dla niej kara? Brzmi trochę bez sensu :). Dlatego jest potrzebna kontrola, żeby rozumieć każdy jej krok.  Czy potrzebna jest taka kontrola wg Ciebie? Bo to brzmi fajnie, że możemy kontrolować, ale to pewnie bardzo ogranicza rozwój. Jaka jest Twoja opinia najpierw jako naukowca?</b></p>
<p>Tutaj zdecydowanie będzie moja prywatna opinia. Jeżeli chodzi o kwestie rozumienia, szczególnie głębokich modeli uczenia maszynowego, jak głębokie sieci neuronowe, to warto jednak podkreślić dwie rzeczy. Do pewnego stopnia my, jako środowisko, rozumiemy te modele, które tworzymy.</p>
<p>Są oczywiście rzeczy, które słabo rozumiemy i często oni są natury technicznej. Na przykład, intuicyjnie mogłoby się wydawać że taka głęboka sieć neuronowa, która ma ok. 60 mln parametrów, która jest trenowana za pomocą <a href="https://en.wikipedia.org/wiki/Stochastic_gradient_descent">stochastic gradient descent</a> nie powinna dobrze działać, ale praktyka pokazuje na odwrót. Ten mechanizm nie jest do końca całkowicie poznany, brakuje szerszej teorii, która mogłaby zasugerować w jaki sposób budować kolejne modele. W konsekwencji czego, budowanie sieci neuronowych jest zajęciem często empirycznym.</p>
<p>Mamy także do czynienia z innym poziomem rozumienia sieci neuronowych, że nie do konca jestesmy w stanie w jednożnaczy sposób ustalić dlaczego dana konkretna sieć neuronowa podjęła takie a takie decyzje. Jak to się stało, że z obrazka, który przedstawia kolor zielony, ma jeszcze inne kolory i jakieś proste kształty, sieć neuronowa doszła do tego, że to jest obraz przedstawiający kwiat. I w tej ostatniej kwestii pojawia się wiele badań jak akademickich tak i badań, które w jakiś tam sposób związane z firmą. I tutaj jest kilka takich nurtów. Jeden nurt, to wizualizacja.</p>
<p>Sieć neuronowa uczy się rozpoznawać obiekty na obrazie poprzez filtry, które wykrywają pewne wzorce i te filtry do pewnego stopnia można zwizualizować, zinterpretować za wykrycie jakiego wzorca ten filtr odpowiada. I w taki sposób można się dowiedzieć, że w dolnej warstwie sieci neuronowej realizują <a href="https://en.wikipedia.org/wiki/Gabor_filter">filtry Gabora</a> i są odpowiedzialne za znajdowanie prostych kształtów. Innym ciekawym nurtem jest zapożyczenie narzędzi z <a href="https://deepmind.com/blog/cognitive-psychology/">psychologii kognitywnej</a> do tego by badać sieci neuronowej.</p>
<figure id="attachment_559" aria-describedby="caption-attachment-559" style="width: 771px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg"><img decoding="async" class="size-full wp-image-559" src="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg" alt="Przykłady co wpływa na decyzji DeeNetwork" width="771" height="241" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg 771w, https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna-300x94.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna-768x240.jpg 768w" sizes="(max-width: 771px) 100vw, 771px" /></a><figcaption id="caption-attachment-559" class="wp-caption-text">Przykłady co wpływa na decyzji DeepNetwork</figcaption></figure>
<p>I w ten sposób można określić pewne tendencje, która ma sieć neuronowa. Czyli, na przykład, sieć neuronowa kieruje się bardziej kształtem obiektu niż kolorem obiektu do tego żeby rozpoznać dany obiekt.</p>
<p>Są także inne metody które próbują w języku naturalnym wyjaśnić taką sieć neuronową. Żeby to zilustrować, wróćmy do Visual Question Sign zadaje pytanie “co się znajduje po prawej stronie od mojego laptopa”, i taka sieć neuronowa patrzy na obrazek, patrzy czy to pytanie i mi odpowiada na to pytanie, i wtedy się pyta “dlaczego doszła do takich a takich wniosków ” i wówczas ta sieć neuronowa próbuję się wytłumaczyć, tak jak człowiek to robi.</p>
<p>Jak ty mnie zapytasz, dlaczego podjełem taką decyzje, to próbuje ten cały proces decyzyjny Ci przedstawić w postaci języka naturalnego. Tak samo tutaj jest kierunek badań, który próbuje stworzyć sieci neuronowe, które same się wyjaśniają dlaczego doszło do takiego a takiego rozwiązania.</p>
<p><b>Zapytam Cię jeszcze o jedną poradę, tym razem dla młodszego pokolenia. Którzy teraz są na studiach, albo skończyły je i zastanawiają się co robić dalej. Co możesz im doradzić? Ewentualnie zdradź kilka wskazówek, jak taki młody człowiek może zacząć pracować w DeepMind?</b></p>
<p>W mojej historii studia doktoranckie były bardzo ważnym okresem w życiu, ogólnie studia były bardzo ważnym okresem w życiu. Myślę, że w czasie studiów warto jest chłonąć wiedzę z wielu różnych dziedzin. Na kierunkach ścisłych także warto nabrać pewnych umiejętności, są to rzeczy, które stają się później ważne, aby móc inspirować, przekonywać inne osoby do pewnych projektów, do pewnych idei.</p>
<p>Myślę, że bardzo ważne jest także aby balansować teorie z praktyką. Z jednej strony teoria jest bardzo istotna, nie zmienia się ona tak często jak inne rzeczy i poprzez nią budujemy pewny warsztat kognitywny, dzięki któremu jesteśmy w stanie zrozumieć inne bardziej konkretne rzeczy.</p>
<p>Z drugiej strony warto wzmacniać tą wiedzę teoretyczną jakąś praktyką lub różnymi eksperymentami w taki sposób, aby ta teoria była bardziej namacalna. Szczególnie jeżeli chodzi o uczenie maszynowe, starałbym każdą wiedzę teoretyczną wzmocnić jakimś argumentem empirycznym, czyli po prostu stworzenie implementacji pewnej rzeczy, która nas interesuje.</p>
<p>Jeżeli chodzi o firmę, to nie skusiłabym się na budowaniu swojego CV pod konkretną firmę. Jak ktoś teraz zaczyna studia, to prawdopodobnie je skończy za jakieś 5 lat, może później, jeżeli zdecyduje się na studia doktoranckie i ten rynek może się zmienić. Ale wydaje mi się że jest ważne by w pewnym okresie swojego życia stać się osobą, która ma unikalne umiejętności, które są także cenione na rynku pracy, i jeżeli tak się stanie, to firmy same zaczną się zgłaszać po taką osobę.</p>
<p>Osobiście polecam wyjazdy na dobre uczelnie zagraniczne lub do dobrych firm, często zagranicznych, na praktyki. I takie wyjazdy otworzyły mi oczy na pewne dziedziny wiedzy, które wcześniej były mi obce, a stały się kluczowe w mojej karierze.</p>
<p>Także warto uczestniczyć w programach mentorskich, jeżeli takie programy są dla studenta dostępne.</p>
<p><b>Czyli tak nieco w skrócie mieć otwarte oczy, umysł, być przygotowanym na wyzwania i iść do przodu.</b></p>
<p>Dokładnie, trzeba być dzielnym, odważnym.</p>
<p><b>Czego mogę Tobie życzyć? </b></p>
<p>Zbudowania AI <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<p><b>W takim razie życzę Ci zbudowania AI. A na jakim poziomie, porównywalnym do ludzi czy wyższym?</b></p>
<p>A myślę, że niekoniecznie musimy myśleć w takich kategoriach. Być może zbudowanie AI, które w jakiś tam sposób jest komplementarne do ludzi czyli uzupełnia nas w jakiś tam sposób.</p>
<p><b>Czyli taki pomocnik, który robi za nas te rzeczy, które niekoniecznie ludzie lubią robić, a my skupiamy się na najbardziej ciekawych elementach tego życia.</b></p>
<p>Tak, ale to także pomaga w rzeczach które lubimy robić. Pomaga nam w badaniach naukowych albo w eksploracji kosmosu.</p>
<p><b>Tam gdzie faktycznie mózg ludzki nie jest najlepszym jak liczenie.</b></p>
<p>Na przykład. Albo dostęp do wiedzy. To jest tak, że teraz wiedzy jest bardzo dużo, teoretycznie mamy do niej dostęp, ale nie mamy dostępu do tej wiedzy naraz, w jednym momencie. Więc taka sztuczna inteligencja, która ma ten dostęp i potrafi odfiltrować te rzeczy, które dla nas są istotne i w odpowiedni sposób wnioskować. Może nam pozostawić ostateczną decyzje, ale zasugerować pewne rzeczy.</p>
<p><b>Rozmawialiśmy z Tobą prawie godzinę, ale nadal widać, że sztuczna inteligencja ukrywa w sobie bardzo dużo różnych wątków. Życzę Tobie żeby udało się zrealizować to co planujesz. A jak można z Tobą skontaktować w razie zainteresowania?</b></p>
<p>Można się ze mną skontaktować tradycyjnie, czyli mailem. Można wysłać maila obecnie na mateuszmalinowskiai [małpka] gmail.com. Jeżeli ktoś jest zainteresowany moimi publikacjami, to można je znaleźć albo na <a href="http://mateuszmalinowski.com/">mojej stronie internetowej</a>, albo na <a href="https://scholar.google.co.uk/citations?user=IqJ3zskAAAAJ&amp;hl=en">Google Scholar</a> czy <a href="https://www.linkedin.com/in/mateuszmalinowski/">Linkedin</a>.</p>
<p><b>Dziękuję, Mateusz bardzo za Twój czas i chęć podzielenia się swoim doświadczeniem. </b></p>
<p>Także dziękuję za rozmowę.</p>
<hr />
<p>Duża dawka wiedzy? Być może część poruszonych tematów dla Ciebie była trochę trudna i zawierała skróty czy inne nieznana terminologia.</p>
<p>Mateusz jest pasjonatem swego dzieła, dlatego myślę, że jeszcze wiele dokonań jest jeszcze przed nim. Po naszej rozmowie zastanawiałem się nad tym, o ile my jesteśmy architektami swego losu. Czasem może się wydawać, że pracować w firmie jak DeepMind jest kosmicznie trudno. <span class="hiddenSuggestion">N</span>a przykładzie z Mateuszem, można zobaczyć, że wystarczy konsekwentnie robić swoje. Dlatego życzę Ci, osiągać swoje cele również skutecznie, jak to robi Mateusz.</p>
<p>Dziękuję za wszystkie informację zwrotne. Przypominam, że możesz kontaktować się ze mną przez dowolny wygodny kanał dla Ciebie: <a href="https://twitter.com/biznes_mysli">twitter</a>, <a href="https://www.facebook.com/biznesmysli/">facebook</a>, <a href="https://www.linkedin.com/in/vladimiralekseichenko">linkedin</a>, strona kontaktu na <a href="http://biznesmysli.pl/kontakt/">biznesmysli.pl</a>.</p>
<p>Mam dobrą nowość dla Ciebie. W tym roku <a href="https://developers.google.com/events/gdd-europe/">Google Developers Day Europe</a> będzie zorganizowany w Krakowie 5-6 września. To jest ciekawe wydarzenie dla osób które interesują się technologiami rozwijanymi przez Google. Osobiście bilet kupiłem już kilka misięcy temu (mówię dlatego, żeby pokazać ważność dla mnie tego wydarzenia), ale dzięki współpracy z Google mam do rozdania trzy bilety dla najbardziej chętnych.  Przypomnę, że wartość takiego biletu jest 250 dolarów.</p>
<figure id="attachment_560" aria-describedby="caption-attachment-560" style="width: 800px" class="wp-caption aligncenter"><a href="https://www.facebook.com/groups/dataworkshop"><img decoding="async" class="size-full wp-image-560" src="https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02.png" alt="Google Developers Day Europe" width="800" height="829" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02.png 800w, https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02-290x300.png 290w, https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02-768x796.png 768w" sizes="(max-width: 800px) 100vw, 800px" /></a><figcaption id="caption-attachment-560" class="wp-caption-text">Google Developers Day Europe</figcaption></figure>
<p>Chcesz dostać takie bilet za darmo? A może chcesz się spotkać z ludźmi z Google, które rozwijają innowacyjne produkty (będzie również sporo osób z Doliny Krzemowej)? A możliwie chcesz ze mną porozmawiać osobiście?</p>
<ol>
<li>Dołącz się do grupy <a href="https://www.facebook.com/groups/dataworkshop/">DataWorkshop</a> na Facebook.</li>
<li>Udostępnij baner <a href="https://developers.google.com/events/gdd-europe/">GDD Europe</a> ze swoim komentarzem, dlaczego chcesz pójść na konferencje.</li>
<li>Zaangażuj również swoich znajomych i może się okażę, że pójdziecie razem.</li>
</ol>
<p>Masz na to 3 dni. Następnie, w czwartek z rano (31 sierpnia), wybiorę 3 najbardziej wartościowe powody (wg. mojej skromnej opinii) i skontaktuję się z tymi osobami przez wiadomość prywatną i do końca czwartku będę oczekiwał na informację zwrotną od wybranych osób.</p>
<p>Również będę na tym wydarzeniu, więc jeżeli wybierasz się, proszę daj mi o tym znać.</p>
<p>Dziękuję Ci bardzo za Twój czas, Twoją energię i chęć do rozwoju.</p>
<p>Życzę wszystkiego dobrego i do usłyszenia.</p><p>Artykuł <a href="https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/">Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Aleksandra Przegalińska z MIT o sztucznej inteligencji</title>
		<link>https://biznesmysli.pl/sztuczna-inteligencja-mit/</link>
					<comments>https://biznesmysli.pl/sztuczna-inteligencja-mit/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 17 Jul 2017 04:00:53 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[Alan Turing]]></category>
		<category><![CDATA[Aleksandra Przegalińska]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[Massachusetts Institute of Technology]]></category>
		<category><![CDATA[mit]]></category>
		<category><![CDATA[osobliwosć]]></category>
		<category><![CDATA[Ray Kurzweil]]></category>
		<category><![CDATA[singularity]]></category>
		<category><![CDATA[test turinga]]></category>
		<category><![CDATA[wywiad]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=437</guid>

					<description><![CDATA[<p>Dzisiaj będziemy mówić o sztucznej inteligencji, ale trochę z innej strony. Aleksandra Przegalińska jest doktorem filozofii, a teraz prowadzi badania w MIT. Żyjemy w bardzo ciekawych czasach, cytując Olę: &#8222;Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany&#8221;. Poznasz również opinie Oli  na temat, czy Test Turinga już jest zaliczony, czym jest dolina niesamowitości i jak wyglądają najnowsze tematy w tym obszarze.  Również o tym, co to jest microtargeting, co potencjalnie pomogło Donaldowi Trumpowi, prezydentowi Stanów Zjednoczonych, wygrać wybory. Zapraszam wysłuchania&#8230; Vladimir:Cześć Ola. Proszę przedstaw się kim jesteś, co robisz, co lubisz i gdzie mieszkasz? Ola:O jaki szereg trudnych pytań! Cześć, nazywam się Ola Przegalińska. Jestem badaczką nowych technologii, pracownikiem naukowym. Mieszkam i pracuję w tej chwili przede wszystkim w Bostonie, ale często też bywam w Warszawie, gdzie jest mój drugi dom. W Bostonie pracuję na MIT (Massachusetts Institute of Technology) w departamencie który się nazywa Center for Collective Intelligence i zajmuję się inteligencją roju i różnymi cyfrowymi śladami, które ludzie po sobie zostawiają, głównie w sieci. W Warszawie pracuję na Akademii Leona Koźmińskiego, zajmuję się tam też nowymi technologiami, troszeczkę startupami. No i oczywiście, przede wszystkim, sztuczną inteligencją, bo to jest taki podstawowy obszar moich badań i to jest też coś, co lubię. Więc mam taką, można powiedzieć, uprzywilejowaną sytuację, że zawodowo zajmuje się tym co lubię, a z takich innych rzeczy, które bardzo lubię, to ostatnio strasznie mi się spodobało wspinanie. I tym się ostatnio pasjonuje, przynajmniej wakacyjnie, poza wieloma innymi rzeczami. Vladimir:Wiele ciekawych rzeczy, o to będę jeszcze dopytywał później. Też mogę potwierdzić że byłaś w Warszawie, jak na przykład teraz. Natomiast zapytam co ostatnio czytałeś i dlaczego warto to przeczytać? Ola:Ostatnio, z takich bardzo ciekawych książek, które mogę polecić, to przede wszystkim przeczytałam coś, co się nazywa &#8222;Machines, Platform, Crowd&#8221; czyli maszyny, platformy i tłumy. To jest książka, wydana dokładnie w tym roku 2017, przez dwóch profesorów związanych zresztą z MIT, Erika Brynjolfssona i Andrew McAfee. I to jest książka, która właściwie jest pewnego rodzaju kompendium wiedzy o tym, w jaką stronę w tej chwili podążają takie mega trendy tzn. sztuczna inteligencja, rozwój cyfrowych platform wymiany wiedzy, ale też zakupowych, serwisowych, wszelkich w zasadzie tych marketplace&#8217;ów. Rozwój właśnie takiej inteligencji roju, czyli tych wszystkich tłumów online, które można ciekawie targetować, ale które też o bardzo wielu rzeczach decydują. Także ta książka właściwie jest o wszystkim, w tym sensie, o wpływie technologii na masę obszarów, na gospodarkę, na społeczeństwo, na więzi społecznych relacji. Fenomenalna lektura i taka sumaryzacja wszystkiego, co się do tej pory ciekawego zdarzyło, też operująca na bardzo ciekawych kejsach, nie tylko o Uberze, o którym wszyscy mówią, ale o takich właśnie, można powiedzieć, mniej znanych przykładach. Vladimir:Brzmi bardzo ambitne. Książka będzie podlinkowana do notatek. A powiedz Ola, gdzie dokładnie pracujesz i czym się zajmujesz. Fajnie będzie, jeśli podasz przykłady, bo wydaje mi się, że dla wielu osób nadal ta cała terminologia jest nieco tajemnicza. Ola:Jasne. Zajmuję się, tak jak powiedziałam wcześniej, sztuczną inteligencją, ale oczywiście, to jest ogromne pole badawcze, i w jego ramach, każdy może znaleźć dla siebie miejsce. W tej chwili mamy dwa projekty, które prowadzimy właśnie na MIT. Ale też Koźmiński, czyli moja macierzysta uczelnia w Warszawie, bardzo mnie wspiera. To są projekty, które są związane, po pierwsze, z interakcją człowieka, między maszyną a człowiekiem. Badamy czy też robimy eksperymenty naukowe, które pozwalają nam zobaczyć, jak ludzie komunikują się, na przykład, z czymś takim jak Siri i jak ich ciało na to odpowiada. To znaczy, jakie reakcje afektywne albo emocjonalne budzi interakcja z maszyną tego typu. Takich sprzętów jest, rzeczywiście, coraz więcej. Alexa, Siri, Cortana, coraz więcej mamy wirtualnych asystentów do obsługi klienta, coraz częściej wchodzimy w komunikację przez telefon czy online rozmaitymi botami różnych firm. Czasami po prostu dla fun&#8217;u, tak jak to jest na Messengerze. Ostatnio też powstał taki projekt jak Replika. Replika your AI friends, czyli twój przyjaciel &#8211; sztuczna inteligencja, z którym się po prostu konwersuje swobodnie. I nas ten rozwój botów rzeczywiście bardzo zainteresował. I postanowiliśmy wspólnie z Leonem Ciechanowskim, gdzie są znakomici specjaliści od badania sygnału psychofizjologicznego, po prostu sprawdzić, jakiego typu afekty, jakiego typu odpowiedzi (można powiedzieć emocjonalne) generują się podczas interakcji z takim botem. To znaczy, czy to jest inne od interakcji z ludźmi, czy to się jakoś zasadniczo różni od tego jak rozmawiamy sobie z dowolną osobą, którą znamy, czy to jest właściwe interakcja bardzo podobna do interakcji z ludźmi, z punktu widzenia tego jak to emocjonalnie odbieramy. I to jest taki jeden duży projekt, w którym w tej chwili siedzimy, grzebiemy. A drugi projekt, który realizujemy, to jest projekt z zakresu właściwie IoT i internetu rzeczy i technologii ubieralnych. Właściwie można powiedzieć, przeprowadzamy swoiste crash-testy takich technologii ubieralnych kolejnej generacji. To znaczy interesują nas nie jakieś proste reaktywności, jakich jest bardzo wiele teraz, z których wiele ludzi korzysta, mają jakieś opaski na rękę, z nimi biegają, one im liczą kalorie itd&#8230; Nas interesują, można powiedzieć, bardziej wyrafinowane sprzęty, mianowicie, interesują nas headbandy. Czyli takie opaski na głowę, które dokonują pomiaru takich rzeczy, które kiedyś jeszcze właściwie były nie do wyobrażenia, że można je mierzyć. Tak jak, na przykład muse, poziom stresu albo poziom koncentracji. Być może można było coś takiego zmierzyć w laboratorium, ale nikt żaden konsument nie mógł sobie indywidualnie tego zrobić. To są opaski do indywidualnego użytku. Za ich pomocą też chcemy przeprowadzać rozmaite eksperymenty, ale też po prostu pracujemy nad tym, żeby je rozwijać, żeby zwiększać ich funkcjonalności. Taką opaską, którą w tej chwili się zajmujemy. To jest opaska, która służy do badania poziomu koncentracji i do tego, żeby ten poziom koncentracji zwiększać. Ma taką dodatkową aplikację z botem, która doradza w jaki sposób trzeba działać, żeby być bardziej skoncentrowanym. To jest taki sprzęt, który rzeczywiście w tej chwili testujemy na MIT. Vladimir:Tyle rzeczy! Zaraz będę o to wszystko dopytywał. Ale najpierw jeszcze może zapytam o Twoją własną książkę, którą napisałaś &#8222;Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję&#8222;. Do kogo jest ta książka skierowana i jakie tematy tam poruszasz? Bo ja tę książkę dopiero też znalazłem, przyznam szczerze, pewnie chciałbym ją przeczytać. Więc podziel się więcej, co możemy w niej znaleźć. Ola:Książka jest taką bardzo zmienioną, popularyzowaną wersją mojego doktoratu. Doktorat, oczywiście, o sztucznej inteligencji, ale był pisany na wydziale filozofii. Tam można spodziewać się trudnej terminologii,  która na początku, dla osób które nie mają tego backgroundu, będzie mniej zrozumiała, ale przez to można szybko przebrnąć. Książka, w zasadzie, dla wszystkich. Książka jest podsumowaniem tego, co się działo w sztucznej inteligencji, jakie kolejne paradygmaty w tym projekcie sztucznej inteligencji następowały, jakie będą następowały, czyli jakich możemy się spodziewać. Tutaj też podaję przykłady o różnych sposobach, w jakich można rozwijać sztuczną inteligencję. Nie na takim bardzo inżynieryjnym poziomie ostatnim, tylko na poziomie koncepcyjnym. Sztuczna inteligencja to jednak ogromny projekt intelektualny, to nie są tylko praktyki inżynieryjne, ale to jest też jakiś taki duży paradygmat, który mówi nam o tym, jak stworzyć maszynę, która będzie w jakiś sposób podobna do człowieka, jak do tego doszłoby, gdyby to się udało, i w którą stronę powinniśmy się kierować. Jakiego typu funkcje ludzkie, funkcje inteligencji człowieka trzeba by było odtwarzać, żeby ta maszyna faktycznie była do nas podobna, albo żeby mogła ją cechować jakaś forma inteligencji. I w tym projekcie sztucznej inteligencji od lat 50., 40. ubiegłego wieku, różne na to pomysły były. Staram się czytelnika przez to przeprowadzić, czyli każdy, kto jest zainteresowany sztuczną inteligencją, może to przeczytać. Dalej, właśnie, od strony też paradygmatów różnych, można powiedzieć, filozoficznych, bo to jest duży metafizyczny, filozoficzny projekt. Dzisiaj, może ludzie którzy się zajmują IT, nie do końca tak o tym myślą, ale dla badaczy sztucznej inteligencji, to jest dosyć jasne. Za tym projektem stoją zbyt silne założenia dotyczące tego, jak poznajemy, jak myślimy, my jako ludzie, jak możemy to odtwarzać na maszynie. Staram się w swojej książce to pokazać, to jakoś zilustrować i pokazać, jakie różne etapy sztucznej inteligencji przechodziła, bo na początku chcieliśmy budować maszyny, które będą najlepiej grały w szachy, potem zmieniliśmy zdanie i chcieliśmy budować maszyny, które będą potrafiły poruszać się w przestrzeni fizycznej, czyli będą potrafiły sobie jakoś radzić z takimi bolączkami codzienności, chodzić, odpowiadać na bodźce zewnętrzne. To są dwie różne koncepcje sztucznej inteligencji. I staram się pokazać, która zwyciężyła i dlaczego, jaki jest stan wiedzy na dzisiaj, jak możemy te wiedzy dalej rozwijać, jakie są kolejne wyzwania, co należałoby zrobić chociażby w obszarze botów, żeby te boty faktycznie stały się takimi bardzo zaawansowanymi maszynami. Vladimir:Rozumiem, że ta książka nadaje się dla wszystkich osób, które się interesują sztuczna inteligencją i&#8230; Ola:&#8230;rozwojem technologii również. Vladimir:Teraz zadam najważniejsze pytanie dzisiejszej rozmowy, później to będzie wszystko dookoła. Pytanie jest takie, czym jest osobliwość i czy należy jej się bać. Ola:No tak, mogłam się spodziewać 🙂 Czym jest osobliwość? To zależy od definicji. Czym czy kim, to też jest dobre pytanie. Jest osobliwość w matematyce, która jest oczywiście zupełnie innym fenomenem niż tym, którym się zajmujemy. W kontekście sztucznej inteligencji, osobliwość &#8211; to jest taki punkt,  wyspekulowany dosyć, niejasny, kiedy on nastąpi w przyszłości, kiedy maszyna właśnie osiągnie co najmniej ludzkie kompetencje. To znaczy będzie intelektualnie sprawna tak samo jak człowiek, będzie cechować  być może także samoświadomością, czyli stanie się jakby czymś, na pewno z nami porównywalnym. I dlatego to się nazywa osobliwość, bo nie wiemy co dalej od tego punktu może nastąpić. To znaczy że to będzie punkt osobliwy w historii cywilizacji człowieka, dlatego że on wszystko zmieni. Nie było nigdy nic takiego. Nic takiego się nie zdarzyło. Singular, takie wyjątkowe, prawda. Bo Singularity, to jest angielski ekwiwalent osobliwości polskiej. I to jest taki moment, od którego bardzo trudno przewidzieć, co się może zdarzyć, bo tutaj pojawia się wtedy taki gracz na świecie, na Ziemi, który będzie zupełnie poza nami. To znaczy, w jakimś sensie będzie, być może, nie do przewidzenia w jaki sposób on rozegra swoją relację z nami, z ludźmi. Więc tak naprawdę, ta osobliwość &#8211; to jest swego rodzaju zagadka. Też czasami mówi się &#8222;osobliwość&#8221; o maszynie osobliwej, czyli właśnie o takiej sztucznej inteligencji, która będzie już na ludzkim poziomie, a nawet na wyższym poziomie niż człowiek, przekracza kompetencje człowieka. I wtedy dojdzie do jakiejś takiej reorganizacji tego jak funkcjonują nasze społeczeństwa, jak funkcjonujemy, jak gospodarki nasze funkcjonują. To jest taki po prostu moment, absolutnie przełomowy, który nie jest porównywalny z niczym, co my do tej pory, jako cywilizacja, przeżywaliśmy. Natomiast nie wiemy, kiedy ono nastąpi. Są tacy ludzie, jak Ray Kurzweil, którzy mówią, że to będzie za 20 czy 30 lat, on tę datę też przesuwa trochę. Są inni, którzy mówią że bardziej za 100. A jeszcze są inni którzy mówią że, żeby maszyna stała się osobliwa, to musi przejść jednak proces ewolucji, i nawet gdyby on miał być spakowany bardzo mocno w stosunku do tego, jak myśmy się ewolucyjnie rozwijali, to tak czy siak, to nie będzie mniej niż 1000 lat. Więc do spekulacji jest wiele, są oczywiście też tacy, którzy mówią, że osobliwość nie nastąpi, bo nie da się stworzyć świadomej maszyny. Da się stworzyć inteligentną być może, ale samoświadomą, taką podmiotową, która będzie myślała o sobie jako o Ja, dodam że, takiej to nie da się zbudować, bo po prostu nie mamy do tego kompetencji, ona się sama nie wyłoni. Jest dużo dyskusji, debat na ten temat czy to się zdarzy i czy należy się tego bać. Prawdę mówiąc, mam takie stanowisko dosyć realistyczne. To znaczy, jeżeli mówi się ludziom, że się powinni bać, to oni wtedy naturalnie reagują, tak że ten projekt należy zatrzymać. Uważam, tak zupełnie pragmatycznie, że projektu rozwoju sztucznej inteligencji po prostu zatrzymać się nie da. Nawet, jeśli ktoś gdzieś powie &#8222;pas&#8221;, amerykanie czy my, to być może chińczycy nie powiedzą &#8222;pas&#8221;, bo będą chcieli dalej rozwijać sztuczną inteligencję, bo będzie do czegoś tam potrzebna w medycynie, przemyśle, gdziekolwiek. I w związku z tym, tego projektu nie da się zatrzymać. Więc zamiast się bać i myśleć o nim w takich kategoriach panicznych &#8211; &#8222;uciekamy&#8221;, to po prostu trzeba do niego podejść tak na spokojnie, na chłodno i się do niego dobrze przygotować...</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandra Przegalińska z MIT o sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1yo4Uo wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/sztuczna-inteligencja-w-mit" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>Dzisiaj będziemy mówić o sztucznej inteligencji, ale trochę z innej strony.</p>
<figure id="attachment_439" aria-describedby="caption-attachment-439" style="width: 620px" class="wp-caption aligncenter"><img decoding="async" class="wp-image-439 size-full" src="https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra.jpg" alt="Aleksandra Przegalińska" width="620" height="414" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra.jpg 620w, https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra-300x200.jpg 300w" sizes="(max-width: 620px) 100vw, 620px" /><figcaption id="caption-attachment-439" class="wp-caption-text">Aleksandra Przegalińska. <a href="http://www.wysokieobcasy.pl/wysokie-obcasy/1,53662,20432293,technologiczna-osobliwosc-zblizamy-sie-do-momentu-w-ktorym.html?disableRedirects=true" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>. Autor:  Albert Zawada.</figcaption></figure>
<p><strong>Aleksandra Przegalińska</strong> jest doktorem filozofii, a teraz prowadzi badania w <strong><a href="http://web.mit.edu/" target="_blank" rel="nofollow noopener noreferrer">MIT</a></strong>. Żyjemy w bardzo ciekawych czasach, cytując Olę:</p>
<blockquote>
<p>&#8222;Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany&#8221;.</p>
</blockquote>
<p>Poznasz również opinie Oli  na temat, czy Test Turinga już jest zaliczony, czym jest dolina niesamowitości i jak wyglądają najnowsze tematy w tym obszarze.  Również o tym, co to jest <i>microtargeting</i>, co potencjalnie pomogło Donaldowi Trumpowi, prezydentowi Stanów Zjednoczonych, wygrać wybory. Zapraszam wysłuchania&#8230;</p>
<p><span id="more-437"></span></p>
<p><b>Vladimir:<br /></b>Cześć Ola. Proszę przedstaw się kim jesteś, co robisz, co lubisz i gdzie mieszkasz?</p>
<p><b>Ola:<br /></b>O jaki szereg trudnych pytań! Cześć, nazywam się Ola Przegalińska. Jestem badaczką nowych technologii, pracownikiem naukowym. Mieszkam i pracuję w tej chwili przede wszystkim w Bostonie, ale często też bywam w Warszawie, gdzie jest mój drugi dom. W Bostonie pracuję na MIT (Massachusetts Institute of Technology) w departamencie który się nazywa Center for Collective Intelligence i zajmuję się inteligencją roju i różnymi cyfrowymi śladami, które ludzie po sobie zostawiają, głównie w sieci.</p>
<p>W Warszawie pracuję na <a href="http://www.kozminski.edu.pl/pl/" target="_blank" rel="nofollow noopener noreferrer">Akademii Leona Koźmińskiego</a>, zajmuję się tam też nowymi technologiami, troszeczkę startupami. No i oczywiście, przede wszystkim, sztuczną inteligencją, bo to jest taki podstawowy obszar moich badań i to jest też coś, co lubię. Więc mam taką, można powiedzieć, uprzywilejowaną sytuację, że zawodowo zajmuje się tym co lubię, a z takich innych rzeczy, które bardzo lubię, to ostatnio strasznie mi się spodobało wspinanie. I tym się ostatnio pasjonuje, przynajmniej wakacyjnie, poza wieloma innymi rzeczami.</p>
<p><b>Vladimir:<br /></b>Wiele ciekawych rzeczy, o to będę jeszcze dopytywał później. Też mogę potwierdzić że byłaś w Warszawie, jak na przykład teraz. Natomiast zapytam co ostatnio czytałeś i dlaczego warto to przeczytać?</p>
<p><b>Ola:<br /></b>Ostatnio, z takich bardzo ciekawych książek, które mogę polecić, to przede wszystkim przeczytałam coś, co się nazywa &#8222;<a href="http://amzn.to/2uotfno" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">Machines, Platform, Crowd</a>&#8221; czyli maszyny, platformy i tłumy. To jest książka, wydana dokładnie w tym roku 2017, przez dwóch profesorów związanych zresztą z MIT, Erika Brynjolfssona i Andrew McAfee. I to jest książka, która właściwie jest pewnego rodzaju kompendium wiedzy o tym, w jaką stronę w tej chwili podążają takie mega trendy tzn. sztuczna inteligencja, rozwój cyfrowych platform wymiany wiedzy, ale też zakupowych, serwisowych, wszelkich w zasadzie tych marketplace&#8217;ów.</p>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0393254291/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0393254291&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=2cc83996eec1c2049bd24446ed67cec0" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0393254291&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0393254291" alt="" width="1" height="1" border="0" /></li>
</ul>
<p>Rozwój właśnie takiej inteligencji roju, czyli tych wszystkich tłumów online, które można ciekawie targetować, ale które też o bardzo wielu rzeczach decydują. Także ta książka właściwie jest o wszystkim, w tym sensie, o wpływie technologii na masę obszarów, na gospodarkę, na społeczeństwo, na więzi społecznych relacji. Fenomenalna lektura i taka sumaryzacja wszystkiego, co się do tej pory ciekawego zdarzyło, też operująca na bardzo ciekawych kejsach, nie tylko o Uberze, o którym wszyscy mówią, ale o takich właśnie, można powiedzieć, mniej znanych przykładach.</p>
<p><b>Vladimir:<br /></b>Brzmi bardzo ambitne. Książka będzie podlinkowana do notatek. A powiedz Ola, gdzie dokładnie pracujesz i czym się zajmujesz. Fajnie będzie, jeśli podasz przykłady, bo wydaje mi się, że dla wielu osób nadal ta cała terminologia jest nieco tajemnicza.</p>
<p><b>Ola:<br /></b>Jasne. Zajmuję się, tak jak powiedziałam wcześniej, sztuczną inteligencją, ale oczywiście, to jest ogromne pole badawcze, i w jego ramach, każdy może znaleźć dla siebie miejsce. W tej chwili mamy dwa projekty, które prowadzimy właśnie na MIT.</p>
<p>Ale też <a href="http://www.kozminski.edu.pl/pl/" target="_blank" rel="nofollow noopener noreferrer">Koźmiński</a>, czyli moja macierzysta uczelnia w Warszawie, bardzo mnie wspiera. To są projekty, które są związane, po pierwsze, z interakcją człowieka, między maszyną a człowiekiem. Badamy czy też robimy eksperymenty naukowe, które pozwalają nam zobaczyć, jak ludzie komunikują się, na przykład, z czymś takim jak Siri i jak ich ciało na to odpowiada. To znaczy, jakie reakcje afektywne albo emocjonalne budzi interakcja z maszyną tego typu.</p>
<p>Takich sprzętów jest, rzeczywiście, coraz więcej. Alexa, Siri, Cortana, coraz więcej mamy wirtualnych asystentów do obsługi klienta, coraz częściej wchodzimy w komunikację przez telefon czy online rozmaitymi botami różnych firm. Czasami po prostu dla fun&#8217;u, tak jak to jest na Messengerze.</p>
<p>Ostatnio też powstał taki projekt jak <a href="https://replika.ai/" target="_blank" rel="nofollow noopener noreferrer">Replika</a>. Replika your AI friends, czyli twój przyjaciel &#8211; sztuczna inteligencja, z którym się po prostu konwersuje swobodnie.</p>
<figure id="attachment_441" aria-describedby="caption-attachment-441" style="width: 1238px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-441" src="https://biznesmysli.pl/wp-content/uploads/2017/07/replica.jpg" alt="Replika is your AI friend that you teach and grow in conversations." width="1238" height="569" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/replica.jpg 1238w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-300x138.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-1024x471.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-768x353.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-1140x524.jpg 1140w" sizes="(max-width: 1238px) 100vw, 1238px" /><figcaption id="caption-attachment-441" class="wp-caption-text">Replika is your AI friend that you teach and grow in conversations.</figcaption></figure>
<p>I nas ten rozwój botów rzeczywiście bardzo zainteresował. I postanowiliśmy wspólnie z <a href="http://swps.academia.edu/LeonCiechanowski" target="_blank" rel="nofollow noopener noreferrer">Leonem Ciechanowskim</a>, gdzie są znakomici specjaliści od badania sygnału psychofizjologicznego, po prostu sprawdzić, jakiego typu afekty, jakiego typu odpowiedzi (można powiedzieć emocjonalne) generują się podczas interakcji z takim botem.</p>
<p>To znaczy, czy to jest inne od interakcji z ludźmi, czy to się jakoś zasadniczo różni od tego jak rozmawiamy sobie z dowolną osobą, którą znamy, czy to jest właściwe interakcja bardzo podobna do interakcji z ludźmi, z punktu widzenia tego jak to emocjonalnie odbieramy. I to jest taki jeden duży projekt, w którym w tej chwili siedzimy, grzebiemy. A drugi projekt, który realizujemy, to jest projekt z zakresu właściwie IoT i internetu rzeczy i technologii ubieralnych.</p>
<p>Właściwie można powiedzieć, przeprowadzamy swoiste crash-testy takich technologii ubieralnych kolejnej generacji. To znaczy interesują nas nie jakieś proste reaktywności, jakich jest bardzo wiele teraz, z których wiele ludzi korzysta, mają jakieś opaski na rękę, z nimi biegają, one im liczą kalorie itd&#8230;</p>
<p>Nas interesują, można powiedzieć, bardziej wyrafinowane sprzęty, mianowicie, interesują nas headbandy. Czyli takie opaski na głowę, które dokonują pomiaru takich rzeczy, które kiedyś jeszcze właściwie były nie do wyobrażenia, że można je mierzyć. Tak jak, na przykład <a href="http://www.choosemuse.com/" target="_blank" rel="nofollow noopener noreferrer">muse</a>, poziom stresu albo poziom koncentracji. Być może można było coś takiego zmierzyć w laboratorium, ale nikt żaden konsument nie mógł sobie indywidualnie tego zrobić. To są opaski do indywidualnego użytku.</p>
<p><iframe title="CES 2016: Meditating with the Muse Headband" width="960" height="540" src="https://www.youtube.com/embed/NZ1TtFw3xIo?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Za ich pomocą też chcemy przeprowadzać rozmaite eksperymenty, ale też po prostu pracujemy nad tym, żeby je rozwijać, żeby zwiększać ich funkcjonalności. Taką opaską, którą w tej chwili się zajmujemy. To jest opaska, która służy do badania poziomu koncentracji i do tego, żeby ten poziom koncentracji zwiększać. Ma taką dodatkową aplikację z botem, która doradza w jaki sposób trzeba działać, żeby być bardziej skoncentrowanym. To jest taki sprzęt, który rzeczywiście w tej chwili testujemy na MIT.</p>
<p><b>Vladimir:<br /></b>Tyle rzeczy! Zaraz będę o to wszystko dopytywał. Ale najpierw jeszcze może zapytam o Twoją własną książkę, którą napisałaś &#8222;<a href="http://www.empik.com/istoty-wirtualne-jak-fenomenologia-zmieniala-sztuczna-inteligencje-przegalinska-aleksandra-k,p1134413375,ksiazka-p" target="_blank" rel="nofollow noopener noreferrer">Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję</a>&#8222;. Do kogo jest ta książka skierowana i jakie tematy tam poruszasz? Bo ja tę książkę dopiero też znalazłem, przyznam szczerze, pewnie chciałbym ją przeczytać. Więc podziel się więcej, co możemy w niej znaleźć.</p>
<p><b>Ola:<br /></b>Książka jest taką bardzo zmienioną, popularyzowaną wersją mojego doktoratu. Doktorat, oczywiście, o sztucznej inteligencji, ale był pisany na wydziale filozofii. Tam można spodziewać się trudnej terminologii,  która na początku, dla osób które nie mają tego backgroundu, będzie mniej zrozumiała, ale przez to można szybko przebrnąć. Książka, w zasadzie, dla wszystkich.</p>
<p>Książka jest podsumowaniem tego, co się działo w sztucznej inteligencji, jakie kolejne paradygmaty w tym projekcie sztucznej inteligencji następowały, jakie będą następowały, czyli jakich możemy się spodziewać. Tutaj też podaję przykłady o różnych sposobach, w jakich można rozwijać sztuczną inteligencję. Nie na takim bardzo inżynieryjnym poziomie ostatnim, tylko na poziomie koncepcyjnym.</p>
<p>Sztuczna inteligencja to jednak ogromny projekt intelektualny, to nie są tylko praktyki inżynieryjne, ale to jest też jakiś taki duży paradygmat, który mówi nam o tym, jak stworzyć maszynę, która będzie w jakiś sposób podobna do człowieka, jak do tego doszłoby, gdyby to się udało, i w którą stronę powinniśmy się kierować. Jakiego typu funkcje ludzkie, funkcje inteligencji człowieka trzeba by było odtwarzać, żeby ta maszyna faktycznie była do nas podobna, albo żeby mogła ją cechować jakaś forma inteligencji. I w tym projekcie sztucznej inteligencji od lat 50., 40. ubiegłego wieku, różne na to pomysły były.</p>
<p>Staram się czytelnika przez to przeprowadzić, czyli każdy, kto jest zainteresowany sztuczną inteligencją, może to przeczytać. Dalej, właśnie, od strony też paradygmatów różnych, można powiedzieć, filozoficznych, bo to jest duży metafizyczny, filozoficzny projekt. Dzisiaj, może ludzie którzy się zajmują IT, nie do końca tak o tym myślą, ale dla badaczy sztucznej inteligencji, to jest dosyć jasne. Za tym projektem stoją zbyt silne założenia dotyczące tego, jak poznajemy, jak myślimy, my jako ludzie, jak możemy to odtwarzać na maszynie.</p>
<p>Staram się w swojej książce to pokazać, to jakoś zilustrować i pokazać, jakie różne etapy sztucznej inteligencji przechodziła, bo na początku chcieliśmy budować maszyny, które będą najlepiej grały w szachy, potem zmieniliśmy zdanie i chcieliśmy budować maszyny, które będą potrafiły poruszać się w przestrzeni fizycznej, czyli będą potrafiły sobie jakoś radzić z takimi bolączkami codzienności, chodzić, odpowiadać na bodźce zewnętrzne. To są dwie różne koncepcje sztucznej inteligencji. I staram się pokazać, która zwyciężyła i dlaczego, jaki jest stan wiedzy na dzisiaj, jak możemy te wiedzy dalej rozwijać, jakie są kolejne wyzwania, co należałoby zrobić chociażby w obszarze botów, żeby te boty faktycznie stały się takimi bardzo zaawansowanymi maszynami.</p>
<p><b>Vladimir:<br /></b>Rozumiem, że ta książka nadaje się dla wszystkich osób, które się interesują sztuczna inteligencją i&#8230;</p>
<p><b>Ola:</b>&#8230;rozwojem technologii również.</p>
<p><b>Vladimir:<br /></b>Teraz zadam najważniejsze pytanie dzisiejszej rozmowy, później to będzie wszystko dookoła. Pytanie jest takie, czym jest osobliwość i czy należy jej się bać.</p>
<p><b>Ola:<br /></b>No tak, mogłam się spodziewać <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Czym jest <a href="https://pl.wikipedia.org/wiki/Technologiczna_osobliwo%C5%9B%C4%87" target="_blank" rel="nofollow noopener noreferrer">osobliwość</a>? To zależy od definicji. Czym czy kim, to też jest dobre pytanie. Jest osobliwość w matematyce, która jest oczywiście zupełnie innym fenomenem niż tym, którym się zajmujemy. W kontekście sztucznej inteligencji, osobliwość &#8211; to jest taki punkt,  wyspekulowany dosyć, niejasny, kiedy on nastąpi w przyszłości, kiedy maszyna właśnie osiągnie co najmniej ludzkie kompetencje.</p>
<p>To znaczy będzie intelektualnie sprawna tak samo jak człowiek, będzie cechować  być może także samoświadomością, czyli stanie się jakby czymś, na pewno z nami porównywalnym. I dlatego to się nazywa osobliwość, bo nie wiemy co dalej od tego punktu może nastąpić. To znaczy że to będzie punkt osobliwy w historii cywilizacji człowieka, dlatego że on wszystko zmieni. Nie było nigdy nic takiego. Nic takiego się nie zdarzyło. Singular, takie wyjątkowe, prawda. Bo Singularity, to jest angielski ekwiwalent osobliwości polskiej. I to jest taki moment, od którego bardzo trudno przewidzieć, co się może zdarzyć, bo tutaj pojawia się wtedy taki gracz na świecie, na Ziemi, który będzie zupełnie poza nami.</p>
<p><iframe title="What Is The Singularity? | Brit Lab" width="960" height="540" src="https://www.youtube.com/embed/8MVrtJdrYtA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To znaczy, w jakimś sensie będzie, być może, nie do przewidzenia w jaki sposób on rozegra swoją relację z nami, z ludźmi. Więc tak naprawdę, ta osobliwość &#8211; to jest swego rodzaju zagadka. Też czasami mówi się &#8222;osobliwość&#8221; o maszynie osobliwej, czyli właśnie o takiej sztucznej inteligencji, która będzie już na ludzkim poziomie, a nawet na wyższym poziomie niż człowiek, przekracza kompetencje człowieka. I wtedy dojdzie do jakiejś takiej reorganizacji tego jak funkcjonują nasze społeczeństwa, jak funkcjonujemy, jak gospodarki nasze funkcjonują. To jest taki po prostu moment, absolutnie przełomowy, który nie jest porównywalny z niczym, co my do tej pory, jako cywilizacja, przeżywaliśmy.</p>
<p>Natomiast nie wiemy, kiedy ono nastąpi. Są tacy ludzie, jak <a href="https://en.wikipedia.org/wiki/Ray_Kurzweil" target="_blank" rel="nofollow noopener noreferrer">Ray Kurzweil</a>, którzy mówią, że to będzie za 20 czy 30 lat, on tę datę też przesuwa trochę.</p>
<p><iframe title="Michio Kaku &amp; Ray Kurzweil - Singularity is Close!" width="960" height="540" src="https://www.youtube.com/embed/qSUo9IEcYUU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Są inni, którzy mówią że bardziej za 100. A jeszcze są inni którzy mówią że, żeby maszyna stała się osobliwa, to musi przejść jednak proces ewolucji, i nawet gdyby on miał być spakowany bardzo mocno w stosunku do tego, jak myśmy się ewolucyjnie rozwijali, to tak czy siak, to nie będzie mniej niż 1000 lat. Więc do spekulacji jest wiele, są oczywiście też tacy, którzy mówią, że osobliwość nie nastąpi, bo nie da się stworzyć świadomej maszyny.</p>
<p>Da się stworzyć inteligentną być może, ale samoświadomą, taką podmiotową, która będzie myślała o sobie jako o Ja, dodam że, takiej to nie da się zbudować, bo po prostu nie mamy do tego kompetencji, ona się sama nie wyłoni. Jest dużo dyskusji, debat na ten temat czy to się zdarzy i czy należy się tego bać. Prawdę mówiąc, mam takie stanowisko dosyć realistyczne. To znaczy, jeżeli mówi się ludziom, że się powinni bać, to oni wtedy naturalnie reagują, tak że ten projekt należy zatrzymać. Uważam, tak zupełnie pragmatycznie, że projektu rozwoju sztucznej inteligencji po prostu zatrzymać się nie da.</p>
<p>Nawet, jeśli ktoś gdzieś powie &#8222;pas&#8221;, amerykanie czy my, to być może chińczycy nie powiedzą &#8222;pas&#8221;, bo będą chcieli dalej rozwijać sztuczną inteligencję, bo będzie do czegoś tam potrzebna w medycynie, przemyśle, gdziekolwiek. I w związku z tym, tego projektu nie da się zatrzymać. Więc zamiast się bać i myśleć o nim w takich kategoriach panicznych &#8211; &#8222;uciekamy&#8221;, to po prostu trzeba do niego podejść tak na spokojnie, na chłodno i się do niego dobrze przygotować (do tego procesu). Przede wszystkim, musimy coraz bardziej upowszechniać wiedzę na temat tego, jaki jest stan rozwoju sztucznej inteligencji. On, wbrew pozorom, nie jest aż tak bardzo zaawansowany, jest masa zagadek, jest bardzo dużo trudności w tym projekcie. Mówimy naprawdę o bardzo wczesnym etapie.</p>
<p>Tak uważam, bo gdzieś pracuję w tym obszarze, ale trzeba zdecydowanie społeczeństwo uświadamiać i powinniśmy odbyć szereg debat, dotyczących tego jak i w jaką stronę chcemy sztuczną inteligencję kształtować. Bo to może być tak, że to będą inteligentne systemy, które będą asystowały człowiekowi, będą optymalizowane szeregi procesów i, oczywiście, zmienią nasze społeczeństwo, ale nie dojdzie do punktu żadnej konfrontacji. Natomiast oczywiście, że gdzieś tam kupuje (inkubuje) się jakaś forma taka, która będzie wykorzystana chociażby jeszcze przez człowieka w złych celach. Już będzie inteligentna, ale nie będzie miała podmiotowości woli  jeszcze.</p>
<p>Jakiś tam, powiedzmy, ego-maniacki polityk postanowił ją wykorzystać w jakichś swoich niecnych celach. Mam wrażenie że im bardziej projekt sztucznej inteligencji jest wspólny dla całego społeczeństwa, tym jest bezpieczniejszy, a im bardziej jest pochowany po jakichś wyjątkowych, bardzo szczególnych, nielicznych labach (laboratoriach) i ludzie nie rozumieją, bo oni się go boją, tym zasadniczo gorzej. Taka jest moja odpowiedź, nie wiem, czy ona jest jednoznaczna, ale bym powiedziała że nie należy się bać, ale należy po prostu bardzo uważnie się przyglądać i coraz bardziej w ten projekt wchodzić.</p>
<p><b>Vladimir:<br /></b>Poruszyłaś bardzo ciekawy temat, a zwłaszcza to, nawet jeżeli ktoś będzie chciał to zatrzymać, to jednak to jest niemożliwe. Ostatnio czytałem takie badania, na temat kiedy właśnie ten punkt nastąpi, i są różne poglądy. Ciekawostką jest to, że właśnie naukowcy z Chin zwykle szacują to, że ten punkt nastąpi kilkadziesiąt lat wcześniej. Co jest ciekawe, dlaczego tak uważają, niewiadomo.</p>
<figure id="attachment_449" aria-describedby="caption-attachment-449" style="width: 1208px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-449" src="https://biznesmysli.pl/wp-content/uploads/2017/07/china.jpg" alt="Naukowcy z Chin chyba wiedzą coś więcej..." width="1208" height="1031" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/china.jpg 1208w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-300x256.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-1024x874.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-768x655.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-1140x973.jpg 1140w" sizes="(max-width: 1208px) 100vw, 1208px" /><figcaption id="caption-attachment-449" class="wp-caption-text">Źródło.</figcaption></figure>
<p>Też jest ciekawe to że to całe środowisko naukowe w Chinach jest raczej dość zamknięte. Oni czasem coś piszą, ale takie bardzo minimalne informację co dokładnie się tam dzieje. Ale tam naprawdę się dzieje wiele ciekawych rzeczy, więc nie da się tego zatrzymać. Z tym się zgadzam w stu procentach.</p>
<p>Zapytam teraz coś konkretnego. Zapytałem najpierw o przyszłość,  więc zapytam teraz o tym, co mamy. A właśnie, które rozwiązania albo tendencje sztucznej inteligencji najbardziej cię zaskoczyła albo nadal zaskakuje?</p>
<p><b>Ola:<br /></b>Jeszcze jakiś czas temu bym powiedziała, że to, co robi <a href="https://www.bostondynamics.com/" target="_blank" rel="nofollow noopener noreferrer">Boston Dynamics</a> jest dla mnie poruszające. W każdym wymiarze, to jest tak zwana ucieleśniona sztuczna inteligencja czy też cielesna. Czyli stworzenie sieci sensorów, które pozwalają nam badać w jaki sposób otoczenie zewnętrzne może się do niego dostosowywać i po nim się poruszać. Nie wiem czy Ty znasz tę robotę?</p>
<p><iframe title="Introducing Handle" width="960" height="540" src="https://www.youtube.com/embed/-7xvqQeoA8c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Vladimir:<br /></b>Tak, bardzo polecam też filmik, nie wiem jak się nazywa ten robot, taki pies, który tam skacze, biega&#8230;</p>
<p><b>Ola:<br /></b>Tam jest <a href="https://www.youtube.com/watch?v=rVlhMGQgDkY" target="_blank" rel="nofollow noopener noreferrer">Atlas</a>, jest <a href="https://en.wikipedia.org/wiki/BigDog" target="_blank" rel="nofollow noopener noreferrer">BigDog</a>, tych projektów jest bardzo dużo.</p>
<p><iframe title="Atlas, The Next Generation" width="960" height="540" src="https://www.youtube.com/embed/rVlhMGQgDkY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Ten o którym mówisz to chyba jest Bigdog.</p>
<p><iframe title="BigDog Overview (Updated March 2010)" width="960" height="540" src="https://www.youtube.com/embed/cNZPRsrwumQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Generalnie to są niesamowite maszyny, bo inteligencia cielesna to jest jedna z moich ulubionych odłamów sztucznej inteligencji. Inteligencja oparta na sensorach, na odkrywaniu tego, czym jest percepcja, stymulowanie tej percepcji na maszynie. Fenomenalne jakieś pole badawcze. Na początku, oczywiście, miały być jakieś tam drony, które będą też wykorzystywane bojowo. Ktoś zamówił u Boston Dynamics taki projekt, bodajże DARPA czyli Amerykańska agencja obrony. Potem się okazało, że być może mają bardziej konsumenckie zastosowanie.</p>
<p>Na przykład mogą przynosić bardzo ciężkie paczki w magazynach Amazona. W zasadzie wydaje mi się, że to bardziej idzie w konsumencką stronę, niż w taką typowo bojową.</p>
<p>Co mnie, jako osobę o usposobieniu pacyfistycznym, bardzo cieszy. I to są faktycznie strasznie ciekawe projekty. To znaczy, że poziom sztucznej inteligencji cielesnej w ciele jest bardzo wysoki. Jakiś czas temu odkryłam to z wielkich zafascynowaniem, bo wydawało mi się że to jest bardzo trudne. Tam jest szereg trudnych problemów filozoficznych, ale też i inżynieryjnych, które bardzo trudno rozwiązać. I okazało się, że ta firma jest w stanie jakoś się przekroczyć i budować maszyny, które sobie w zewnętrznym środowisku radzą, nie wywracają się.</p>
<p>Tak jak słynny robot Hondy jeszcze jakiś czas temu. Miał przejść kilka schodków i to miał być wielki przełom sztucznej inteligencji. Potknął się na drugim schodku i upadł, a Japończycy tam płakali. To tak wyglądało bardzo długo.</p>
<p>Takie typowe zadania, które wydawały się rutynowe, takie jak: umyj okno czy przejdź, one po prostu z tym sobie nie radziły. To wynika z określonych ograniczeń oprogramowania, braku wiedzy ludzkiej jak to zrobić. I nagle się pojawia maszyna która po prostu skacze jak pies czy małpa. Chodzi jak krowa, chodzi również jak człowiek (do pewnego stopnia). Można próbować jej podstawić nogę, ona to ominie. Ona naprawdę jest zwinna. I to było dla mnie wielkie odkrycie i wielka radość.</p>
<p>Kolejnym projektem, którym dzisiaj fascynuję się to jest deep learning czy głębokie uczenie maszynowe. Widzieliśmy popis deeplearning’u kiedy AlphaGo, program komputerowy, wygrał z mistrzem tradycyjnej Chiński gry Lee Seedolem. I wygrał w taki sposób, w jaki nie wygrał żaden człowiek. Wygrał inaczej niż wygrywają ludzie ze sobą. Nie jestem specjalistą od Go, ale trochę na ten temat czytałam, też pytałam się ludzi którzy w Go grają.</p>
<p><iframe title="Match of the century - Lee Sedol vs Alpha Go" width="960" height="540" src="https://www.youtube.com/embed/I2WFvGl4y8c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Którzy tę grę analizowali, i oni mówią, że: &#8222;Niezwykłe było to, w jaki sposób ten program prowadził grę i jakie były jego kolejne posunięcia. Że to było posunięcie właśnie z niskiego porządku myślenia&#8221;. AlphaGo w pewien sposób cechował się oryginalnością i kreatywnością w tych swoich rozwiązaniach. Chociaż też, z drugiej strony czasem robił głupie błędy których nie popełnił żaden człowiek. Czyli widać że to maszyna gra, inaczej gra.</p>
<p>Dla mnie to jest punkt przełomowy, który pokazuje, że te możliwości deeplearning&#8217;u są bardzo duże. I że w tym obszarze będą się działy bardzo ciekawe rzeczy, które każą nam, chyba niebawem, zakwestionować właśnie to, że uważamy, że jesteśmy jedynymi bardzo kreatywnymi czy też w ogóle kreatywnymi istotami. To oczywiście nieprawda, bo zwierzęta również są kreatywne w dużej mierze. Ale na pewno nie uważaliśmy że kreatywne mogą być maszyny. Nawet kiedy boty pisały wierszyki jakiś czas temu, to się wydawało że to jest zwykłe generowanie linijek, które czasem do siebie pasują, a czasem nie. Nas to śmieszy. A dzisiaj mamy rozwiązania głębokiego uczenia maszynowego, które każą nam to zakwestionować. Rzeczywiście IBM Watson jest kolejnym przykładem, który robi trailery filmowe, który ma szereg rozmaitych zastosowań analitycznych. Niewątpliwie, w jakiś sposób, jest maszyną inteligentną. To są rzeczy które mnie bardzo interesują i inspirują.</p>
<p><b>Vladimir:<br /></b><a href="https://deepmind.com/research/alphago/" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">AlphaGo</a> faktyczne zrobiło bardzo kreatywne zagranie i widać było że gra inaczej niż ludzie. Jako ciekawostkę warto dodać, że Lee Seedol też zaczął grać inaczej, niż grał przedtem. To też było bardzo fajnie opisane, dlaczego tak uważano. To wszystko było mierzone i prawdopodobieństwo tego, że Lee Seedol zrobi taki czy inny krok było przewidywane. I on robił takie rzeczy, których nie robiłby, jeżeli grałby z człowiekiem. Można powiedzieć, że kreatywność komputerowa, również wpływa na kreatywność ludzką. To jest ciekawe.</p>
<p><b>Ola:<br /></b>Niewątpliwe, że on musiał dostosowywać swoje strategie. To prawda. Nie wiem, czy zaznajamiałeś się z literaturą. Tutaj jest szereg ciekawych rzeczy. Po pierwsze, że on był przekonany, że zwycięży. W zasadzie tak jak inni w ogóle nie uważali, że on powinien się cechować taką pewną siebie postawą.</p>
<p>On sam właśnie był przekonany, że on zdecydowanie tutaj zwycięży i to w cuglach. Jeszcze pół roku wcześniej, była pierwsza próba rozegrania z innym mistrzem gry, przez właśnie AlphaGo, i wtedy tej wersji AlphaGo bardzo źle poszło. AlphaGo w międzyczasie ogromnie się rozwinął właśnie dzięki deepleerning&#8217;owi. Dzięki analizie ogromnej ilości przypadków grania, takie które jest niedostępna człowiekowi. Bardzo się zmienił w tym czasie (od pierwszej gry). Lee Seedol podszedł do tego na luzie. Myślał że wygra i ewentualnie ta maszyna jedną partyjkę sobie ugra.</p>
<p>Okazało się, że po prostu praktycznie został zmieciony z powierzchni Ziemi, to zwycięstwo było walne. Wiem, że w międzyczasie on po prostu się załamał, powiedział że tak nie gra. Potem powiedział, że spróbuje się dostosować, przestawić na logikę maszyny.</p>
<p>No to się nie do końca powidło, chociaż jedną partię wygrał. Także to jest bardzo ciekawe, ta walka człowieka z maszyną, jako zjawisko, jest fascynująca. Ale inną rzeczą, która jest bardzo ciekawa, jeżeli chodzi o AlphaGo, to jest to, że deep learning, jako dziedzina, człowiekowi trochę wymyka. Z jednej strony wiemy jak robić deep learning, ale z drugiej strony nie wiemy jak dochodzi do uczenia się, to dla nas jest w pewnym rodzaju &#8222;blackbox&#8221;.</p>
<p><iframe title="AlphaGo and the future of Artificial Intelligence - BBC Newsnight" width="960" height="540" src="https://www.youtube.com/embed/53YLZBSS0cc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To znaczy możemy generować sobie określone rezultaty których chcemy, czyli możemy wytrenować maszynę, żeby coś potrafiła. Dostaniemy wysoki wskaźnik kompetencji sieci neuronowej, czyli ona robi dokładnie to, czego sobie życzymy i robi to dobrze, sprawnie, trafnie, adekwatnie. Natomiast, już coraz mniej wiemy, nie jeżeli chodzi o zwykłe uczenie maszynowe, a jeżeli chodzi o głębokie uczenie maszynowe. Jak to się faktycznie dzieje że tam do tego uczenia dochodzi.</p>
<p>Skąd się ta kreatywność cała bierze. I to jest bardzo ciekawe, bo może się tak zdarzyć kiedyś w przyszłości, że ta osobliwość nastąpi, a my tego nawet nie zauważymy. To jest trudny do przełknięcia scenariusz, ale patrząc na dzisiejszy rozwój deep learningu &#8211; możliwy. Ostatni cały numer MIT Technology ubiegłego tygodnia był temu poświęcony, żeby po prostu zrozumieć co się dzieje w deep learningu. Że człowiek musi nabrać kompetencji nie tylko do wywoływania określonych rezultatów (budowanie modele), ale również zrozumieć proces jak maszyna uczy się. Musi po prostu zacząć rozumieć ten cały proces i uważam że to jest bardzo ważne. Jeśli chodzi o obawianie się osobliwości, to to jest kluczowe zadanie w tej chwili.</p>
<p><b>Vladimir:<br /></b>Tak to prawda! Ostatnio właśnie czytałem kilka prac naukowych na temat zrozumieniu jak działa uczenie maszynowe. W to angażują się, wszyscy duzi gracze. <a href="https://deepmind.com/" target="_blank" rel="nofollow noopener noreferrer">Deep Mind</a>, <a href="https://research.google.com/teams/brain/" target="_blank" rel="nofollow noopener noreferrer">Google Brain</a> (obaj należą do Google, ale działają niezależnie)</p>
<figure id="attachment_448" aria-describedby="caption-attachment-448" style="width: 600px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-448" src="https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia.jpg" alt="Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów" width="600" height="600" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia.jpg 600w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-150x150.jpg 150w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-300x300.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-100x100.jpg 100w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption id="caption-attachment-448" class="wp-caption-text">Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów. <a href="https://www.technologyreview.com/s/604324/nvidia-lets-you-peer-inside-the-black-box-of-its-self-driving-ai/" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>.</figcaption></figure>
<p>To przejdźmy teraz do kolejnych tematów, żeby zdążyć wszystko omówić. Kim jest bot Ola i gdzie można go znaleźć?</p>
<p><b>Ola:<br /></b>Bot Ola w tej chwili już się schował, ale można było go do niedawno znaleźć, pewnie będzie można również w przyszłości, na stronie Leona Koźmińskiego. Gdzie służył jako doradca wirtualny w dziekanacie dla naszych studentów. Najpierw tego bota testowaliśmy na uczelni przez rok. Miał moje imię ale co do zasady działał właśnie jako pracownik wirtualnego dziekanatu i odpowiadał na pytania studentów dotyczące rekrutacji itd. Wtedy, w pewnym sensie trenował żeby być coraz lepszym. Poprawiliśmy bazę danych, widząc czego studenci szukają i potrzebują. Potem bota już wzięliśmy na warsztat do naszych badań naukowych. Po roku przebywania na stronie, on został przez nas wykorzystany w naszym naukowym badaniu, które dotyczyło właśnie interakcji człowiek-bot.</p>
<p>Po prostu trzeba było znaleźć grupę ludzi którzy chcieli w tym eksperymencie wziąć udział. To nie było specjalnie trudne. Potem podpinaliśmy ich pod szereg różnych sensorów, elektrod, żeby zrozumieć ich reakcje emocjonalne podczas interakcji z botem. Zadawaliśmy im różne zadanie, żeby oni wspólnie z tym botem wykonali. Oni wykonywali te zadania, czasami krócej, czasami dłużej. My w tym czasie patrzyliśmy na to co się dzieje i jak ciało odpowiada. Jaki sygnał fizjologiczny wysyła. Czy jest stres? Czy jest spokój?</p>
<p>W jaki sposób to ciało odpowiada, a potem jeszcze pytaliśmy uczestników. Mieliśmy szereg ankiet, łączyliśmy odpowiedzi afektywne czyli psycho filozoficzne sygnały z deklaracjami które ludzi złożyli. Na tej podstawie próbowaliśmy sprawdzić czy się podoba i jaka wersja bota podoba się. Mieliśmy dwie wersji do testów, jedna była czysta tekstowa, a druga była z awatarem i głosem. Sprawdzaliśmy która wersja jest bardziej dla naszych użytkowników akceptowalna. Która bardziej się podoba, a która może budzić jakieś lęki czy obawy. Myślę że to jest ważne, bo odpowiedzieliśmy na szereg istotnych pytań badawczych, ale też przy okazji, może mam taką nadzieję, przysłużyliśmy się trochę biznesowi. W tym sensie że pomagamy mu tworzyć takie maszyny które będą u ludzi budzić pozytywne reakcje, a nie negatywnie.</p>
<p><b>Vladimir:<br /></b>Pod koniec lat siedemdziesiątych Japoński naukowiec Mori Masahiro przeprowadził bardzo ciekawy eksperyment. Badając jakie powstają u ludzi emocje na widok robota. Początki eksperymentu były dość proste.</p>
<figure id="attachment_445" aria-describedby="caption-attachment-445" style="width: 450px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-445" src="https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci.jpg" alt="Dolina niesamowitosci" width="450" height="353" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci.jpg 450w, https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci-300x235.jpg 300w" sizes="(max-width: 450px) 100vw, 450px" /><figcaption id="caption-attachment-445" class="wp-caption-text">Dolina niesamowitosci. <a href="http://www.asimo.pl/teoria/dolina_niesamowitosci.php" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">Źródło</a>.</figcaption></figure>
<p>Bardzo liniowe. Czym bardziej realistyczny robot, tym większą sympatię budził u człowieka. Natomiast w pewnym momencie osiągnęli taki poziom, który teraz nazywa się &#8222;<a href="https://en.wikipedia.org/wiki/Uncanny_valley" target="_blank" rel="nofollow noopener noreferrer">uncanny valley</a>&#8221; albo po polsku &#8222;<a href="https://pl.wikipedia.org/wiki/Dolina_niesamowito%C5%9Bci" target="_blank" rel="nofollow noopener noreferrer">dolina niesamowitości</a>&#8222;.</p>
<p><iframe title="The Uncanny Valley" width="960" height="720" src="https://www.youtube.com/embed/CNdAIPoh8a4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Nawet nie do końca wiadomo dlaczego to powstaje, aczkolwiek wiadomo, że jak widzimy robota który jest podobny do człowieka. To zwykle możemy przestraszyć się robota. Czujemy się dość niekomfortowo, czujemy  jakieś strachy i inne dziwne emocje. Bardzo gorąco polecam słuchaczom sprawdzić to na własnej skórze np. można zobaczyć robota Kismet, które wcale nie przypomina człowieka jest taki zabawny. Natomiast roboty takie jak Bina 48 albo Sofia. One są bardziej podobne do człowieka i tym bardziej wprowadzają zamieszanie i zwykle człowiek czuje się mało komfortowo.</p>
<p><iframe title="How Kismet Works" width="960" height="720" src="https://www.youtube.com/embed/Kw-gOmJwzuc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><iframe title="Bina 48 Meets Bina Rothblatt - Part Two" width="960" height="540" src="https://www.youtube.com/embed/G5IqcRILeCc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><iframe title="Hot Robot At SXSW Says She Wants To Destroy Humans | The Pulse" width="960" height="540" src="https://www.youtube.com/embed/W0_DPi0PmF0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Czy myślisz, że dolina niesamowitości może zniknąć kiedyś w przyszłości? Czy to nie jest tak że to zależy od pokolenia? Na przykład nasze pokolenie, raczej już będzie miało ten problem, no chyba że ktoś bardzo będzie pracował nad tym. Ale pokolenie naszych dzieci i jeszcze niżej, już tego problemu wcale może nie mieć.</p>
<p><b>Ola:<br /></b>To jest bardzo ciekawe pytanie, które mnie również badawczo interesuje. W związku z tym mogę polecić, publikację którą wydaliśmy. Ona nazywa się <a href="http://www.academia.edu/33792779/The_Necessity_of_New_Paradigms_in_Measuring_Human-Chatbot_Interaction" target="_blank" rel="nofollow noopener noreferrer">The Necessity of New Paradigms in Measuring Human-Chatbot Interaction</a>. Również mogę pokazać, jak my to badaliśmy. Mam wrażenie, że dolina niesamowitości, jest w pewnym rodzaju fenomenem psychologicznym &#8211;  zmienia się.</p>
<figure id="attachment_446" aria-describedby="caption-attachment-446" style="width: 2000px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-446" src="https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48.jpg" alt="Ola rozmawia z Bina48" width="2000" height="1333" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48.jpg 2000w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-300x200.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-768x512.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-1024x682.jpg 1024w" sizes="(max-width: 2000px) 100vw, 2000px" /><figcaption id="caption-attachment-446" class="wp-caption-text">Ola rozmawia z Bina48. <a href="https://imagazine.pl/2016/07/24/przyszlosc-komunikacji-czy-powinnismy-sie-bac-wywiad-z-dr-aleksandra-przegalinska/" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>.</figcaption></figure>
<p>Wspomniałeś się o kilku różnych maszynach. My zresztą z Bina 48, humanoidalnych robotem, również pracowaliśmy  i mamy plan, żeby naszą metodologią badawczą objąć również tego robota. Ale to wiadomo, że interakcje z człowiekiem będą bardzo powikłane i trudne. Bo mamy do czynienia z maszyną która wygląda jak człowiek ale nie jest człowiekiem. Bardzo dziwnie wodzi oczami, dziwnie mówi i tak dalej, to będzie budziło lęki.</p>
<p>Myślę że to nie tędy droga, w przyszłości maszyny intelegentne raczej nie będą wyglądaly humanoidalnie, albo przynajmniej jeszcze bardzo długo nie będą humanoidalnymi robotami. Bo reakcja emocjonalna jest zdecydowanie negatywna.</p>
<p>Nas bardziej ciekawiło co się dzieje w przypadku botów. Mamy do czynienia z używaniem technologii głosowej. Taki użytkownik bardzo się waha na początku. Są pewne wersje botów czy robotów które odpowiadają im. Które nie wyglądają tak jak ludzie i ta interakcja nie sprawia dyskomfortu, że nie wiedzą czy to jest człowiek czy maszyna.</p>
<p>Nas zainteresowało to, jak w przypadku bota to może wyglądać. I rzeczywiście, zaobserwowaliśmy, że w przypadku tekstowego bota, mimo tego, że on był taki sam na poziomie inteligencji, silnika wiedzy itd.  był określony bardziej pozytywnie, niż bot który miał interakcję głosową. To oznacza, że głosowy bot budził silne reakcje emocjonalne, próbując używać lub atakować użytkownika wieloma kanałami. Ma twarz, ma głos i jeszcze coś tam chce od niego. To jest to, z czym ludzie jeszcze nie dokońca się pogodzili. Uważam, że to będzie się zmieniać. Sama ta technologia głosowa, weszła w życie mocniej teraz. Jeszcze jakiś czas temu naprawdę nie lubiliśmy tego bardzo. A teraz coraz więcej osób z tego korzysta. To jest jedna moja obserwacja.</p>
<p>A druga jest taka, że sama ekspozycja na nowe technologie też zmienia bardzo nasze postrzeganie technologii. To co dzisiaj jeszcze wydaje się bardzo dziwne i trudne do przyjęcia, to może się zmienić. W miarę kiedy technologie będą się rozwijać, kiedy będziemy wkraczać w tak zwaną<a href="https://en.wikipedia.org/wiki/Posthumanism" target="_blank" rel="nofollow noopener noreferrer"> posthumanistyczną</a> erę.</p>
<p>Sami będziemy mieli coraz więcej takich technologii na sobie, ubieralnych i rozmaitych innych. Będą się rozwijać inne obszary jak <a href="http://wyborcza.pl/TylkoZdrowie/1,137474,15832892,Nanomedycyna___jak_to_dziala__Miniroboty_podane_dozylnie.html?disableRedirects=true" target="_blank" rel="nofollow noopener noreferrer">nanomedycyna</a>. Myślę, że w ogóle będzie wzrastać akceptacja dla maszyn i dolina niesamowitości będzie się bardzo przesuwała.</p>
<p><iframe title="Animated Nanomedicine movie" width="960" height="540" src="https://www.youtube.com/embed/2VcNpl8-PRI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Chociaż z drugiej strony mam taki disclaimer, że w przypadku robotów humanoidalnych, ten silny negatywny efekt przez ostatnie kilka dekad się utrzymywał. Mimo tego, że się rozwijaliśmy, jakoś nie pokonaliśmy tej bariery strachu. Być może są takie obszary, które jeszcze bardzo długo zostaną i człowiek nie będzie chciał ich zaakceptować.</p>
<p><b>Vladimir:<br /></b>Czy według Ciebie <a href="https://pl.wikipedia.org/wiki/Test_Turinga" target="_blank" rel="nofollow noopener noreferrer">Test Turinga</a> już został zaliczony?</p>
<p><b>Ola:<br /></b>Tak! Ale ja w ogóle mam negatywny stosunek do Testu Turinga. Uwielbiam samego Turinga, cenię go ogromnie. Ale wydaję się, że test już nie ma sensu w tym momencie. Zgadywanie czy coś jest człowiekiem czy maszyną i na tej podstawie stwierdzenie czy jest inteligentny. To jest taka zabawa z przeszłości. Zabawa która poszła w złym kierunku, symulowanie, a nie rozwijanie sztucznej inteligencji. Wszyscy skupili się na tym, żeby oszukać sędziego w teście Turinga i budować takie maszyny które będą udawały ukraińskiego nastolatka, tak jak <a href="https://en.wikipedia.org/wiki/Eugene_Goostman" target="_blank" rel="nofollow noopener noreferrer">Eugene Goostman</a> który wygrał zresztą jakąś tam wersję Testu Turinga w 2014.</p>
<p><iframe title="Eugene Goostman is Your Average 13-Year-Old Artificial Intelligence" width="960" height="540" src="https://www.youtube.com/embed/OcY8xlPffcA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Bo był taki bot, który udawał ukraińskiego nostalatka w związku z tym, jego zdolność angielskiego była mniejsza, a przez to, że był nastolatkiem mniej wiedział o świecie. On wygrał za pomocą trików. Ten test Turinga, poszedł w taką stronę “trików”, żeby oszukać sędziego, a niekoniecznie zbudować coś wartościowego. Uważam, że test Turinga przez Goostmana został zaliczony.</p>
<p>Uważam, że ten paradygmat zgadywania powinniśmy za sobą zostawić i skupić się na innych wersjach tego testu. Będziemy próbowali już nie na ślepo, żeby ludzie zgadywali. Próbować budować maszyny które będą oszukiwały czy symulowały człowieka z chorobą psychiczną, więc wiadomo że ta interakcja będzie inaczej przebiegać. Tylko skupić się na głębokim uczeniu (deep learning), który umożliwi nam stworzyć swobodną interakcję. Gdzie nie będziemy się zastanawiali czy rozmawiam z maszyną czy człowiekiem. Bo to po prostu nie będzie ważne. Po prostu przekazuje nam ciekawe i ważne informację w dobry sposób albo nie. Nasze badanie też tak zostało skonstruowane. Uważa, że to jest trochę kontrowersyjne, ale według mnie jest zaliczony.</p>
<p><b>Vladimir:<br /></b>Test Turinga jest słabo sprecyzowany. Sam Turing zaproponował go w 1950, po czterech latach umarł i nie wprowadził jednoznacznych reguł. Dlatego teraz jesteśmy w takiej sytuacji, w dużym uproszczeniu, że każda uczelnia może zorganizować swój własny konkurs Turinga na własnych zasadach.</p>
<p>Tak w 2014, <a href="https://pl.wikipedia.org/wiki/Kevin_Warwick" target="_blank" rel="nofollow noopener noreferrer">Kevin Warwick</a>, znany jeszcze jako pierwszy cyborg, <a href="https://www.theverge.com/2014/6/8/5790936/computer-passes-turing-test-for-first-time-by-convincing-judges-it-is" target="_blank" rel="nofollow noopener noreferrer">uznał</a> że test Turinga został zaliczony, bazując na to, że ponad 30% badaczy uwierzyło, że Eugene jest człowiekiem. Podążając tym tropem, warto przypomnieć, że Test Turinga miał pomóc odpowiedzieć na podstawowe pytanie “czy mogą maszyny myśleć?”. <a href="https://pl.wikipedia.org/wiki/John_Searle" target="_blank" rel="nofollow noopener noreferrer">John Searle</a>, zaproponował koncepcję “<a href="https://pl.wikipedia.org/wiki/Chi%C5%84ski_pok%C3%B3j" target="_blank" rel="nofollow noopener noreferrer">Chińskiego pokoju</a>”.</p>
<p><iframe title="The Chinese Room - 60-Second Adventures in Thought (3/6)" width="960" height="540" src="https://www.youtube.com/embed/TryOC83PH1g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Ola:<br /></b>Tak, znana filozoficzna koncepcja. Ale ona nas trochę uwikłała. Chiński pokój polegał na tym, że ja mogę, jeżeli dostanę określony zestaw procedur, nawet nie znając Chińskiego, sprawnie odpowiadać w Chińskim języku. Będę wiedziała, które procedury uruchomić, żeby odpowiedzieć adekwatnie.</p>
<p>Mam wrażenie, że sztuczna inteligencja na zasadzie  “chińskiego pokoju” była konstruowana. I teraz, kiedy mamy do dyspozycji takie narzędzia jak uczenie maszynowe trzeba ten “chiński pokój” opuścić, zostawić to za sobą, nie symulować, tylko pozwolić maszynie semantycznie rozumieć co ona mówi, na przykład. W tę stronę trzeba się kierować.</p>
<p><b>Vladimir:<br /></b>Zamykając temat testu Turinga, kiedyś słyszałem takie powiedzenie: “dla mnie jest akceptowalne, że robot zaliczył test Turinga, natomiast bardzo zmartwiające, kiedy robot będzie udawał, że jeszcze nie zaliczył”. W tym rozumieniu, taki robot już miał posiadać coś, co jest bardziej zbliżone do myślenia. Jak myślisz, czy mogą być powody, żeby robot udawał coś dla nas? Jeżeli tak, to jakie mogą być powody dlatego?</p>
<p><b>Ola:<br /></b>Na razie to bardzo zależy od tego, co w nim zapiszemy, ale też bardzo zależy od tego, jakiego typu moralną architekturę zbudujemy. To jest duże zagadnienie teraz, jaką etykę wybierzemy dla maszyn. Duże zagadnienie od czasu Asimova, ale dzisiaj wyjątkowo ważne ( to bardzo widać chociażby w rozwoju autonomicznych samochodów), jak bardzo potrzebnym zagadnieniem jest budowa <i>AI effects</i> czyli etyki dla inteligentnej maszyny, bo możemy pewne rzeczy założyć.</p>
<p>Możemy stworzyć maszynę, która będzie zbudowana na wzorcach naszych zachowań. I jestem przekonana, że ona będzie nas oszukiwała, ponieważ my oszukujemy. To znaczy jeżeli będziemy modelowali swoje cechy na maszynie, to będziemy mieli taką samą maszynę jak my sami, troszeczką cwaną, czasami może zdolną do kolaboracji, ale z drugiej strony kalkulującą pod własną wygodę.</p>
<p>Taką maszynę, która będzie się zachowywała jak my.</p>
<p>Nie wiem, czy przeprowadzałeś sobie test  <a href="http://moralmachine.mit.edu/" target="_blank" rel="nofollow noopener noreferrer">Moral Machine</a>, który prowadzi MIT. To jest test o tym kogo oszczędzisz na drodze, a kogo zabijesz pod kątem inteligentnej maszyny. W sytuacjach trudnych, kiedy maszyna musi ocenić czyje życie jest bardziej wartościowe do ocalenia, bo ma dylemat i zawsze ktoś ucierpi. I w tej chwili tak to jest rozwiązywane, że ludzie ten test zasilają swoją wiedzą, oni te testy rozwiązują i potem baza wiedzy, która wynika z ich zachowań, stanowi silnik dla maszyny.</p>
<p><iframe title="Moral Machine - Human Perspectives on Machine Ethics" width="960" height="540" src="https://www.youtube.com/embed/XCO8ET66xE4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>W momencie kiedy coś takiego robimy, niewątpliwie tworzymy ontologie, zasady moralne, które są oparte na tym jak my sami funkcjonujemy. Możemy iść inaczej. Nie wiem czy możemy wyjść poza własne ograniczenia, ale możemy tworzyć maszynę, która nie będzie działała jak człowiek, w tym przynajmniej obszarze. Nie wiem na razie jak to zrobić, ale wyobrażam że jest to możliwe. I wtedy ona nie będzie zdolna do oszukiwania, bo nie będzie w jej ontologii to w jakiś sposób obecne. Czy ona później to “wykwintnie” sama, jak mogłaby to zrobić, też nie wiem. To bardzo głębokie pytanie. Myślę że jest droga taka, żeby maszyna nie oszukiwała. Myślę że powinniśmy raczej ją eksplorować niż taką, która będzie odtwarzała wszystkie ludzkie cechy, w tym ludzkie ułomności.</p>
<p><b>Vladimir:<br /></b>Mówiąc o temach etycznych, warto przypomnieć dość nowoczesną historię bota z roku 2016 o nazwie <a href="https://en.wikipedia.org/wiki/Tay_(bot)" target="_blank" rel="nofollow noopener noreferrer">Tay</a> od Microsoftu. Kiedy uczył się od ludzi i, poniewaz ludzie są różni, nauczyli, niestety, najgorszych rzeczy, zepsuli bota.</p>
<p><b>Ola:<br /></b>Nie zepsuli, tylko po prostu pokazali na co ich stać w jakiś sposób. Bot był otwarty, a oni (głównie hejterzy) zasilili go szalenie kontrowersyjną wiedzą, fake newsami i td, którą potem replikował. Po trzech dniach Microsoft zamknął go.</p>
<p><iframe title="50 Most Outrageous Racist Tweets From Microsoft&#039;s Twitter Bot &quot;TAY&quot;" width="960" height="720" src="https://www.youtube.com/embed/eTdyucscPnQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Vladimir:<br /></b>Chodźmy dalej, bo jeszcze mam kilka bardzo ciekawych pytań.</p>
<p>Ludzi zostawiają sporo, tak zwanych “cyfrowych śladów” po sobie, zaczynając od “<i>like’ów</i>” czy komentarzy na facebooku, kończąc udostępnianiem zdjęć czy ogólnie poruszanie się po sieci. Dlatego Facebook teraz wie jak my się czujemy, albo czy rozwiedziemy się w ciągu najbliższych dwóch miesięcy….</p>
<p>Pojawia się coraz więcej nowych technologii, firm, które te dane wykorzystują. Natomiast nadal ochrona danych osobowych jest dość szarą strefą. Stajemy się być coraz bardziej przezroczyści.  Nie wiem czy ktoś oglądał ostatnio film Circle, w którym ta idea była dość mocna pokazana.</p>
<p><iframe title="The Circle | Official Trailer | Own it Now on Digital HD, Blu-ray&#x2122; &amp; DVD" width="960" height="540" src="https://www.youtube.com/embed/QUlr8Am4zQ0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Pytań jest kilka, jak z tym się czujesz? Czy warto się zbuntować i być anonimową osobą (np. poprzez używanie tor’u), czy jednak zaakceptować udostępnianie danych jako konieczność? Jaka jest Twoja opinia na ten temat i czy tak naprawdę ten wybór jest tylko teoretyczny (bo zawsze możemy pójść mieszkać do jaskiń, ale dla ilu osób to jest akceptowalne)?<br /><b>Ola:</b></p>
<blockquote>
<p>Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany.</p>
</blockquote>
<p>Z jednej strony jest tak, że te wielkie zbiory danych, które wynikają z naszej sieciowej aktywności mogą nam bardzo się przysłużyć. To znaczy mogą się służyć w rozwoju, na przykład, medycyny, rozwoju wielu obszarów wiedzy i to są dane, które uczą maszyny i pozwalają im bardziej nam pomagać,  lepiej asystować. To są bardzo wartościowe dane, które popychają nas na przód.</p>
<p>Z drugiej strony jest tak, że koncept prywatności nie został całkowicie porzucony. Wiele ludzi ma zastrzeżenia do tego, jak do naszych danych, tych “śladów cyfrowych”, instrumentalnie podchodzić.  Mam wrażenie, że jesteśmy w takim punkcie, w którym wykuwają się nowe paradygmaty ochrony w sieci. Możemy się spodziewać, że po etapie kompletnie otwartego podejścia, gdzie masa firm zrobiła na naszych danych duży biznes, nie do końca swoich użytkowników o tym informowała, będziemy teraz w takim punkcie, gdzie regulator będzie wkraczał, czyli Państwo, Unia Europejska i masa innych instytucji w celu chronienia użytkownika. Żeby sieć wycinała nas na nasze życzenie, żebyśmy nie byli obiektem manipulacji na danych.</p>
<p>Uważam że przed nami jest bardzo trudny, turbulentny okres, w którym to będzie się wykuwało od nowa. Mam nadzieje że będą powstawały też nowe ciekawe innowacje. Elon Musk dał szereg funduszy czy grantów na rozwój bezpieczeństwa w sieci. Mam wrażenie, że będziemy teraz w takim punkcie, że będziemy korygować dotychczasowy kurs. Myślę, że to nie jest tak, że każdy konsument będzie musiał koniecznie zainstalować sobie <a href="https://www.torproject.org/" target="_blank" rel="nofollow noopener noreferrer">tor</a>’a albo cokolwiek innego, żeby w ogóle funkcjonować, tylko raczej będziemy szli w taką stronę, aby wszyscy w miarę bezpiecznie funkcjonowali, bo to będzie im zapewnione. Może to jest idealistyczne, ale mam wrażenie że to jest punkt zwrotny, należy ten obszar obserwować.</p>
<p><b>Vladimir:<br /></b>Nie chcę teraz wchodzić w szczegóły polityczne, bo podcast jest o czymś innym. Ale chcę pokazać moc i co można osiągnąć, mając dostęp do danych i odpowiednich technologii. Po ostatnich wyborach w Stanach Zjednoczonych, bardzo głośno stało się o tak zwayme “<a href="https://en.wikipedia.org/wiki/Microtargeting" target="_blank" rel="nofollow noopener noreferrer">microtargeting</a>u” i podobno Trump skorzystał z tego. Jaka jest Twoja opinia, czy już jesteśmy w momencie, kiedy robot nam podpowiada co mamy zrobić, żeby wpłynąć na globalne procesy? Proszę podaj przykład z życia, co dokładniej taka maszyna może doradzić, żeby to wpłynęło na odbiorców?</p>
<p><b>Ola:<br /></b>Każdy kto korzysta z Netflixa, chociażby, widzi to po systemie rekomendacji. Tak samo jak każdy, który korzysta z Amazona. To jest uczenie maszynowe, które pozwala dokładać do naszego dotychczasowego systemu wyboru jakieś potencjalne preferencje. Czyli analitykę predykcyjną stosuje na podstawie naszych dotychczasowych wyborów, analizuje co nam jeszcze warto pokazać, co by mogło nam się spodobać i prowadzi sobie rating co nam mogło bardziej się podobać, a co mniej. Każdy, kto korzysta z tego typu usług, takich jak online shopping, który ma rekomendacje doskonale zobaczy to na własnym przykładzie. Zresztą Netflix jest bardzo ciekawym przykładem. Jest szereg publikacji który dają go jako przykład, jak można zbudować system rekomendacyjny.</p>
<p>Tutaj można powiedzieć, że <i>microtargeting</i> występuje. I tak jak powiedziałeś &#8211; w wyborach. Ten kto ma dobry <i>microtargeting</i>, będzie te wybory wygrywał. To już po sytuacji z listopada z wyborem Donalda Trumpa, prezydenta USA, wyraźnie widać. Przewaga technologiczna w dużej w mierze może zdecydować o tym jak będzie wyglądała prognoza polityczna za jakiś czas.</p>
<p><iframe title="The Future Of Political Campaigns" width="960" height="540" src="https://www.youtube.com/embed/lBgHrn-TrD8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Myślę, że już teraz również politycy po tej sytuacji to bardzo dobrze zrozumieli.  To można zobaczyć na podstawie wyborów we Francji. Było tam bardzo silne przygotowanie, zwłaszcza w tematach <i>microtargeting</i> czy potencjalnego ataku hakerskiego czy rozpowszechnianie fake <i>news’ów</i>. Nasi decydenci już wiedzą, że taka przewaga technologiczna może czasami albo już coraz częściej zdecydować jak będzie wyglądała scena polityczna.</p>
<p><b>Vladimir:<br /></b>Szacuje się, że wiele miejsc pracy zostanie zastąpione przez roboty i to już w najbliższym czasie. Już teraz to się dzieje. Ostatnio Satya Nadella, CEO Microsoft, <a href="http://businessinsider.com.pl/international/about-700-microsoft-employees-will-be-laid-off-next-week-sources-say/yk35zyy" target="_blank" rel="nofollow noopener noreferrer">powiedział</a>, że szykuje kolejną fale zwolnień. Warto powiedzieć, że nie chodzi o oszczędzanie, bo Microsoft nadal w tysiącach poszukuje ludzi. Chodzi o zmianę sposobu myślenia, o zatrudnianie ludzi z odpowiednimi umiejętnościami.</p>
<p>Microsoft jest duża firmą i pewnym sensie to jest przykład, który pokazuje co będzie się działo wszędzie… Z jednej strony roboty zabiorą nam pracę, z drugiej strony stworzą wiele innych, które będę wymagały zaangażowania naszego mózgu. Mam na myśli myślenie abstrakcyjne, kreatywność czy racjonalna krytyka. Pytań jest kilka. W jaki sposób należy przygotować ludzi do tych zmian? Kolejne pytanie, które mi ostatnio również zadano, a co robić z ludźmi którzy są “przeciętni”, czyli nie mają ochoty do kreatywnego czy abstrakcyjnego myślenia. Jaką masz opinię na ten temat?</p>
<p><b>Ola:<br /></b>W rzeczywistości, my od dawna wykorzystaliśmy maszyny jako sposób optymalizacji naszej pracy, ale również zawsze obawialiśmy się. Od stu lat na pewno, z nakładem nawet, obawiamy się kolejnych maszyn które wchodzą na rynek i zabierają kolejne miejsca pracy.  Do tej pory, to rzeczywiście, zawsze było tak, i to trzeba wyraźnie powiedzieć, że technologia więcej miejsc pracy tworzyła niż zabierała. Mimo pojawiających się lęków. Zawsze było tak, że były pewne grupy, które na tym traciły i albo musiały się przekwalifikować albo schodziły z rynku pracy. Co generowało masę frustracji, co dla mnie jest zrozumiałe w 100 procentach.</p>
<p>Ale nowe technologii tworzyły nowe miejsca pracy i nowe zawody przede wszystkim. Zawód informatyka, teraz bardzo powszechny, jeszcze jakiś czas był bardzo “wąskim” zawodem, dostępnym dla małej grupy ludzi. Teraz mamy zawody jak UX Designer, specjalista od social mediów itd. To są zawody których jeszcze jakiś czas temu nie było. Podobnie będą nowe zawody. Z pojawianiem się nowych technologii, zawsze pojawiły się nowe zawody, które potrzebowały nabywania nowych umiejętności.</p>
<p>Niedawno na konferencji w Kopenhadze był zaprezentowany bardzo ciekawy <i>case </i>jak Duński rząd radzi sobie z tym, żeby ludzi przekwalifikowywać. I to rzeczywiście jest ogromny wysiłek, ale taki który się opłaca. Mamy do czynienia z taką sytuacją, po pierwsze, że jeszcze przez długi czas technologie będą tworzyły nowe miejsca pracy. Dlatego nie należy się obawiać, że te miejsca pracy całkowicie znikną. Znikną pewny zawody, ale na ich miejscu pojawią się inne zawody.  Natomiast drugą ważną rzeczą jest działanie regulatora, np. Państwa. Chronić ludzi, którzy będą narażeni na utraty miejsca pracy i danie im szansy na przekwalifikowanie.</p>
<p><iframe title="Will automation take away all our jobs? | David Autor" width="960" height="540" src="https://www.youtube.com/embed/th3nnEpITz0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>W długofalowej perspektywie zdecyduje się, czy chcemy ścieżkę tak zwanego uniwersalnego dochodu podstawowego. W przypadku takiej takiej sytuacji, kiedy automatyzacja postąpi radykalnie i będzie coraz mniej miejsc pracy dla człowieka. Zostanie tylko opieką nad innymi, gdzie będzie potrzebna inteligencja emocjonalna. Zresztą ciekawa, bo jakiś czas temu wydawało się, że takie cechy bardziej humanistyczne czy społeczne to jest kompletnie niepotrzebne, bo potrzebna jest inteligencja analityczna. Teraz mam takie wrażenie, że mamy renesans, takich wyjątkowo ludzkich przymiotów i ich potrzeby na rynku pracy. To pewne takie zawody jeszcze bardzo długo utrzymają się. Związane z opieką, ale również artystyczne. Gdzie ludzie cechują się umiejętnościami, które maszynom jest bardzo trudno powtórzyć.</p>
<p>Ale powiedzmy, że tych miejsc pracy w długofalowej perspektywie będzie ubywało. To wtedy trzeba zdecydować jak my chcemy działać. Opodatkować roboty, stworzyć uniwersalny dochód dla wszystkich, skrócić dzień pracy dla wszystkich, a jednocześnie dawać im dofinansowanie. Czasem wydaje się, że trzeba pracować straszną ilość godzin, w wielu krajach już pracuję się mniej. Mają czas na inne rzeczy. Tutaj nie chce rysować jakieś hurraoptymistycznej perspektywy, ale podeszłabym do tego, żeby trochę studzić negatywne emocje związane z tym. Jasne, że jedne zawody znikną, ale przez jakiś czas będą jeszcze powstawały nowe. Każde państwo musi zrozumieć jak ważna jest ta kwestia, jak ważną rolę pełni sztuczna inteligencja w naszym życiu. Musi odpowiednio się do tego odnieść. Każde państwo, ale również takie wspólnoty jak Unia w swoim zakresie również, powinno starać się na te wyzwania odpowiedzieć.</p>
<p><b>Vladimir:<br /></b>Mam nadzieje, że teraz nas faktycznie słuchają ludzie którzy są decyzyjni w tych tematach i będą brać na siebie odpowiedzialność. A ostatnie pytanie na dzisiaj jak można Ciebie znaleźć w sieci?</p>
<p><b>Ola:<br /></b>Można mnie dodać na “<a href="https://www.facebook.com/aleksandra.przegalinska" target="_blank" rel="nofollow noopener noreferrer">fejsie</a>”, można znaleźć na <a href="https://www.linkedin.com/in/aleksandra-przegalinska-5b17125" target="_blank" rel="nofollow noopener noreferrer">LinkedIn</a>, <a href="https://twitter.com/przegaa" target="_blank" rel="nofollow noopener noreferrer">Twitter</a>. No i pewnie, jeżeli ktoś chciałby poszukać moje publikację to polecam wyszukiwarkę Google Scholar. Wystarczy wpisać tam moje nazwisko. Zapraszam do kontaktu, do wymiany uwag i komentarzy. I pomagania, żeby ta nasza praca była jak najbardziej pożyteczna.</p>
<p><b>Vladimir:<br /></b>Dziękuję Ci bardzo Ola za Twój czas, za chęć podzielenia się wiedzą.</p>
<p><b>Ola:<br /></b>Dzięki wielkie.</p>
<h2>Podsumowanie</h2>
<p>Jakie masz wrażenia po tej rozmowie? Przyznam się, że dla mnie było bardzo ciekawe mówić na temat sztucznej inteligencji z osobą który bada ją nieco z innej strony.</p>
<p>Kiedyś wcześniej czytałem książkę &#8222;<a href="http://amzn.to/2nuQcBv" target="_blank" rel="nofollow noopener noreferrer">Ja Robot</a>&#8221; i główna bohaterka była <a href="https://en.wikipedia.org/wiki/Susan_Calvin" target="_blank" rel="nofollow noopener noreferrer">Susan Calvin</a> była robopsychologiem. Wtedy mnie bardzo zaciekawiło to, że taki zawód w ogóle jest możliwy. Druga, rzecz która zwróciła moją uwagę, Susan bardziej lubiła maszyny niż ludzi. To również było wytłumaczone dlaczego &#8211; bo są prawdziwe, przezroczyste i otwarte.</p>
<p>Gdy rozmawiałem z Olą, trochę czułem, że właśnie ona w najbliższej przyszłości może wykonywać taki zawód jak robopsycholog. Albo nawet gdzieś pomiędzy, rozumieć psychologię ludzi i robotów. Brzmi to trochę kosmiczne&#8230; Jaka jest Twoja opinia na ten temat?</p>
<p>Muszę przyznać, że miałem znacznie więcej pytań, niż zdążyłem zadać. Jeden z obszarów nad którym Ola pracuje są technologie ubieralne. Pewnie większość z nas kojarzy zegarki czy pulsometry. Ale czy wiesz o takich urządzeniach jak <a href="https://pavlok.com/" target="_blank" rel="nofollow noopener noreferrer">Pavlok</a>?</p>
<p><iframe title="This Painful Gadget Kills Your Bad Habits" width="960" height="540" src="https://www.youtube.com/embed/4x0WLPVWTEA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To jest narzędzie dyscyplinarne, które nosisz na ręce i ono kopie Cię prądem kiedy robisz coś czego nie powinieneś. To jest bardzo ciekawe, że teraz jest bardzo popularne w Stanach. Zastanów się do czego to potencjalnie może doprowadzić? Również, nasuwa się pytanie, jaka jest różnica pomiędzy właścicielami niewolników, których bili i kazali coś robić i takimi urządzeniami. Oczywiście, teraz takie urządzenie człowiek zakłada samodzielnie, ale jak z tym będzie jutro? Jak to widzisz?</p>
<p>Zapraszam również do oglądanie  krótiej, 11 minutowej prezentacji na TEDx</p>
<p><iframe title="Sympathy for the Future | Aleksandra Przegalińska | TEDxWarsaw" width="960" height="540" src="https://www.youtube.com/embed/FfLYZ1q-IwM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Prezentacja na temat transhumanizmu</p>
<p><iframe title="Aleksandra Przegalińska - Transhumanizm" width="960" height="540" src="https://www.youtube.com/embed/5Sob6Xpt0x0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Zarządzanie sobą: Quantified Self i nowe trendy wearable technologies</p>
<p><iframe title="Aleksandra Przegalińska. Zarządzanie sobą: Quantified Self i nowe trendy wearable technologies." width="960" height="540" src="https://www.youtube.com/embed/BQa1L84seDw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Nie-ludzki podmiot w świetle badań filozoficznych i neuronaukowych</p>
<p><iframe title="Nie-ludzki podmiot w świetle badań filozoficznych i neuronaukowych" width="960" height="540" src="https://www.youtube.com/embed/34dUPNPxkmw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Wszystkie notatki znajdziesz na stronie biznesmysli.pl/10. Wraz z linkami, video oraz zdjęciami.</p>
<p>Dziękuję bardzo za informację zwrotną, komentarze czy maile które dostaję.</p>
<p>W między czasie, Krystian Zych zaprosił mnie na wywiad do podcastu &#8222;Jak zrobić podcast?&#8221;. Gdzie możesz dowiedzieć się więcej o mnie, o tym jak robię &#8222;Biznes Myśli&#8221; i innych tematach.</p>
<p>https://jakzrobicpodcast.pl/podcast/biznes-mysli-o-sztucznej-inteligencji-opowiada-vladimir-alekseichenko/</p>
<p>Dobrą wieścią dla Ciebie może być to, że aktywnie kontynuuje moją pracę nad przygotowaniem praktycznego warsztatu jak użyć uczenia maszynowego. Zależy mi na tym, żeby pokazać rozwiązanie które mogą dać jak największą wartość dla biznesu. Uwaga! Proszę <strong>podziel się</strong> ze mną swoim problem biznesowym który chcesz rozwiązać. A może akurat wybiorę Twój i <strong>pomogę Ci</strong> go rozwiązać. <strong>Zapraszam do rozmowy</strong>.</p>
<p>To tyle na dzisiaj. Dziękuję Ci bardzo za Twój czas i energię. Następnym razem dowiesz o tym jak wygląda sztuczna inteligencja w jednym z czołowych banków w Polsce.</p>
<p>Cześć i wszystkiego dobrego!</p>
<h2>Książka polecana przez gościa</h2>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0393254291/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0393254291&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=2cc83996eec1c2049bd24446ed67cec0" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0393254291&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0393254291" alt="" width="1" height="1" border="0" /></li>
</ul><p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandra Przegalińska z MIT o sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/sztuczna-inteligencja-mit/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Wprowadzenie do sztucznej inteligencji</title>
		<link>https://biznesmysli.pl/wprowadzenie-do-sztucznej-inteligencji-podcast-2/</link>
					<comments>https://biznesmysli.pl/wprowadzenie-do-sztucznej-inteligencji-podcast-2/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Tue, 14 Mar 2017 16:05:00 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[Alan Turing]]></category>
		<category><![CDATA[bionika]]></category>
		<category><![CDATA[ELIZA]]></category>
		<category><![CDATA[Eugene Goostman]]></category>
		<category><![CDATA[John McCarthy]]></category>
		<category><![CDATA[Marvin Minsky]]></category>
		<category><![CDATA[Mitsuku]]></category>
		<category><![CDATA[Nagroda Loebnera]]></category>
		<category><![CDATA[PARRY]]></category>
		<category><![CDATA[test turinga]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=57</guid>

					<description><![CDATA[<p>Czemu teoria o sztucznej inteligencji była już obecna w latach 50 ubiegłego stulecia, a dopiero teraz to zaczęła nabierać obrotów. O tym będzie rozmowa dzisiaj… Czy wiesz, że już może za 35 lat komputer może być znacznie mądrzejszy niż najmądrzejszy  człowiek na Ziemi? Czy to jest pytanie z fantastyki naukowej? Jeszcze 10 lat temu, odpowiedź była zdecydowanie tak… a teraz, wygląda coraz bardziej realistyczne. Początki Ale zaczniemy od początków, które zawsze są trudne. Wiedza z internetu, książek czy telewizji jest na tyle zróżnicowana, że ciężko wnioskować cokolwiek. Na to samo zjawisko jest kilka, a nawet kilkanaście pojęć. Oczywiście, moje rozumienie tematu można potraktować jako kolejną wersję różnorodności, natomiast robię to z takim nastawieniem, żebyśmy w kolejnych odcinkach, jak mówią Amerykanie, “byli na tej samej stronie”. Zastanów się na chwilę, ile lat ma pojęcie “sztuczna inteligencja”? Podpowiem Ci – już ponad 60 lat, więc w teorii jeszcze nasi dziadkowie albo przynajmniej rodzice mogli poznawać te tematy kiedy byli dziećmi. Czemu 60 lat czy nawet 20 lat temu o sztucznej inteligencji prawie się nie mówiło? No dobrze, było kilka fajnych książek, taka jak “Ja, Robot” Isaac’a Asimova, która swoją drogą jest bardzo ciekawa -polecam przeczytać w wolnej chwili. Będę czasem cytować tę książkę.   Często mówi się, że otoczenie ma bardzo duży wpływ. To samo można powiedzieć o sztucznej inteligencji… sama chęć to za mało. Wymienię trzy najbardziej ważne czynniki które są konieczne, żeby uczenie maszynowe zaczęło nabierać obrotów. Pierwszy czynnik &#8211; komputery Tak zwany “hardware”. W latach 60 ubiegłego stulecia jeden z założycieli Intel, Gordon Moore, przewidział, że ilość tranzystorów w pojedynczym procesorze będzie rosnąć wykładniczo. Dla przykładu w roku 1979 – ok. 30 tyś., 1989 – million z kawałkiem, 1999 – ok. 22 miliona, 2009 – ok. 1 miliarda i najnowszy to 10 miliardów. Istnieją podobne prawa do mocy obliczeniowej, pamięci podręcznej czy dysków twardych. Czy wiesz, że nawet iphone 6 (w dużym uproszczeniu) jest porównywalny lub wydajniejszy w niektórych kwestiach niż superkomputer z lat 80? Drugi czynnik &#8211; dane Jak myślisz, ile danych cyfrowych generują ludzie? I jak wygląda ta dynamika z roku na rok? Ilość danych również rośnie eksponencjalnie. Podam Ci kilka przykładów. W roku 1992 generowano około 100 GB dziennie, 5 lat później już wystarczyło godziny (czyli 24 razy więcej), pięć lat później, czyli 2002 już wystarczyły sekundy (czyli 3600 razy więcej za 10 lat). Obecnie jest generowane ok. 50 000 GB lub 50TB na sekundę. W ciągu 15 lat generowanych danych stało się ponad 1.5 miliona razy więcej. I jak domyślasz się, to cały czas się rozpędza. Liczy się że dziennie jest generowane ok. 2.5 miliony TB. Pozwól, że spróbuję zobrazować, co oznacza taka ilość informacji cyfrowej: 1 bajt (byte) to jedna literka. 1MB to to mniej więcej jedna książka (ponad 500 stron znormalizowanego maszynopisu). Mniej więcej pół miliona książek jest generowane teraz w sekundę. Największa biblioteka (Kongresowa w Waszyngtonie) ma ok. 30 milionów artykułów (włączając książki, czasopisma itd). Ludzkość generuje w jedną minutę porównywalność ilość bajtów informacji, ile ma największa biblioteka na świecie. Oczywiście z jakością jest gorzej. Trzeci czynnik &#8211; algorytmy Uczenie maszynowe to przede wszystkim optymalizacja pewnego problemu. Wyobraź sobie, że już w latach 50 zaczęła się przygoda z sieciami neuronowymi. Natomiast postęp był falowy (czasem była zima)… wtedy było więcej teorii i prawo zero praktyki (dlatego że moc obliczeniowa jak i dostępność danych była bardzo ograniczona). W uczeniu maszynowym często zakłada się śmieszne rzeczy z punktu widzenia teorii… ale w praktyce to działa, więc ostatecznie rozwiązywanie jest zaakceptowane poprzez eksperyment. W końcu o to chodzi – rozwiązać problem. Podsumujmy Wiesz już, że są trzy najważniejsze komponenty dla sztucznej inteligencji: moc komputerowa, dane i algorytmy (na przykład jako sieć neuronowa). Warto jeszcze wspomnieć o czwartym – to zespół (jak na razie ludzi) którzy są wstanie połączyć wymienione trzy elementy. A teraz chciałbym dodać więcej kontekstu, żeby było bardziej zrozumiałe jak to rozwijało się i gdzie jesteśmy teraz. Pierwsze kroki Alan Turing – brytyjski naukowiec, pracował nad stworzeniem maszyny która teraz jest nazywana komputerem. Proszono go o złamanie szyfru niemieckiej maszyny Enigma, używanej do korespodencji podczas drugie wojnej światowej. W roku 1950 Turing pisze artykuł w czasopiśmie Computing Machinery and Intelligence i rozpoczyna pytaniem. Proponuje rozważyć kwestie: „Czy maszyna potrafić myśleć?” Natomiast jak to zdefiniować? Tradycyjne podejście było by rozłożeniem na czynniki pierwsze, czyli “maszyna” i “myśleć” i zdefiniowaniem każdego z nich w sposób jednoznaczny. Natomiast to podejście, zwłaszcza definicja “myśleć” może zaprowadzić w ślepą uliczkę. Turing wybiera inne podejście. Zrobić coś, co potrafi robić osobą myśląca – i na podstawie tego stwierdzić, że komputer „myśli”. Pytanie zostało zmienione na: czy maszyna może robić pewne zadanie, tak jak to robi człowiek? W tym formułowania są dwie możliwe odpowiedzi “tak” albo “nie”. Ten test teraz ma nazwę Test Turinga.   Test Turinga &#8211; werjsa pierwsza Turing zainspirował się grą która polegała na tym, że mężczyzna i kobieta idą do różnych pokoi. Goście zadają pytania, a oni piszą odpowiedź na maszynie do pisania i robią to w taki sposób, żeby wprowadzić gości w błąd. Każdy z nich próbuje udawać, że jest przeciwnej płci. Turing zaproponował zastąpić pierwszą osobę komputerem. Test Turinga &#8211; werjsa druga Sędzia, czyli człowiek, miał rozmawiać z człowiekiem i komputerem jednocześnie. Jeżeli nie podstawie tej rozmowy sędzia nie jest w stanie powiedzieć jednoznacznie kto jest człowiekiem – to wtedy uważa się, że komputer przeszedł test. Celem testu było badanie inteligencji, dlatego wykluczono rozmowę bezpośrednio (głosem) – tylko był używany tekst (taki sobie chat). Również były wprowadzone określone przedziały czasowe na odpowiedzi. Za czasów Turinga to było koniecznie, bo maszyny były wolniejszy niż człowiek, a teraz są potrzebne, bo już człowiek jest wolniejszy. Test Turinga &#8211; werjsa trzecia Jest najbardziej znana, sprowadziła się do bardziej prostego testu. Sędzia ma odgadnąć z kim rozmawia – czy to człowiek czy komputer. Sam Turing twierdził, że maszyna w końcu ma przejść ten test. W okolicy roku 2000 i jego oszacowaniach, wtedy komputer powinien mieć odpowiednią moc. Co do mocy to miał rację, właściwie mamy zdecydowanie bardziej potężne komputery – ale test nadal jest aktualny. Chociaż tutaj warto powiedzieć, że Test Turinga udało się „złamać” w inny sposób. Człowiek ma różne role w życiu i czasem niektóre z nich są zdecydowanie bardziej przewidywalne niż inne. W latach 60-tych Joseph Weizenbaum, który swoją drogą również pracował w General Electric (czyli moim obecnym miejsce pracy), wymyślił stworzenie robota – psychiatrę o nazwie ELIZA. Idea polegała na tym, że odpowiedź na pytanie budowało się na podstawie poprzedniej wypowiedzi. Przykładowy dialog: boli mnie głowa… Prawdopodobnie powinna skonsultować się z doktorem. Jestem psychiatrą. No dobrze, zrobię to… Czy możesz to rozwinąć? … Program ten wybierał pewne słowa kluczowe z odpowiedzi człowieka (czyli pacjenta) i bazując na nie tworzy swoją „odpowiedź”. Często używając takie frazy jak: “Co to dla Ciebie znaczy?” “… zawsze ma sens” “Czy możesz to rozwinąć?” itd. Na pytania „Czy jesteś człowiekiem?” mógł dać odpowiedź: „Być człowiekiem… Czy to coś znaczy…?” albo „Co myślisz o mojej matce?” dawał odpowiedź: „Nie znam Twojej matki, opowiedz mi coś więcej o niej”.   Kontynuując ten eksperyment w latach 70-tych był stworzony kolejny program – PARRY. Zadaniem programu było symulowanie człowieka chorego na schizofrenię paranoidalną. W roku 1972 ELIZA i PARRY poznali się i mieli całkiem ciekawe dialogi, jeden z nich: PARRY: Wiem, że mafia kontroluje duże rakiety. ELIZA: O czym ty mówisz? PARRY: Czy kiedykolwiek myślałeś o mafii? ELIZA: Załóżmy, że kiedyś myślałem o mafii PARRY: Porozmawiajmy o czymś innym. ELIZA: Nie jestem pewien, czy rozumiem cię całkowicie. PARRY: Ciągle zadajesz mi te same pytania, może zmieńmy temat? ELIZA: W jaki sposób? … Więcej dialogów można znaleźć na stronie Uniwersytetu Stanford Mówiąc o teście Turinga, warto wspomnieć, że w 1991 roku przez Hugh Loebnera była podjęta inicjatywa,  dzięki której teraz ma nazwę – Nagroda Loebnera. Ten kto przejdzie test Turinga dostanie nagrodę 100 tys. dolarów. Dopóki testu nie przejdzie, najlepsza praca dostaje 3 tys. dolarów rocznie. Dość głośno było na temat bota o nazwie Eugene Goostman w roku 2014. Mówiło się wtedy, że w końcu udało się pokonać test Turinga. Natomiast to było dokładnie to samo podejście jak w latach 60-tych czy 70-tych z ELIZA i PARRY. Kiedy ograniczeniem było to, że Eugene jest 13 letni który pochodzi z Ukrainy i na dodatek nie jest biegły w posługiwaniu się językiem angielskim. Następnym razem, gdy usłyszysz, że test Turinga jest pokonany po raz pierwszy, sprawdź najpierw czy przypadkiem nie chodzi o sprytne zagranie :). Wracając do nagrody Loebnera. W roku 2016 zwyciężył bot, nazwa którego ciekawie brzmi po polsku – Mitsuku. Każdy może porozmawiać z tym botem,  ta rozmowa jest całkiem ciekawa. Od razu powiem że bot rozumie tylko po angielsku. Warto spróbować…   Teraz chciałbym przejść od Alana Turinga do innej bardzo ważnej postaci w sztucznej inteligencji &#8211; jest to Marvin Minsky. Bardzo upraszczając są dwa podejścia do sztucznej inteligencji. Sztuczne inteligencja &#8211; podejście teoretyczne Pierwsze podejście “czyste” lub teoretyczne opiera się tylko na czystej matematyce.  Można powiedzieć, że jego przywódcą był John McCarthy. Natomiast to podejście jest dość ograniczone. Już w moim pierwszym odcinku wspominałem, że matematyka jest dość abstrakcyjna, żeby opisywać rzeczywistość. Jako przykład można wspomnieć podejście “General Problem Solver” która powstało pod koniec lat 50. Chodzi o to, że aby osiągnąć konkretny cel, należy przewidzieć wszystkie możliwe kombinacje w sposób logiczny. Przykładowym zadaniem robota jest kupić mleko w sklepie. Przed zakupem, taki robot musi odpowiedzieć na kilka pytań. Czy ma wystarczająco pieniędzy na mleko? Czy ma paliwo w samochodzie? Jeżeli nie – to trzeba zatankować. Odpowiedzieć na pytanie gdzie zatankować? Musi sprawdzić na której stacji trzeba to zrobić. Jeżeli teraz (z pewnych przyczyn) nie działa stacja A, to trzeba jechać do stacji B. Później odpowiedzieć na pytania –  czy starczy paliwa żeby dojechać do stacji B, oraz pieniędzy żeby zatankować oraz kupić mleko?.. Jak widać proste zadanie nagle staję się zbyt skomplikowane w realizacji. W wyniku następuje tak zwana eksplozja logiczna. Swoją drogą, co jest ciekawe, ludzie które szukają wymówek, działają w podobny sposób :). Sztuczne inteligencja &#8211; podejście praktyczne Głównie polega na inspiracji naturą. To nazywa się bionika. To podejście jeszcze stosował Leonard De Vinci próbując naśladować ptaki, tworząc skrzydłowiec (czyli mechanizm do latania). Jak pokazuję doświadczenie, takie podejście działa (chociaż, dopiero z czasem człowiek próbuje zrozumieć dlaczego). To jest temat rzeka, w razie zainteresowania postaram się go rozwinąć w następnych odcinkach. To podejście było napędzane przez Marvina, który od samego początku zadawał pytania: Jak zbudować świadomą maszynę? Jak zbudować myślącą maszynę? Jak zbudować maszynę, która potrafi podtrzymać rozmowę, która będzie emocjonalna, czy potrafi grać w grę? Idea realizacji była genialnie prosta. Należy zrozumieć jak działa mózg człowieka i następnie spróbować to powtórzyć. Temat jest bardzo ciekawy, zwłaszcza postęp w tych badaniach. Myślę, że to zasługuje na kolejny odcinek podcastu – proszę daj mi znać czy jest to temat interesujący dla Ciebie.   Marvin, w swojej książce «The emotion machine»  mówi o tym, że wszystkie zjawiska, które my przypisujemy tylko ludziom i traktujemy jedynie jako ludzkie, niekoniecznie muszą być prawdą. Podobne uczucia mogą również przeżywać inteligentne maszyny.  I jego pierwszy rozdział w książce ma nazwę „Zakochać się”. Zapraszam do oglądania również wideo z jego lekcji w MIT (jest dostępne na stronie biznesmysli.pl/2). Minsky odszedł od nas rok temu (czyli 2016) ale jego mózg został zamrożony z nadzieją, że będzie można go odżywić. Ta procedura nazywa się krionika i również jest bardzo ciekawym tematem. Pierwszy człowiek był zamrożony w pod koniec lat 60-tych ubiegłego wieku. Roy Kurzweil – to kolejna ciekawa osoba, która obecnie jest dyrektorem w Google do spraw związanych ze sztuczną inteligencją. Roy przewiduje, że już w okolicy 2045 roku będzie możliwość wrócić jego mentora, czyli Marvina… Ciekawy jestem co to będzie oznaczać w praktyce? Podsumowanie Przez dłuższy czas brakowało danych, mocy obliczeniowej i bardziej złożonych algorytmów żeby osiągnąć tak zwany efekt “wow”.  Teraz żyjemy w czasach, kiedy te trzy elementy już są na wystarczającym poziomie, żeby dawać wartościowe wyniki. Na koniec ciekawostka. Zapraszam do obejrzenia wywiadu z Sergiejem Brinem, jednym z założycieli Google. Na spotkaniu “World Economic Forum” przyznał się, że przez dłuższy czas sam miał wątpliwości do praktycznego zastosowania sztucznej inteligencji.   Traktował to jako zabawkę dla...</p>
<p>Artykuł <a href="https://biznesmysli.pl/wprowadzenie-do-sztucznej-inteligencji-podcast-2/">Wprowadzenie do sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-Z1Ktt95 wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/wprowadzenie-do-sztucznej-inteligencji-b" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p><strong>Czemu teoria o sztucznej inteligencji była już obecna w latach 50 ubiegłego stulecia, a dopiero teraz to zaczęła nabierać obrotów. O tym będzie rozmowa dzisiaj…</strong></p>
<p>Czy wiesz, że już może za 35 lat komputer może być znacznie mądrzejszy niż najmądrzejszy  człowiek na Ziemi? Czy to jest pytanie z fantastyki naukowej? Jeszcze 10 lat temu, odpowiedź była zdecydowanie tak… a teraz, wygląda coraz bardziej realistyczne.<span id="more-57"></span></p>
<h2>Początki</h2>
<p>Ale zaczniemy od początków, które zawsze są trudne. Wiedza z internetu, książek czy telewizji jest na tyle zróżnicowana, że ciężko wnioskować cokolwiek. Na to samo zjawisko jest kilka, a nawet kilkanaście pojęć.</p>
<p>Oczywiście, moje rozumienie tematu można potraktować jako kolejną wersję różnorodności, natomiast robię to z takim nastawieniem, żebyśmy w kolejnych odcinkach, jak mówią Amerykanie, “byli na tej samej stronie”.</p>
<p>Zastanów się na chwilę, ile lat ma pojęcie “sztuczna inteligencja”? Podpowiem Ci – już ponad 60 lat, więc w teorii jeszcze nasi dziadkowie albo przynajmniej rodzice mogli poznawać te tematy kiedy byli dziećmi. Czemu 60 lat czy nawet 20 lat temu o sztucznej inteligencji prawie się nie mówiło? No dobrze, było kilka fajnych książek, taka jak “<a href="http://amzn.to/2nuQcBv" target="_blank" rel="nofollow noopener noreferrer">Ja, Robot</a>” Isaac’a Asimova, która swoją drogą jest bardzo ciekawa -polecam przeczytać w wolnej chwili. Będę czasem cytować tę książkę.</p>
<p> </p>
<figure id="attachment_128" aria-describedby="caption-attachment-128" style="width: 293px" class="wp-caption aligncenter"><a href="http://amzn.to/2nuQcBv" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" class="wp-image-128 size-full" title="Ja Robot" src="https://biznesmysli.pl/wp-content/uploads/2017/03/i_robot.jpeg" alt="Książka - Ja Robot, Isaac Asimov" width="293" height="500" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/i_robot.jpeg 293w, https://biznesmysli.pl/wp-content/uploads/2017/03/i_robot-176x300.jpeg 176w" sizes="(max-width: 293px) 100vw, 293px" /></a><figcaption id="caption-attachment-128" class="wp-caption-text">Ja Robot &#8211; Isaac Asimov</figcaption></figure>
<p>Często mówi się, że otoczenie ma bardzo duży wpływ. To samo można powiedzieć o sztucznej inteligencji… sama chęć to za mało. Wymienię trzy najbardziej ważne czynniki które są konieczne, żeby uczenie maszynowe zaczęło nabierać obrotów.</p>

<h2>Pierwszy czynnik &#8211; <strong>komputery</strong></h2>
<p>Tak zwany “hardware”. W latach 60 ubiegłego stulecia jeden z założycieli Intel, <a href="https://en.wikipedia.org/wiki/Gordon_Moore" target="_blank" rel="nofollow noopener noreferrer">Gordon Moore</a>, przewidział, że ilość tranzystorów w pojedynczym procesorze będzie rosnąć wykładniczo. Dla przykładu w roku 1979 – ok. 30 tyś., 1989 – million z kawałkiem, 1999 – ok. 22 miliona, 2009 – ok. 1 miliarda i najnowszy to 10 miliardów.</p>
<p>Istnieją podobne prawa do mocy obliczeniowej, pamięci podręcznej czy dysków twardych.</p>
<p>Czy wiesz, że nawet iphone 6 (w dużym uproszczeniu) jest porównywalny lub wydajniejszy w niektórych kwestiach niż superkomputer z lat 80?</p>
<h2>Drugi czynnik &#8211; <strong>dane</strong></h2>
<p>Jak myślisz, ile danych cyfrowych generują ludzie? I jak wygląda ta dynamika z roku na rok? Ilość danych również rośnie eksponencjalnie. Podam Ci kilka przykładów. W roku 1992 generowano około 100 GB dziennie, 5 lat później już wystarczyło godziny (czyli 24 razy więcej), pięć lat później, czyli 2002 już wystarczyły sekundy (czyli 3600 razy więcej za 10 lat). Obecnie jest generowane ok. 50 000 GB lub 50TB na sekundę. W ciągu 15 lat generowanych danych stało się ponad 1.5 miliona razy więcej. I jak domyślasz się, to cały czas się rozpędza. Liczy się że dziennie jest generowane ok. <a href="https://cloudtweaks.com/2015/03/surprising-facts-and-stats-about-the-big-data-industry/" target="_blank" rel="nofollow noopener noreferrer">2.5 miliony TB</a>.</p>
<figure id="attachment_131" aria-describedby="caption-attachment-131" style="width: 756px" class="wp-caption alignnone"><img decoding="async" class="wp-image-131 size-full" src="https://biznesmysli.pl/wp-content/uploads/2017/03/Screen-Shot-2017-03-14-at-16.11.46.png" alt="Big Data w czasie" width="756" height="563" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/Screen-Shot-2017-03-14-at-16.11.46.png 756w, https://biznesmysli.pl/wp-content/uploads/2017/03/Screen-Shot-2017-03-14-at-16.11.46-300x223.png 300w" sizes="(max-width: 756px) 100vw, 756px" /><figcaption id="caption-attachment-131" class="wp-caption-text">Wzrost  danych od 1992 roku</figcaption></figure>
<p>Pozwól, że spróbuję zobrazować, co oznacza taka ilość informacji cyfrowej:</p>
<ul>
<li>1 bajt (byte) to jedna literka.</li>
<li>1MB to to mniej więcej jedna książka (ponad 500 stron <a href="https://pl.wikipedia.org/wiki/Znormalizowany_maszynopis">znormalizowanego maszynopisu</a>).</li>
<li>Mniej więcej pół miliona książek jest generowane teraz w sekundę.</li>
</ul>
<p>Największa biblioteka (<a href="https://www.loc.gov/" target="_blank" rel="nofollow noopener noreferrer">Kongresowa</a> w Waszyngtonie) ma ok. 30 milionów artykułów (włączając książki, czasopisma itd).</p>
<blockquote>
<p>Ludzkość generuje w jedną minutę porównywalność ilość bajtów informacji, ile ma największa biblioteka na świecie.</p>
</blockquote>
<p>Oczywiście z jakością jest gorzej.</p>
<figure id="attachment_133" aria-describedby="caption-attachment-133" style="width: 900px" class="wp-caption alignnone"><img decoding="async" class="wp-image-133" src="https://biznesmysli.pl/wp-content/uploads/2017/03/congress_library-1024x683.jpg" alt="Biblioteka Kongresu" width="900" height="600" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/congress_library-1024x683.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/03/congress_library-300x200.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/congress_library-768x512.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/03/congress_library.jpg 2048w" sizes="(max-width: 900px) 100vw, 900px" /><figcaption id="caption-attachment-133" class="wp-caption-text">Biblioteka Kongresu. Autor zdjęcia: @Mike in Maryland (flickr)</figcaption></figure>
<h2>Trzeci czynnik &#8211; <strong>algorytmy</strong></h2>
<p>Uczenie maszynowe to przede wszystkim optymalizacja pewnego problemu. Wyobraź sobie, że już w latach 50 zaczęła się przygoda z sieciami neuronowymi. Natomiast postęp był falowy (czasem była <a href="https://en.wikipedia.org/wiki/AI_winter" target="_blank" rel="nofollow noopener noreferrer">zima</a>)… wtedy było więcej teorii i prawo zero praktyki (dlatego że moc obliczeniowa jak i dostępność danych była bardzo ograniczona). W uczeniu maszynowym często zakłada się śmieszne rzeczy z punktu widzenia teorii… ale w praktyce to działa, więc ostatecznie rozwiązywanie jest zaakceptowane poprzez eksperyment. W końcu o to chodzi – rozwiązać problem.</p>
<figure id="attachment_136" aria-describedby="caption-attachment-136" style="width: 900px" class="wp-caption alignnone"><img decoding="async" class="size-full wp-image-136" src="https://biznesmysli.pl/wp-content/uploads/2017/03/algorithm.jpeg" alt="" width="900" height="689" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/algorithm.jpeg 900w, https://biznesmysli.pl/wp-content/uploads/2017/03/algorithm-300x230.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/algorithm-768x588.jpeg 768w" sizes="(max-width: 900px) 100vw, 900px" /><figcaption id="caption-attachment-136" class="wp-caption-text">Algorytmy. Autor zdjęcia: @iwannt (flickr)</figcaption></figure>
<h3>Podsumujmy</h3>
<p>Wiesz już, że są trzy najważniejsze komponenty dla sztucznej inteligencji: <strong>moc komputerowa</strong>, <strong>dane</strong> i <strong>algorytmy</strong> (na przykład jako sieć neuronowa). Warto jeszcze wspomnieć o czwartym – to zespół (jak na razie ludzi) którzy są wstanie połączyć wymienione trzy elementy.</p>
<p>A teraz chciałbym dodać więcej kontekstu, żeby było bardziej zrozumiałe jak to rozwijało się i gdzie jesteśmy teraz.</p>
<h2>Pierwsze kroki</h2>
<p>Alan Turing – brytyjski naukowiec, pracował nad stworzeniem maszyny która teraz jest nazywana komputerem. Proszono go o złamanie szyfru niemieckiej maszyny <a href="https://pl.wikipedia.org/wiki/Enigma" target="_blank" rel="nofollow noopener noreferrer">Enigma</a>, używanej do korespodencji podczas drugie wojnej światowej.</p>
<figure id="attachment_137" aria-describedby="caption-attachment-137" style="width: 600px" class="wp-caption aligncenter"><img decoding="async" class="wp-image-137" src="https://biznesmysli.pl/wp-content/uploads/2017/03/TuringBombeBletchleyPark.jpg" alt="Turing bomba - elektroniczno-mechaniczne maszyny do odszyfrowania &quot;Enigma&quot; kodu" width="600" height="417" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/TuringBombeBletchleyPark.jpg 531w, https://biznesmysli.pl/wp-content/uploads/2017/03/TuringBombeBletchleyPark-300x208.jpg 300w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption id="caption-attachment-137" class="wp-caption-text">Turing bomba &#8211; elektroniczno-mechaniczna maszyna do odszyfrowania kodu &#8222;Enigma&#8221;. Zródło: wiki</figcaption></figure>
<p>W roku 1950 Turing pisze artykuł w czasopiśmie <a href="https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence" target="_blank" rel="nofollow noopener noreferrer">Computing Machinery and Intelligence</a> i rozpoczyna pytaniem. Proponuje rozważyć kwestie:</p>
<blockquote>
<p>„Czy maszyna potrafić myśleć?”</p>
</blockquote>
<p>Natomiast jak to zdefiniować? Tradycyjne podejście było by rozłożeniem na czynniki pierwsze, czyli “maszyna” i “myśleć” i zdefiniowaniem każdego z nich w sposób jednoznaczny. Natomiast to podejście, zwłaszcza definicja “myśleć” może zaprowadzić w ślepą uliczkę. Turing wybiera inne podejście. Zrobić coś, co potrafi robić osobą myśląca – i na podstawie tego stwierdzić, że komputer „myśli”. Pytanie zostało zmienione na: czy maszyna może robić pewne zadanie, tak jak to robi człowiek? W tym formułowania są dwie możliwe odpowiedzi “tak” albo “nie”. Ten test teraz ma nazwę <a href="https://pl.wikipedia.org/wiki/Test_Turinga" target="_blank" rel="nofollow noopener noreferrer">Test Turinga</a>.</p>
<p> </p>
<figure id="attachment_138" aria-describedby="caption-attachment-138" style="width: 900px" class="wp-caption alignnone"><img decoding="async" class="wp-image-138" src="https://biznesmysli.pl/wp-content/uploads/2017/03/turing_way.jpeg" alt="Turing Test" width="900" height="675" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/turing_way.jpeg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/03/turing_way-300x225.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/turing_way-768x576.jpeg 768w" sizes="(max-width: 900px) 100vw, 900px" /><figcaption id="caption-attachment-138" class="wp-caption-text"><span id="result_box" class="" lang="pl"><span class="">Wystawy</span> wewnątrz w Bletchley Park. To było miejsce pracy Alana <span class="">Turinga</span> <span class="">w czasie wojny.</span></span>  Autor zdjęcia: <a class="owner-name truncate" title="Go to Elliott Brown's photostream" href="https://www.flickr.com/photos/ell-r-brown/" data-track="attributionNameClick" data-rapid_p="30">Elliott Brown</a></figcaption></figure>
<h2>Test Turinga &#8211; werjsa pierwsza</h2>
<p>Turing zainspirował się grą która polegała na tym, że mężczyzna i kobieta idą do różnych pokoi. Goście zadają pytania, a oni piszą odpowiedź na <a href="https://pl.wikipedia.org/wiki/Maszyna_do_pisania" target="_blank" rel="nofollow noopener noreferrer">maszynie do pisania</a> i robią to w taki sposób, żeby wprowadzić gości w błąd. Każdy z nich próbuje udawać, że jest przeciwnej płci. Turing zaproponował zastąpić pierwszą osobę komputerem.</p>
<figure id="attachment_151" aria-describedby="caption-attachment-151" style="width: 270px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-151" src="https://biznesmysli.pl/wp-content/uploads/2017/03/version1.jpg" alt="Turing Test " width="270" height="278" /><figcaption id="caption-attachment-151" class="wp-caption-text">Turing Test &#8211; wersja 1</figcaption></figure>
<h2>Test Turinga &#8211; werjsa druga</h2>
<p>Sędzia, czyli człowiek, miał rozmawiać z człowiekiem i komputerem jednocześnie. Jeżeli nie podstawie tej rozmowy sędzia nie jest w stanie powiedzieć jednoznacznie kto jest człowiekiem – to wtedy uważa się, że komputer przeszedł test. Celem testu było badanie inteligencji, dlatego wykluczono rozmowę bezpośrednio (głosem) – tylko był używany tekst (taki sobie chat). Również były wprowadzone określone przedziały czasowe na odpowiedzi. Za czasów Turinga to było koniecznie, bo maszyny były wolniejszy niż człowiek, a teraz są potrzebne, bo już człowiek jest wolniejszy.</p>
<h2>Test Turinga &#8211; werjsa trzecia</h2>
<p>Jest najbardziej znana, sprowadziła się do bardziej prostego testu. Sędzia ma odgadnąć z kim rozmawia – czy to człowiek czy komputer.</p>
<figure id="attachment_153" aria-describedby="caption-attachment-153" style="width: 250px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-153" src="https://biznesmysli.pl/wp-content/uploads/2017/03/version3.png" alt="Turing Test" width="250" height="320" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/version3.png 250w, https://biznesmysli.pl/wp-content/uploads/2017/03/version3-234x300.png 234w" sizes="(max-width: 250px) 100vw, 250px" /><figcaption id="caption-attachment-153" class="wp-caption-text">Turing Test</figcaption></figure>
<p>Sam Turing twierdził, że maszyna w końcu ma przejść ten test. W okolicy roku 2000 i jego oszacowaniach, wtedy komputer powinien mieć odpowiednią moc. Co do mocy to miał rację, właściwie mamy zdecydowanie bardziej potężne komputery – ale test nadal jest aktualny.</p>
<p>Chociaż tutaj warto powiedzieć, że Test Turinga udało się „złamać” w inny sposób. Człowiek ma różne role w życiu i czasem niektóre z nich są zdecydowanie bardziej przewidywalne niż inne.</p>
<p>W latach 60-tych Joseph Weizenbaum, który swoją drogą również pracował w General Electric (czyli moim obecnym miejsce pracy), wymyślił stworzenie robota – psychiatrę o nazwie <a href="https://pl.wikipedia.org/wiki/ELIZA" target="_blank" rel="nofollow noopener noreferrer">ELIZA</a>.</p>
<figure id="attachment_139" aria-describedby="caption-attachment-139" style="width: 1315px" class="wp-caption alignnone"><img decoding="async" class="size-full wp-image-139" src="https://biznesmysli.pl/wp-content/uploads/2017/03/Joseph-Weizenbaum.jpeg" alt="Joseph Weizenbaum" width="1315" height="730" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/Joseph-Weizenbaum.jpeg 1315w, https://biznesmysli.pl/wp-content/uploads/2017/03/Joseph-Weizenbaum-300x167.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/Joseph-Weizenbaum-768x426.jpeg 768w, https://biznesmysli.pl/wp-content/uploads/2017/03/Joseph-Weizenbaum-1024x568.jpeg 1024w" sizes="(max-width: 1315px) 100vw, 1315px" /><figcaption id="caption-attachment-139" class="wp-caption-text">Joseph Weizenbaum</figcaption></figure>
<p>Idea polegała na tym, że odpowiedź na pytanie budowało się na podstawie poprzedniej wypowiedzi. Przykładowy dialog:</p>
<ul>
<li>boli mnie głowa…</li>
<li>Prawdopodobnie powinna skonsultować się z doktorem. Jestem psychiatrą.</li>
<li>No dobrze, zrobię to…</li>
<li>Czy możesz to rozwinąć?</li>
<li>…</li>
</ul>
<p>Program ten wybierał pewne słowa kluczowe z odpowiedzi człowieka (czyli pacjenta) i bazując na nie tworzy swoją „odpowiedź”. Często używając takie frazy jak:</p>
<ul>
<li>“Co to dla Ciebie znaczy?”</li>
<li>“… zawsze ma sens”</li>
<li>“Czy możesz to rozwinąć?”</li>
<li>itd.</li>
</ul>
<p>Na pytania „Czy jesteś człowiekiem?” mógł dać odpowiedź: „Być człowiekiem… Czy to coś znaczy…?” albo „Co myślisz o mojej matce?” dawał odpowiedź: „Nie znam Twojej matki, opowiedz mi coś więcej o niej”.</p>
<p> </p>
<p><iframe src="https://www.youtube.com/embed/CJWOOTMt4ko" width="900" height="400" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Kontynuując ten eksperyment w latach 70-tych był stworzony kolejny program – <a href="https://pl.wikipedia.org/wiki/PARRY" target="_blank" rel="nofollow noopener noreferrer">PARRY</a>. Zadaniem programu było symulowanie człowieka chorego na schizofrenię paranoidalną.</p>
<p>W roku 1972 ELIZA i PARRY poznali się i mieli całkiem ciekawe dialogi, jeden z nich:</p>
<ul>
<li>PARRY: Wiem, że mafia kontroluje duże rakiety.</li>
<li><i>ELIZA: O czym ty mówisz?</i></li>
<li>PARRY: Czy kiedykolwiek myślałeś o mafii?</li>
<li><i>ELIZA: Załóżmy, że kiedyś myślałem o mafii</i></li>
<li>PARRY: Porozmawiajmy o czymś innym.</li>
<li><i>ELIZA: Nie jestem pewien, czy rozumiem cię całkowicie.</i></li>
<li>PARRY: Ciągle zadajesz mi te same pytania, może zmieńmy temat?</li>
<li><i>ELIZA: W jaki sposób?</i></li>
<li>…</li>
</ul>
<p>Więcej dialogów można znaleźć na <a href="http://web.stanford.edu/group/SHR/4-2/text/dialogues.html" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">stronie Uniwersytetu Stanford</a></p>
<p>Mówiąc o teście Turinga, warto wspomnieć, że w 1991 roku przez Hugh Loebnera była podjęta inicjatywa,  dzięki której teraz ma nazwę – <a href="https://pl.wikipedia.org/wiki/Nagroda_Loebnera" target="_blank" rel="nofollow noopener noreferrer">Nagroda Loebnera</a>. Ten kto przejdzie test Turinga dostanie nagrodę 100 tys. dolarów. Dopóki testu nie przejdzie, najlepsza praca dostaje 3 tys. dolarów rocznie.</p>
<figure id="attachment_143" aria-describedby="caption-attachment-143" style="width: 456px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-143" src="https://biznesmysli.pl/wp-content/uploads/2017/03/loebnergoldmedal.jpeg" alt="Nagroda Loebnera" width="456" height="277" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/loebnergoldmedal.jpeg 456w, https://biznesmysli.pl/wp-content/uploads/2017/03/loebnergoldmedal-300x182.jpeg 300w" sizes="(max-width: 456px) 100vw, 456px" /><figcaption id="caption-attachment-143" class="wp-caption-text"><span id="result_box" class="" lang="pl">Nagroda &#8211; <span class="">Złoty Medal</span> Loebner (<span class="">18</span> <span class="">karat</span>, a nie tylko pozłacane jak &#8222;złoto&#8221; olimpijskich medali)</span></figcaption></figure>
<p>Dość głośno było na temat bota o nazwie <a href="http://wyborcza.pl/1,75400,16119707,Nazywam_sie_Eugene_Goostman__mam_13_lat_i____wlasnie.html" target="_blank" rel="nofollow noopener noreferrer">Eugene Goostman</a> w roku 2014. Mówiło się wtedy, że w końcu udało się pokonać test Turinga. Natomiast to było dokładnie to samo podejście jak w latach 60-tych czy 70-tych z ELIZA i PARRY. Kiedy ograniczeniem było to, że Eugene jest 13 letni który pochodzi z Ukrainy i na dodatek nie jest biegły w posługiwaniu się językiem angielskim.</p>
<p>Następnym razem, gdy usłyszysz, że test Turinga jest pokonany po raz pierwszy, sprawdź najpierw czy przypadkiem nie chodzi o sprytne zagranie :).</p>
<p>Wracając do nagrody Loebnera. W roku 2016 zwyciężył bot, nazwa którego ciekawie brzmi po polsku – <a href="http://www.mitsuku.com/" target="_blank" rel="nofollow noopener noreferrer">Mitsuku</a>. Każdy może porozmawiać z tym botem,  ta rozmowa jest całkiem ciekawa. Od razu powiem że bot rozumie tylko po angielsku. Warto spróbować…</p>
<p> </p>
<figure id="attachment_145" aria-describedby="caption-attachment-145" style="width: 637px" class="wp-caption aligncenter"><img decoding="async" class="wp-image-145 size-full" src="https://biznesmysli.pl/wp-content/uploads/2017/03/Mitsuku.jpg" alt="Mitsuku" width="637" height="610" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/Mitsuku.jpg 637w, https://biznesmysli.pl/wp-content/uploads/2017/03/Mitsuku-300x287.jpg 300w" sizes="(max-width: 637px) 100vw, 637px" /><figcaption id="caption-attachment-145" class="wp-caption-text">A dialog with Mitsuku</figcaption></figure>
<p>Teraz chciałbym przejść od Alana Turinga do innej bardzo ważnej postaci w sztucznej inteligencji &#8211; jest to Marvin Minsky. Bardzo upraszczając są <a href="https://en.wikipedia.org/wiki/Neats_and_scruffies" target="_blank" rel="nofollow noopener noreferrer">dwa podejścia do sztucznej inteligencji</a>.</p>
<h2>Sztuczne inteligencja &#8211; podejście teoretyczne</h2>
<p>Pierwsze podejście “czyste” lub teoretyczne opiera się tylko na czystej matematyce.  Można powiedzieć, że jego przywódcą był <a href="https://en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)" target="_blank" rel="nofollow noopener noreferrer">John McCarthy</a>. Natomiast to podejście jest dość ograniczone. Już w moim <a href="http://biznesmysli.pl/zaczynamy-podcast1" target="_blank" rel="noopener noreferrer">pierwszym odcinku</a> wspominałem, że matematyka jest dość abstrakcyjna, żeby opisywać rzeczywistość. Jako przykład można wspomnieć podejście “<a href="https://pl.wikipedia.org/wiki/General_Problem_Solver" target="_blank" rel="nofollow noopener noreferrer">General Problem Solver</a>” która powstało pod koniec lat 50. Chodzi o to, że aby osiągnąć konkretny cel, należy przewidzieć wszystkie możliwe kombinacje w sposób logiczny.</p>
<p>Przykładowym zadaniem robota jest kupić mleko w sklepie. Przed zakupem, taki robot musi odpowiedzieć na kilka pytań. Czy ma wystarczająco pieniędzy na mleko? Czy ma paliwo w samochodzie? Jeżeli nie – to trzeba zatankować. Odpowiedzieć na pytanie gdzie zatankować? Musi sprawdzić na której stacji trzeba to zrobić. Jeżeli teraz (z pewnych przyczyn) nie działa stacja A, to trzeba jechać do stacji B. Później odpowiedzieć na pytania –  czy starczy paliwa żeby dojechać do stacji B, oraz pieniędzy żeby zatankować oraz kupić mleko?.. Jak widać proste zadanie nagle staję się zbyt skomplikowane w realizacji. W wyniku następuje tak zwana eksplozja logiczna. Swoją drogą, co jest ciekawe, ludzie które szukają wymówek, działają w podobny sposób :).</p>
<h2>Sztuczne inteligencja &#8211; podejście praktyczne</h2>
<p>Głównie polega na inspiracji naturą. To nazywa się <a href="https://pl.wikipedia.org/wiki/Bionika" target="_blank" rel="nofollow noopener noreferrer">bionika</a>. To podejście jeszcze stosował Leonard De Vinci próbując naśladować ptaki, tworząc <a href="https://pl.wikipedia.org/wiki/Skrzyd%C5%82owiec" target="_blank" rel="nofollow noopener noreferrer">skrzydłowiec</a> (czyli mechanizm do latania). Jak pokazuję doświadczenie, takie podejście działa (chociaż, dopiero z czasem człowiek próbuje zrozumieć dlaczego). To jest temat rzeka, w razie zainteresowania postaram się go rozwinąć w następnych odcinkach. To podejście było napędzane przez Marvina, który od samego początku zadawał pytania:</p>
<ol>
<li>Jak zbudować świadomą maszynę?</li>
<li>Jak zbudować myślącą maszynę?</li>
<li>Jak zbudować maszynę, która potrafi podtrzymać rozmowę, która będzie emocjonalna, czy potrafi grać w grę?</li>
</ol>
<p>Idea realizacji była genialnie prosta. Należy zrozumieć jak działa mózg człowieka i następnie spróbować to powtórzyć. Temat jest bardzo ciekawy, zwłaszcza postęp w tych badaniach. Myślę, że to zasługuje na kolejny odcinek podcastu – proszę daj mi znać czy jest to temat interesujący dla Ciebie.</p>
<p> </p>
<figure id="attachment_146" aria-describedby="caption-attachment-146" style="width: 960px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-146" src="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg" alt="Marvin Minsky" width="960" height="541" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg 960w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-300x169.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-768x433.jpeg 768w" sizes="(max-width: 960px) 100vw, 960px" /><figcaption id="caption-attachment-146" class="wp-caption-text">Marvin Minsky</figcaption></figure>
<p>Marvin, w swojej książce «<a href="http://amzn.to/2nuWK36" target="_blank" rel="nofollow noopener noreferrer">The emotion machine</a>»  mówi o tym, że wszystkie zjawiska, które my przypisujemy tylko ludziom i traktujemy jedynie jako ludzkie, niekoniecznie muszą być prawdą. Podobne uczucia mogą również przeżywać inteligentne maszyny.  I jego pierwszy rozdział w książce ma nazwę „Zakochać się”. Zapraszam do oglądania również wideo z jego lekcji w MIT (jest dostępne na stronie biznesmysli.pl/2).</p>
<p><iframe src="https://www.youtube.com/embed/6AS48fTXBBs" width="800" height="400" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Minsky odszedł od nas rok temu (czyli 2016) ale jego mózg został zamrożony z nadzieją, że będzie można go odżywić. Ta procedura nazywa się <a href="https://pl.wikipedia.org/wiki/Krionika" target="_blank" rel="nofollow noopener noreferrer">krionika</a> i również jest bardzo ciekawym tematem. Pierwszy człowiek był zamrożony w pod koniec lat 60-tych ubiegłego wieku. Roy Kurzweil – to kolejna ciekawa osoba, która obecnie jest dyrektorem w Google do spraw związanych ze sztuczną inteligencją. Roy przewiduje, że już w okolicy 2045 roku będzie możliwość wrócić jego mentora, czyli Marvina… Ciekawy jestem co to będzie oznaczać w praktyce?</p>
<h2>Podsumowanie</h2>
<p>Przez dłuższy czas brakowało danych, mocy obliczeniowej i bardziej złożonych algorytmów żeby osiągnąć tak zwany efekt “wow”.  Teraz żyjemy w czasach, kiedy te trzy elementy już są na wystarczającym poziomie, żeby dawać wartościowe wyniki.</p>
<p>Na koniec ciekawostka. Zapraszam do obejrzenia wywiadu z Sergiejem Brinem, jednym z założycieli Google. Na spotkaniu “<a href="https://www.youtube.com/watch?v=ffvu6Mr1SVc" target="_blank" rel="nofollow noopener noreferrer">World Economic Forum</a>” przyznał się, że przez dłuższy czas sam miał wątpliwości do praktycznego zastosowania sztucznej inteligencji.</p>
<p> </p>
<p><iframe src="https://www.youtube.com/embed/ffvu6Mr1SVc" width="800" height="400" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Traktował to jako zabawkę dla “dorosłych dzieci”.  A teraz uwaga… Google inwestuje setki milionów, jeśli nie miliardy dolarów wrozwój sztucznej inteligencji i robią w tym całkiem dobre postępy. Na przykład w marcu 2016 roku robot <a href="http://www.theverge.com/2016/3/15/11213518/alphago-deepmind-go-match-5-result" target="_blank" rel="nofollow noopener noreferrer">wygrał</a> w grę “Go” z najmocniejszym zawodnika przed spodziewanym czasem. Albo zaoszczędził <a href="https://deepmind.com/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-40/" target="_blank" rel="nofollow noopener noreferrer">40% na chłodzeniu swoich serwerowni</a>, albo na podstawie zdjęcia jest w stanie powiedzieć gdzie to jest zrobione <a href="http://www.theverge.com/2016/2/25/11112594/google-new-deep-learning-image-location-planet" target="_blank" rel="nofollow noopener noreferrer">geograficznie</a> (w ramach całej Ziemi), albo potrafi <a href="https://www.newscientist.com/article/2113299-googles-deepmind-ai-can-lip-read-tv-shows-better-than-a-pro/" target="_blank" rel="nofollow noopener noreferrer">czytać z ruch warg</a>  i wiele innych.</p>
<p>Ostatnia ciekawostka na koniec, w lutym tego roku (czyli 2017) robot <a href="http://www.rp.pl/Nowe-technologie/301319906-Sztuczna-inteligencja-ogrywa-w-pokera-mistrzow.html" target="_blank" rel="nofollow noopener noreferrer">Libratus</a> pokonał w pokera najmocniejszych zawodników w świecie. Ciekawostką jest to, że nikt go nie uczył grać – sam się nauczył. Temat jest bardzo ciekawy i otwiera kolejną furtkę w sztucznej inteligencji. Jeżeli chcesz dowiedzieć więcej – proszę daj znać poświęcę więcej czasu temu zagadnieniu.</p>
<p>Nadal jeszcze masz wątpliwości co do możliwości sztucznej inteligencji?</p>
<p>Dziękuję Ci bardzo za poświęcony czas. Mam nadzieje, że udało się więcej rozjaśnić co się dzieje w uczeniu maszynowym, jak na razie na poziomie ogólnym. Zapraszam do pozostawienia opinii na itunes czy na stronie podcastu, każda Twoja opinia będzie pomagać mi nagrać kolejny odcinek.</p>
<p>Jeżeli słuchasz tego podcastu podczas jazdy rowerem czy samochodem albo biegania, a chcesz poczytać więcej o tym wszystko co było wspomniane, obejrzeć wideo. To mam dobrą wiadomość dla Ciebie. Proszę wejdź na stronę biznesmysli.pl/2 i znajdzesz tam treść z linkami oraz wideo.</p>
<p>Następnym razem skupimy się na dość złożonym temacie sztuczna inteligencja i ekonomika. Zapraszam.</p>
<h2>Książki które warto przeczytać</h2>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/B006U1S60O/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=B006U1S60O&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=069ac054e547318b08b56206b9b08c6a" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=B006U1S60O&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=B006U1S60O" alt="" width="1" height="1" border="0" /></li>
<li><a href="https://www.amazon.com/gp/product/0743276647/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0743276647&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=df267badf77c8c913f50adb27629edbf" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0743276647&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0743276647" alt="" width="1" height="1" border="0" /></li>
<li><a href="https://www.amazon.com/gp/product/0465065708/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0465065708&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=2ace4652ecf7a7d34962e61efb8af0e6" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0465065708&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0465065708" alt="" width="1" height="1" border="0" /></li>
<li><a href="https://www.amazon.com/gp/product/0143037889/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0143037889&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=70e300c5ea7b8ab2216d473c38e3b367" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0143037889&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0143037889" alt="" width="1" height="1" border="0" /></li>
</ul><p>Artykuł <a href="https://biznesmysli.pl/wprowadzenie-do-sztucznej-inteligencji-podcast-2/">Wprowadzenie do sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/wprowadzenie-do-sztucznej-inteligencji-podcast-2/feed/</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
	</channel>
</rss>
