<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ibm &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/tag/ibm/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/tag/ibm/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Mon, 17 Aug 2020 05:47:00 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>ibm &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/tag/ibm/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Prowadzący naukowiec z DeepMind o rozwoju sztucznej inteligencji</title>
		<link>https://biznesmysli.pl/deepmind-janusz-marecki/</link>
					<comments>https://biznesmysli.pl/deepmind-janusz-marecki/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 05 Nov 2018 04:00:17 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[ibm]]></category>
		<category><![CDATA[Janusz Marecki]]></category>
		<category><![CDATA[sztuczny mózg]]></category>
		<category><![CDATA[unsupervised learning]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=1255</guid>

					<description><![CDATA[<p>W tym odcinku dowiesz się: Czym zajmuje się Janusz Marecki oraz jak działa DeepMind? Co Januszowi udało się osiągnąć pracując w IBM Research Czym są problemy w całości obserwowalne? Jakie są przeszkody w procesie konstrukcji sztucznego mózgu? Czym jest system wieloagentowy (multi-agents system)? Jaką wartość biznesową możesz uzyskać wdrażając system wieloagentowy do swojej firmy? Czym jest efektywność Pareto? Na czym polega &#8222;dylemat więźnia&#8221; oraz &#8222;dylemat społeczny&#8221;? Jak problemy sztucznej inteligencji przekładają się na otaczającą nas rzeczywistość? Czy w przyszłości będziemy w stanie kontrolować sztuczną inteligencję? Czym dokładnie jest AGI oraz czy jesteśmy w stanie go osiągnąć? W jak szybkim tempie technika posuwa się do przodu? Jakich błędów unikać podczas wyciągania wniosków z &#8222;udanych&#8221; eksperymentów? Które dziedziny nauki lub medycyny rozwiną się najbardziej w ciągu kolejnych 5-10 lat? Na początek szybkie ogłoszenie. Pewnie jak już wiesz, 29 października ruszył mój autorski kurs praktycznego uczenia maszynowego. Natomiast 12 listopada, rusza już drugi, też autorski kurs online w 100%: “Praktyczne prognozy szeregów czasowych”. Czym są szeregi czasowe, opowiedziałem w odcinku 39, który nosi tytuł: “10 przykładów jak uczenie maszynowe może pomóc Twojemu biznesowi”. W skrócie chodziło o to: jeżeli chcesz się nauczyć robić prognozy, na przykład popytu, różnych wartości i innych wymiernych czynników w czasie, to bardzo gorąco Cię zapraszam na ten kurs, gdyż może okazać się, że nagle jesteś w stanie zoptymalizować swój biznes i przedstawić wymierne korzyści, dlaczego uczenie maszynowe działa. To tyle jeśli chodzi o ogłoszenie. Tu możesz zobaczyć kawałek nagrania z kursu&#8230; Teraz przechodzimy do dzisiejszego gościa, którym jest Janusz Marecki. Pracuje on w DeepMind. Wcześniej pracował w IBM, bardzo ciekawa osoba, z bardzo fajnym, przyjacielskim podejściem do życia. Kiedy już go lepiej poznasz, to bardzo przyjemnie się z nim współpracuje. Osobom, które mniej siedzą w temacie może się wydawać, że Janusz posiada czasem kontrowersyjne poglądy. Z drugiej strony jest to spojrzenie pragmatyczne. Tak, jak to widzi naukowiec pracujący w DeepMind.&#160; Cześć Janusz, przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz? Obecnie mieszkam w Londynie. Przedtem mieszkałem przez 10 lat w Stanach Zjednoczonych, w Nowym Jorku i w Los Angeles. Jestem naukowcem prowadzącym w DeepMind. To jest taki startup, który wyrósł już do ponad 1000 ludzi. Jest on częścią Google. Słyszeliśmy o tym startupie :). A powiedz, co ostatnio ciekawego przeczytałeś? Ostatnio natknąłem się na taką ciekawą książkę jednego ze słynnych naukowców z dziedziny sztucznej inteligencji, autorstwa Judea Pearl. To była książka zatytułowana “The Book of Why”. W tej książce autor podaje swoje doświadczenia przez całe życie kariery naukowej i argumentował dlaczego powinniśmy budować systemy sztucznej inteligencji, które rozumują nie tylko na podstawie danych. Czyli żeby ten system miał wbudowany algorytm rozumowania a nie tylko żeby próbował z danych te algorytmy wywnioskować. Bardzo ciekawa książka, dość obszerna. Jeszcze jej nie skończyłem, ale polecam. Akurat tej książki jeszcze nie przeczytałem, ale też mam ją na uwadze. Czytałem o niej artykuł. W ogóle, autor tej książki jest bardzo ciekawą osobą i cała jego biografia też jest inspirująca. Już wspomniałeś, że mieszkałeś przedtem w New Yorku, Los Angeles i pracowałeś w IBM Watson Research. Domyślam się, że przez 7 lat kiedy tam pracowałeś udało się zrobić wiele ciekawych rzeczy. Widziałem, że między innymi napisałeś książkę Allocation of Continuous Resources in Agent Systems. Proszę, powiedz coś więcej. Co udało się stworzyć właśnie pracując w IBM Research? Oczywiście tyle na ile możesz. Miałem bardzo fajną okazję pracować z bardzo ciekawymi ludźmi. Jedną z osób z którymi między innymi tam pracowałem był Murray Campbell. Był on szefem tego zespołu Deep Blue, który grał z Kasparowem w szachy. Podobnie, miałem szansę jeszcze pracować z Gerry Tesauro. Jest on jednym z ojców sztucznej inteligencji, gdyż jako pierwszy w 1994 roku zaproponował taki system, mianowicie sieć neuronową, która sama nauczyła się grając ze sobą, grać w Backgammon na poziomie lepszym niż najlepszy człowiek. Te doświadczenia były o tyle ciekawe, że ci właśnie ludzie skierowali mnie na pewną taką dziedzinę. Czym się zajmować, czym się nie zajmować. Na przykład Murray powiedział, żeby się już nie zajmować systemami, które są tak zwane “complete information problems” czyli w całości obserwowalne. Na przykład gra w szachy jest czymś takim. To, co widzimy na szachownicy, na podstawie tego podejmujemy optymalne decyzje, bo tego typu problemy, jak on już kiedyś sugerował będą rozwiązane, i widzieliśmy to na przykład w DeepMindzie kiedy nasz system wygrał w jeszcze trudniejszą grę “Go” z mistrzem świata. Podobnie Gerry powiedział mi żeby się nie zajmować systemami, które są “model free”, czyli bez modelu, ponieważ są to rzeczy, które już teraz da się zrobić przez co to nie będzie przyszłościowe. Tych właśnie dwóch naukowców skierowało mnie na taką fajną drogę, żeby zajmować się problemami, które są tylko częściowo obserwowalne i żeby się uczyć modelu. Właśnie dlatego zacząłem wtedy pracować nad modelami sztucznego mózgu. To są bardzo ciekawe modele, które wywodzą się z zupełnie nowego podejścia w AI i tym się bawiłem przez przez wiele, wiele lat. Byliśmy finansowani przez Department of Homeland Security. Bardzo dobrze ten czas wspominam, a już szczególnie to, że Ci sławni ludzie z AI powiedzieli mi czym się warto zajmować, więc od tego czasu przez ostatnie 10 lat zajmuje się taką generalną sztuczną inteligencją, która zakłada, że musimy nauczyć się modelu świata, że zajmujemy się problemami które są tylko częściowo obserwowalne, i tak dalej. Bardzo ciekawe rzeczy. Sztuczna inteligencja sama w sobie jest popularnym hasłem. Sztuczny mózg, chyba niekoniecznie. Czy mógłbyś troszkę dodać, co chciałeś osiągnąć stwarzając sztuczny mózg? Jak to próbowałeś sam sobie tłumaczyć? Jest to o tyle ciekawe, że obecnie jeśli ludzie używają tego “termu” sztuczna inteligencja &#8211; AI, to prawie zawsze mają na myśli sztuczne sieci neuronowe. Nawet nie biologiczne, ale sztuczne sieci neuronowe, które są pewnego rodzaju aproksymatorami funkcji. To jest fantastyczne narzędzie, które nadaje się do wielu problemów. Natomiast to co teraz właśnie opisuję w mojej publikacji która będzie za niedługo dostępna to jest to, że to narzędzie niestety ma pewne ograniczenia w przypadku, gdy próbujemy je stosować do rozwiązania problemu generalnej sztucznej inteligencji. Oczywiście, nie każdy naukowiec się z każdym zgadza, więc są naukowcy którzy uważają, że wszystko rozwiążemy sieciami neuronowymi. Ja uważam, że nie dlatego że są właśnie te ograniczenia i te ograniczenia próbuję już od ponad 10 lat rozwiązać właśnie przy pomocy sztucznego mózgu, który tak naprawdę wzoruje się na cortexie (korze mózgowej) człowieka. Więc są to bardzo zaawansowane badania, ale tak jak wspomniałeś, one nie są mainstreamowe. Aktualnie, jeśli chodzi o badania mainstreamowe mamy do czynienia ze sztucznymi sieciami neuronowymi. One są bardzo popularne, więc budowanie sztucznego mózgu to jest rzecz na następne 5-10 lat, ale nie na jutro. Brzmi to bardzo interesująco. Wspomniałeś, że jesteś prowadzącym naukowcem w DeepMind i pracujesz już od ponad 3 lat. Powiedz w skrócie, czym się zajmujesz? W DeepMindzie zajmuję się między innymi systemami wieloagentowymi. Ciekawą rzeczą jest to, że nawet jak znajdziemy kiedyś rozwiązanie do generalnej sztucznej inteligencji, to podejrzewam, że będziemy mieli wielu takich właśnie agentów, którzy będą ze sobą współegzystować. Pojawia się pytanie, co należy zrobić, żeby ci agenci którzy mogą mieć o wiele większą zdolność rozumowania, planowania, i tak dalej, w jaki sposób mają oni ze sobą współdziałać? Czy to będą takie egoistyczne jednostki, tacy “dyktatorzy”, którzy wszystko przejmą, czy też stworzymy takie jakby środowisko, takie society agentów. To czym się próbuję zajmować w DeepMindzie, to z jednej strony właśnie próba zbudowania tego, tak zwanego master algorithm, czyli, tak zwanej sztucznej inteligencji na podstawie sztucznego mózgu, a drugą rzeczą jest, co zrobić żeby ci agenci którzy już są inteligentni mogli ze sobą współegzystować. Nie jest trywialne zagadnienie. Mamy na ten temat kilka ciekawych publikacji. Kilka pytań mi od razu przyszło do głowy, ale może najpierw wyjaśnijmy czym jest system wieloagentowy, ang. (multi-agents system). Co to takiego jest? Spróbuję podać przykład. Weźmiesz system, który rozwiązuje równania liniowe. To jest system jednoagentowy. Jest to jeden agent, algorytm, który rozwiązuje układ wielu równań i on ma dostęp do wszystkich możliwych danych. Komunikuje się sam ze sobą i sam rozwiązuje dany problem. W systemie wieloagentowym mamy do czynienia z rozproszeniem danych. Dane należą prywatnie do agentów z rozproszenia tego systemu, który rozumuje pomiędzy danymi i to samo rozwiązanie w sobie nie musi być skupione. One może też być rozproszone. Dobrym przykładem jest mrowisko. Kiedy mamy mrowisko w którym są dziesiątki tysięcy mrówek to jest to system wieloagentowy, ponieważ tam nie ma centralnego mózgu. Tam indywidualni agenci, (w tym przypadku to są właśnie te mrówki) podejmują lokalnie jakieś decyzję. Na podstawie lokalnej obserwacji wymieniają się informacją na podstawie powiedzmy feromonów. które zostawiają na ziemi, a rezultatem tego są niesamowite konstrukcje, takie jak na przykład mrowisko. To jest właśnie ten rezultat systemu agentowego, który jest możliwy do stworzenia tylko jak mamy całą populację agentów. Co jest ciekawe, w tej populacji każdy agent jest taki sam. Niesamowitą rzeczą jest to, że to nie jest tak, że to jest populacja powiedzmy dziesiątek typów agentów. W tym przypadku to jest populacja jednego typu agenta, ale tych agentów jest strasznie dużo. Czym to się różni? System scentralizowany ma scentralizowaną wiedzę i rozumowanie, natomiast system wieloagentowy ma zdecentralizowaną wiedzę i zdecentralizowane problemy decyzyjne, czy procesy decyzyjne w takim dużym skrócie. Brzmi to ciekawie. A jaką wartość biznesową może dać używanie systemów wieloagentowych? Podam może taki przykład którym zajmowaliśmy się jeszcze jak byłem na uniwersytecie w Stanach Zjednoczonych. Chodziło o rozwiązanie problemu harmonogramowania, to znaczy chodziło o to, żeby w danej grupie badawczej naukowcy mogli się dogadać i wspólnie ustalić kiedy będziemy mieli spotkanie. Wydaje się, że to jest taki prosty problem. Wcale nie jest taki prosty. Problem jest taki, że co jeśli nie każdy użytkownik chce każdemu powiedzieć kiedy będzie dostępny. Powiedzmy, że jest 10 osób i chcemy się umówić na jakieś spotkanie na godzinkę, ale to nie jest tak, że każdy z każdym wymienia kalendarze. Problemem jest koordynacja. Jak optymalnie zorganizować meeting, kiedy agenci czyli ludzie nie wymieniają się informacją, na przykład kiedy są dostępni a kiedy nie. Problem ten &#160;właśnie można rozwiązać z wykorzystaniem systemu wieloagentowego. W tym przypadku zastosowaliśmy systemy rozproszonej optymalizacji. To jest jeden z przykładów. Innym przykładem może być na przykład problem komiwojażera. Można go rozwiązać z wykorzystaniem algorytmu zwanego “Ant Colony Optimization”. Jest to algorytm, który mrówki stosują do optymalizacji znalezienia najkrótszej trasy między dwoma punktami. Kolejny system wieloagentowy i okazuje się, że można rozwiązać bardzo skomplikowane problemy takie jak, na przykład problem komiwojażera. Pozwolę sobie teraz trochę zmienić temat, ale akurat to, co wytłumaczyłeś jest nam potrzebne aby pójść dalej. Czytałem Twoją publikację Multi-agent Reinforcement Learning in Sequential Social Dilemmas, która została opublikowana w roku 2017. Dla Ciebie pewnie to jest taka sprawa codzienna, ale żeby każdy zrozumiał, to musimy jeszcze kilka takich pojęć wyjaśnić. Pierwsza rzecz, czym jest efektywność Pareto, lub tak zwane Optimum Pareto. Mógłbyś nam to wytłumaczyć na kilku przykładach? Można tutaj podać przykład lotu samolotem. Wyobraź sobie, że lecisz na wakacje i musisz się dostać z Krakowa do Tunezji, ale nie ma już lotu bezpośredniego. Są tylko loty, które mają jedną przesiadkę. Teraz, co jeśli się okaże, że jest jeden lot który leci przez jakieś miasto, powiedzmy przez Frankfurt i ten lot trwa 5 godzin i kosztuje 1000$, a może się okazać, że jest inny lot, który odbywa się przez zupełnie inne miasto, kosztuje tyle samo i trwa dokładnie tyle samo. W tym przypadku mamy do czynienia z dwoma rozwiązaniami. Są to zupełnie różne rozwiązania, które mają taki sam czas i taką samą cenę. Możemy powiedzieć, że tego typu rozwiązania są Pareto optymalne. Można podać jeszcze troszeczkę inne przykłady. Ogólnie, chodzi tutaj o to, że na przykład w tym przypadku mamy dwa kryteria. Pierwszym z nich jest jak najtańszy lot, a drugi, jest jak najkrótszy lot. Może się okazać, że mamy dwa rozwiązania. Jeden jest troszkę dłuższy, ale kosztuje mniej, a drugi jest krótszy, ale kosztuje więcej. Teraz pytanie. Które rozwiązanie jest optymalne dla nas. To jest właśnie ten problem, że są dwa rozwiązania i obydwa są optymalne w sensie, że jedno jest najtańsze a drugie jest najszybsze. To są dwa rozwiązania i nie możemy jednoznacznie powiedzieć, że jedno jest lepsze od drugiego. Obydwa są najlepsze w swojej dziedzinie, także są Pareto optymalne. Na czym polega...</p>
<p>Artykuł <a href="https://biznesmysli.pl/deepmind-janusz-marecki/">Prowadzący naukowiec z DeepMind o rozwoju sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-2ljOsp wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm44-prowadzacy-naukowiec-z-deepmind-o-r" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/4NXkOaZaA0ib17HVH2RBEu" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>W tym odcinku dowiesz się:</p>
<ul>
<li>Czym zajmuje się Janusz Marecki oraz jak działa DeepMind?</li>
<li>Co Januszowi udało się osiągnąć pracując w IBM Research</li>
<li>Czym są problemy w całości obserwowalne?</li>
<li>Jakie są przeszkody w procesie konstrukcji sztucznego mózgu?</li>
<li>Czym jest system wieloagentowy (multi-agents system)?</li>
<li>Jaką wartość biznesową możesz uzyskać wdrażając system wieloagentowy do swojej firmy?</li>
<li>Czym jest efektywność Pareto?</li>
<li>Na czym polega &#8222;dylemat więźnia&#8221; oraz &#8222;dylemat społeczny&#8221;?</li>
<li>Jak problemy sztucznej inteligencji przekładają się na otaczającą nas rzeczywistość?</li>
<li>Czy w przyszłości będziemy w stanie kontrolować sztuczną inteligencję?</li>
<li>Czym dokładnie jest AGI oraz czy jesteśmy w stanie go osiągnąć?</li>
<li>W jak szybkim tempie technika posuwa się do przodu?</li>
<li>Jakich błędów unikać podczas wyciągania wniosków z &#8222;udanych&#8221; eksperymentów?</li>
<li>Które dziedziny nauki lub medycyny rozwiną się najbardziej w ciągu kolejnych 5-10 lat?</li>
</ul>
<p><span style="font-weight: 400;">Na początek szybkie ogłoszenie. Pewnie jak już wiesz, 29 października ruszył mój autorski kurs <a href="http://dataworkshop.eu/">praktycznego uczenia maszynowego</a>. Natomiast 12 listopada, rusza już drugi, też autorski kurs online w 100%: “<a href="http://www.dataworkshop.eu/pl/time-series">Praktyczne prognozy szeregów czasowych</a>”. Czym są szeregi czasowe, opowiedziałem w odcinku 39, który nosi tytuł: “10 przykładów jak uczenie maszynowe może pomóc Twojemu biznesowi”. W skrócie chodziło o to: jeżeli chcesz się nauczyć robić prognozy, na przykład popytu, różnych wartości i innych wymiernych czynników w czasie, to bardzo gorąco Cię zapraszam na ten kurs, gdyż może okazać się, że nagle jesteś w stanie zoptymalizować swój biznes i przedstawić wymierne korzyści, dlaczego uczenie maszynowe działa. To tyle jeśli chodzi o ogłoszenie.</span></p>
<p>Tu możesz zobaczyć kawałek nagrania z kursu&#8230;</p>
<p><iframe title="Autorski online kurs: Praktyczne prognozy szeregów czasowych" width="960" height="540" src="https://www.youtube.com/embed/rzjrJ-Jytms?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Teraz przechodzimy do dzisiejszego gościa, którym jest <a href="https://www.linkedin.com/in/januszmarecki/">Janusz Marecki</a>. Pracuje on w <a href="https://deepmind.com/">DeepMind</a>. Wcześniej pracował w IBM, bardzo ciekawa osoba, z bardzo fajnym, przyjacielskim podejściem do życia. Kiedy już go lepiej poznasz, to bardzo przyjemnie się z nim współpracuje. Osobom, które mniej siedzą w temacie może się wydawać, że Janusz posiada czasem kontrowersyjne poglądy. Z drugiej strony jest to spojrzenie pragmatyczne. Tak, jak to widzi naukowiec pracujący w DeepMind.&nbsp;</span></p>
<hr />
<p><span id="more-1255"></span></p>
<p><b>Cześć Janusz, przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz?</b></p>
<p><span style="font-weight: 400;">Obecnie mieszkam w Londynie. Przedtem mieszkałem przez 10 lat w Stanach Zjednoczonych, w Nowym Jorku i w Los Angeles. Jestem naukowcem prowadzącym w DeepMind. To jest taki startup, który wyrósł już do ponad 1000 ludzi. Jest on częścią Google. </span></p>
<p><b>Słyszeliśmy o tym startupie :). A powiedz, co ostatnio ciekawego przeczytałeś?</b></p>
<p><span style="font-weight: 400;">Ostatnio natknąłem się na taką ciekawą książkę jednego ze słynnych naukowców z dziedziny sztucznej inteligencji, autorstwa Judea Pearl. To była książka zatytułowana “<a href="https://amzn.to/2JEcD0b">The Book of Why</a>”. W tej książce autor podaje swoje doświadczenia przez całe życie kariery naukowej i argumentował dlaczego powinniśmy budować systemy sztucznej inteligencji, które rozumują nie tylko na podstawie danych. Czyli żeby ten system miał wbudowany algorytm rozumowania a nie tylko żeby próbował z danych te algorytmy wywnioskować. Bardzo ciekawa książka, dość obszerna. Jeszcze jej nie skończyłem, ale polecam.</span></p>
<p><a href="https://www.amazon.com/gp/product/046509760X/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=046509760X&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=f05db08bd51403a55fd0d0cec6b1afe4" target="_blank" rel="noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=046509760X&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0"/></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=046509760X" alt="" width="1" height="1" border="0"/></p>
<p><b>Akurat tej książki jeszcze nie przeczytałem, ale też mam ją na uwadze. Czytałem o niej <a href="https://www.quantamagazine.org/to-build-truly-intelligent-machines-teach-them-cause-and-effect-20180515/">artykuł</a>. W ogóle, autor tej książki jest bardzo ciekawą osobą i cała jego biografia też jest inspirująca. </b></p>
<p><b>Już wspomniałeś, że mieszkałeś przedtem w New Yorku, Los Angeles i pracowałeś w IBM Watson Research. Domyślam się, że przez 7 lat kiedy tam pracowałeś udało się zrobić wiele ciekawych rzeczy. Widziałem, że między innymi napisałeś książkę </b><a href="https://www.amazon.com/Allocation-Continuous-Resources-Agent-Systems/dp/3639131770/ref=sr_1_2/188-5068956-7213239"><b>Allocation of Continuous Resources in Agent Systems</b></a><b>. Proszę, powiedz coś więcej. Co udało się stworzyć właśnie pracując w IBM Research? Oczywiście tyle na ile możesz.</b></p>
<p><span style="font-weight: 400;">Miałem bardzo fajną okazję pracować z bardzo ciekawymi ludźmi. Jedną z osób z którymi między innymi tam pracowałem był <a href="https://en.wikipedia.org/wiki/Murray_Campbell">Murray Campbell</a>. Był on szefem tego zespołu </span><i><span style="font-weight: 400;">Deep Blue,</span></i><span style="font-weight: 400;"> który grał z Kasparowem w szachy. Podobnie, miałem szansę jeszcze pracować z <a href="https://researcher.watson.ibm.com/researcher/view.php?person=us-gtesauro" class="broken_link">Gerry Tesauro</a>. Jest on jednym z ojców sztucznej inteligencji, gdyż jako pierwszy w 1994 roku zaproponował taki system, mianowicie sieć neuronową, która sama nauczyła się grając ze sobą, grać w <a href="https://en.wikipedia.org/wiki/Backgammon">Backgammon</a> na poziomie lepszym niż najlepszy człowiek. Te doświadczenia były o tyle ciekawe, że ci właśnie ludzie skierowali mnie na pewną taką dziedzinę. Czym się zajmować, czym się nie zajmować. </span></p>
<p><iframe title="Deep Blue vs Kasparov: How a computer beat best chess player in the world - BBC News" width="960" height="540" src="https://www.youtube.com/embed/KF6sLCeBj0s?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Na przykład Murray powiedział, żeby się już nie zajmować systemami, które są tak zwane </span><i><span style="font-weight: 400;">“<a href="https://en.wikipedia.org/wiki/Complete_information">complete information problems</a>” </span></i><span style="font-weight: 400;">czyli w całości obserwowalne. Na przykład gra w szachy jest czymś takim. To, co widzimy na szachownicy, na podstawie tego podejmujemy optymalne decyzje, bo tego typu problemy, jak on już kiedyś sugerował będą rozwiązane, i widzieliśmy to na przykład w DeepMindzie kiedy nasz system wygrał w jeszcze trudniejszą grę “Go” z mistrzem świata. Podobnie Gerry powiedział mi żeby się nie zajmować systemami, które są </span><i><span style="font-weight: 400;">“model free</span></i><span style="font-weight: 400;">”, czyli bez modelu, ponieważ są to rzeczy, które już teraz da się zrobić przez co to nie będzie przyszłościowe. </span></p>
<p><span style="font-weight: 400;">Tych właśnie dwóch naukowców skierowało mnie na taką fajną drogę, żeby zajmować się problemami, które są tylko częściowo obserwowalne i żeby się uczyć modelu. Właśnie dlatego zacząłem wtedy pracować nad modelami sztucznego mózgu. To są bardzo ciekawe modele, które wywodzą się z zupełnie nowego podejścia w AI i tym się bawiłem przez przez wiele, wiele lat. Byliśmy finansowani przez Department of Homeland Security. Bardzo dobrze ten czas wspominam, a już szczególnie to, że Ci sławni ludzie z AI powiedzieli mi czym się warto zajmować, więc od tego czasu przez ostatnie 10 lat zajmuje się taką generalną sztuczną inteligencją, która zakłada, że musimy nauczyć się modelu świata, że zajmujemy się problemami które są tylko częściowo obserwowalne, i tak dalej. Bardzo ciekawe rzeczy.</span></p>
<p><b>Sztuczna inteligencja sama w sobie jest popularnym hasłem. <a href="https://en.wikipedia.org/wiki/Artificial_brain">Sztuczny mózg</a>, chyba niekoniecznie. Czy mógłbyś troszkę dodać, co chciałeś osiągnąć stwarzając sztuczny mózg? Jak to próbowałeś sam sobie tłumaczyć?</b></p>
<p><span style="font-weight: 400;">Jest to o tyle ciekawe, że obecnie jeśli ludzie używają tego “</span><i><span style="font-weight: 400;">termu”</span></i><span style="font-weight: 400;"> sztuczna inteligencja &#8211; AI, to prawie zawsze mają na myśli sztuczne sieci neuronowe. Nawet nie biologiczne, ale sztuczne sieci neuronowe, które są pewnego rodzaju aproksymatorami funkcji. To jest fantastyczne narzędzie, które nadaje się do wielu problemów. Natomiast to co teraz właśnie opisuję w mojej publikacji która będzie za niedługo dostępna to jest to, że to narzędzie niestety ma pewne ograniczenia w przypadku, gdy próbujemy je stosować do rozwiązania problemu generalnej sztucznej inteligencji. </span></p>
<p><iframe title="Can we build an artificial brain?" width="960" height="540" src="https://www.youtube.com/embed/8ZXlUyyYJCg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Oczywiście, nie każdy naukowiec się z każdym zgadza, więc są naukowcy którzy uważają, że wszystko rozwiążemy sieciami neuronowymi. Ja uważam, że nie dlatego że są właśnie te ograniczenia i te ograniczenia próbuję już od ponad 10 lat rozwiązać właśnie przy pomocy sztucznego mózgu, który tak naprawdę wzoruje się na </span><i><span style="font-weight: 400;">cortexie</span></i><span style="font-weight: 400;"> (korze mózgowej) człowieka. Więc są to bardzo zaawansowane badania, ale tak jak wspomniałeś, one nie są </span><i><span style="font-weight: 400;">mainstreamowe.</span></i><span style="font-weight: 400;"> Aktualnie, jeśli chodzi o badania </span><i><span style="font-weight: 400;">mainstreamowe</span></i><span style="font-weight: 400;"> mamy do czynienia ze sztucznymi sieciami neuronowymi. One są bardzo popularne, więc budowanie sztucznego mózgu to jest rzecz na następne 5-10 lat, ale nie na jutro.</span></p>
<p><b>Brzmi to bardzo interesująco. Wspomniałeś, że jesteś prowadzącym naukowcem w DeepMind i pracujesz już od ponad 3 lat. Powiedz w skrócie, czym się zajmujesz?</b></p>
<p><span style="font-weight: 400;">W DeepMindzie zajmuję się między innymi systemami wieloagentowymi. Ciekawą rzeczą jest to, że nawet jak znajdziemy kiedyś rozwiązanie do generalnej sztucznej inteligencji, to podejrzewam, że będziemy mieli wielu takich właśnie agentów, którzy będą ze sobą współegzystować. Pojawia się pytanie, co należy zrobić, żeby ci agenci którzy mogą mieć o wiele większą zdolność rozumowania, planowania, i tak dalej, w jaki sposób mają oni ze sobą współdziałać? Czy to będą takie egoistyczne jednostki, tacy “dyktatorzy”, którzy wszystko przejmą, czy też stworzymy takie jakby środowisko, takie </span><i><span style="font-weight: 400;">society</span></i><span style="font-weight: 400;"> agentów. To czym się próbuję zajmować w DeepMindzie, to z jednej strony właśnie próba zbudowania tego, tak zwanego </span><i><span style="font-weight: 400;">master algorithm,</span></i><span style="font-weight: 400;"> czyli, tak zwanej sztucznej inteligencji na podstawie sztucznego mózgu, a drugą rzeczą jest, co zrobić żeby ci agenci którzy już są inteligentni mogli ze sobą współegzystować. Nie jest trywialne zagadnienie. Mamy na ten temat kilka ciekawych publikacji.</span></p>
<p><b>Kilka pytań mi od razu przyszło do głowy, ale może najpierw wyjaśnijmy czym jest </b><a href="https://pl.wikipedia.org/wiki/System_wieloagentowy"><b>system wieloagentowy</b></a><b>, ang. (</b><a href="https://en.wikipedia.org/wiki/Multi-agent_system"><b>multi-agents system</b></a><b>). Co to takiego jest?</b></p>
<p><span style="font-weight: 400;">Spróbuję podać przykład. Weźmiesz system, który rozwiązuje równania liniowe. To jest system jednoagentowy. Jest to jeden agent, algorytm, który rozwiązuje układ wielu równań i on ma dostęp do wszystkich możliwych danych. Komunikuje się sam ze sobą i sam rozwiązuje dany problem. W systemie wieloagentowym mamy do czynienia z rozproszeniem danych. Dane należą prywatnie do agentów z rozproszenia tego systemu, który rozumuje pomiędzy danymi i to samo rozwiązanie w sobie nie musi być skupione. One może też być rozproszone. Dobrym przykładem jest mrowisko. Kiedy mamy mrowisko w którym są dziesiątki tysięcy mrówek to jest to system wieloagentowy, ponieważ tam nie ma centralnego mózgu. Tam indywidualni agenci, (w tym przypadku to są właśnie te mrówki) podejmują lokalnie jakieś decyzję.</span></p>
<p><span style="font-weight: 400;">Na podstawie lokalnej obserwacji wymieniają się informacją na podstawie powiedzmy feromonów. które zostawiają na ziemi, a rezultatem tego są niesamowite konstrukcje, takie jak na przykład mrowisko. To jest właśnie ten rezultat systemu agentowego, który jest możliwy do stworzenia tylko jak mamy całą populację agentów. Co jest ciekawe, w tej populacji każdy agent jest taki sam. Niesamowitą rzeczą jest to, że to nie jest tak, że to jest populacja powiedzmy dziesiątek typów agentów. W tym przypadku to jest populacja jednego typu agenta, ale tych agentów jest strasznie dużo. Czym to się różni? System scentralizowany ma scentralizowaną wiedzę i rozumowanie, natomiast system wieloagentowy ma zdecentralizowaną wiedzę i zdecentralizowane problemy decyzyjne, czy procesy decyzyjne w takim dużym skrócie.</span></p>
<p><iframe title="Jackie Kazil | Agent based modeling in Python" width="960" height="540" src="https://www.youtube.com/embed/bjjoHji8KUQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Brzmi to ciekawie. A jaką wartość biznesową może dać używanie systemów wieloagentowych?</b></p>
<p><span style="font-weight: 400;">Podam może taki przykład którym zajmowaliśmy się jeszcze jak byłem na uniwersytecie w Stanach Zjednoczonych. Chodziło o rozwiązanie problemu harmonogramowania, to znaczy chodziło o to, żeby w danej grupie badawczej naukowcy mogli się dogadać i wspólnie ustalić kiedy będziemy mieli spotkanie. Wydaje się, że to jest taki prosty problem. Wcale nie jest taki prosty. Problem jest taki, że co jeśli nie każdy użytkownik chce każdemu powiedzieć kiedy będzie dostępny. Powiedzmy, że jest 10 osób i chcemy się umówić na jakieś spotkanie na godzinkę, ale to nie jest tak, że każdy z każdym wymienia kalendarze. Problemem jest koordynacja. Jak optymalnie zorganizować meeting, kiedy agenci czyli ludzie nie wymieniają się informacją, na przykład kiedy są dostępni a kiedy nie. Problem ten &nbsp;właśnie można rozwiązać z wykorzystaniem systemu wieloagentowego. W tym przypadku zastosowaliśmy systemy rozproszonej optymalizacji. To jest jeden z przykładów. Innym przykładem może być na przykład problem komiwojażera. Można go rozwiązać z wykorzystaniem algorytmu zwanego </span><i><span style="font-weight: 400;">“Ant Colony Optimization”.</span></i><span style="font-weight: 400;"> Jest to algorytm, który mrówki stosują do optymalizacji znalezienia najkrótszej trasy między dwoma punktami. Kolejny system wieloagentowy i okazuje się, że można rozwiązać bardzo skomplikowane problemy takie jak, na przykład problem komiwojażera.</span></p>
<p><b>Pozwolę sobie teraz trochę zmienić temat, ale akurat to, co wytłumaczyłeś jest nam potrzebne aby pójść dalej. Czytałem Twoją publikację </b><a href="https://storage.googleapis.com/deepmind-media/papers/multi-agent-rl-in-ssd.pdf"><b><i>Multi-agent Reinforcement Learning in Sequential Social Dilemmas</i></b></a><b>, która została opublikowana w roku 2017. Dla Ciebie pewnie to jest taka sprawa codzienna, ale żeby każdy zrozumiał, to musimy jeszcze kilka takich pojęć wyjaśnić. Pierwsza rzecz, czym jest </b><a href="https://pl.wikipedia.org/wiki/Optimum_Pareto"><b>efektywność Pareto</b></a><b>, lub tak zwane </b><b><i>Optimum Pareto.</i></b><b> Mógłbyś nam to wytłumaczyć na kilku przykładach?</b></p>
<p><span style="font-weight: 400;">Można tutaj podać przykład lotu samolotem. Wyobraź sobie, że lecisz na wakacje i musisz się dostać z Krakowa do Tunezji, ale nie ma już lotu bezpośredniego. Są tylko loty, które mają jedną przesiadkę. Teraz, co jeśli się okaże, że jest jeden lot który leci przez jakieś miasto, powiedzmy przez Frankfurt i ten lot trwa 5 godzin </span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">i kosztuje 1000$, a może się okazać, że jest inny lot, który odbywa się przez zupełnie inne miasto, kosztuje tyle samo i trwa dokładnie tyle samo. W tym przypadku mamy do czynienia z dwoma rozwiązaniami. Są to zupełnie różne rozwiązania, które mają taki sam czas i taką samą cenę. Możemy powiedzieć, że tego typu rozwiązania są </span><i><span style="font-weight: 400;">Pareto optymalne.</span></i><span style="font-weight: 400;"> Można podać jeszcze troszeczkę inne przykłady. Ogólnie, chodzi tutaj o to, że na przykład w tym przypadku mamy dwa kryteria. Pierwszym z nich jest jak najtańszy lot, a drugi, jest jak najkrótszy lot.</span></p>
<p><iframe title="Pareto Optimality" width="960" height="540" src="https://www.youtube.com/embed/idHVAUEeaqE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">Może się okazać, że mamy dwa rozwiązania. Jeden jest troszkę dłuższy, ale kosztuje mniej, a drugi jest krótszy, ale kosztuje więcej. Teraz pytanie. Które rozwiązanie jest optymalne dla nas. To jest właśnie ten problem, że są dwa rozwiązania i obydwa są optymalne w sensie, że jedno jest najtańsze a drugie jest najszybsze. To są dwa rozwiązania i nie możemy jednoznacznie powiedzieć, że jedno jest lepsze od drugiego. Obydwa są najlepsze w swojej dziedzinie, także są </span><i><span style="font-weight: 400;">Pareto optymalne. </span></i></p>
<p><b>Na czym polega problem z teorii gier </b><a href="https://pl.wikipedia.org/wiki/Dylemat_wi%C4%99%C5%BAnia"><b>dylemat więźnia</b></a><b> (lub uogólniona wersja </b><a href="https://pl.wikipedia.org/wiki/Dylemat_spo%C5%82eczny"><b>dylemat społeczny</b></a><b>)?</b></p>
<p><iframe title="Dylemat więźnia | Czy egoizm się opłaca? - Wojna Idei #41" width="960" height="540" src="https://www.youtube.com/embed/HqTmJsVnTzA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Kolokwialnie się na to mówi, że jest to jest taki problem jak nie być “nabranym w balona”, jak nie być wykiwanym. Posłużę się tutaj takim przykładem. Jeśli na przykład jeździmy pociągami gdzieś w Polsce to może się okazać, że jadąc w pociągu za który zapłaciłem znajdziemy kogoś kto za bilet nie zapłacił. Ten ktoś nie zapłacić, a tak samo przejedzie jak my. Może się okazać, że jak taki człowiek jest pojedynczy to wszystko będzie w porządku. Nikt nie chce być tym takim, jak to się mówi “nabranym w balona”, więc jak ja bym zauważył wiele takich ludzi, stwierdziłbym, po co mam płacić. Przestałbym płacić i też bym jeździł tym pociągiem na gapę, ale jeśliby się okazało, że większa ilości ludzi jeździłaby na gapę, to niestety ten pociąg by albo przestał jeździć, albo nie byłoby pieniędzy na kupienie nowych wagonów, i tak dalej. </span></p>
<p><span style="font-weight: 400;">Na tym polega ten problem więźnia. To znaczy tutaj mamy do czynienia z dwoma więźniami i optymalne rozwiązanie jest takie, żeby ci więźniowie współpracowali. Czyli w przypadku takiego przejazdu pociągiem optymalnym rozwiązaniem jest, żeby każdy płacił nie dużo za bilet. Natomiast drugim rozwiązaniem jest, że nikt nie płaci za bilet. To też jest rozwiązanie, ale wtedy obydwoje wychodzimy na nim jak najgorzej. Najgorsze jest to, podobnie jak w dylemacie więźnia, że przez to, że ludzie sobie nie ufają, nie ufają, że ten drugi człowiek zapłaci za bilet i przez tę ich nieufność też nie płacą. W idealnym świecie każdy by rzeczywiście płacił bardzo małą cenę i miał świetne pociągi, ale w praktyce tak nie jest ponieważ sobie nie ufamy i wybieramy tę opcję w której nie ufamy drugiemu człowiekowi, nie płacimy za bilet, nie ma w ogóle nowych wagonów w pociągu. Ja to mniej więcej tak rozumiem.</span></p>
<p><b>Powiedz troszkę więcej o regułach gry, które zastosowaliście w &#8222;gathering game&#8221;.</b></p>
<p><span style="font-weight: 400;">To była taka gra, w której agenci musieli zbierać jabłka. Sęk w tym, że nie mieli pojęcia, że mają do czynienia z jabłkami, więc tak naprawdę agenci byli zainteresowani zbieraniem zielonych kwadracików, które symbolizowały jabłka. Te kwadraciki, kiedy się je zjadło to się odnawiały. Te jabłka wirtualne wyrastały na nowo po jakimś czasie. W tej grze mieliśmy do czynienia z kilkoma agentami, którzy byli jednocześnie umieszczeni w danym środowisku i uczyli się jak w tym środowisku się zachować, żeby zmaksymalizować swoją funkcję w celu zjedzenia jak największej ilości jabłek. I takie były właśnie reguły. Problem jeszcze był taki, że te epizody w których ci agenci grali były ograniczone. Powiedzmy, że każdy epizod trwał 2 albo 3 minuty i teraz: jak się powinien zachować agent żeby w ciągu tych trzech minut skonsumował jak największą ilość jabłek. Co było ciekawe, agenci mogli też się eliminować z gry na jakiś czas. Mogli wykorzystywać tak zwany laser, przy pomocy którego jeśli dany agent został trafiony, to powiedzmy szedł do kąta na kilka sekund, czyli tracił czas podczas którego mógł zbierać jabłka. Na tym polegały reguły tej gry. </span></p>
<p><b>To jest właśnie esencja tego, dlaczego w ogóle zacząłem o tym mówić. Mi osobiście bardzo spodobały się wyniki. W przypadku jeżeli tych jabłuszek było wystarczająco dużo, to agenci stwierdzali w jakiś tam sposób, że w sumie się nie opłaca używać tego lasera i niższych cen konkurencji, bo po co? I tak jabłuszek jest wystarczająco dużo. Ale z drugiej strony, jak już zaczynało być ich mniej to zaczynali wtedy konkurować i o to walczyć. Mi od razu przypomniała się taka historia, która jakby z jednej strony jest zupełnie o czymś innym, ale przypomina ten sam kontekst. </b></p>
<p><b>Sytuacja miała miejsce w Krakowie. Pamiętam, jak stałem na przystanku i okazało się, że coś się &nbsp;popsuło. Przez pół godziny tramwaje nie jeździły, więc ludzi było coraz więcej, a sytuacja odbywała się rano, przed pracą, studiami. Po chwili tramwaj wreszcie przyjechał, ale jest pełny ludzi. W dodatku drugie tyle czekało na przystanku. Ci ludzie próbują tam wejść i zaczyna się tam dziać nieprzyjemne sytuacje. Krzyki, jakieś szarpaniny, i tak dalej. Ciekawostka tej historii była taka, że wystarczyło podejść trochę dalej, tam gdzie nie było tego zatoru, nie było korku i tam tramwaje kursowały normalnie. Nie ma tam tak dużego tłumu i ludzie są spokojni. </b></p>
<p><b>To dla mnie było takim zaskoczeniem Jeszcze 5 minut temu prawie każdy zachowywał się jak bardzo spokojny i uprzejmy człowiek, a wystarczyło troszkę skomplikować warunki dookoła żeby ludzie zaczęli się zachowywać agresywnie. I w waszym eksperymencie właśnie potwierdziło się coś podobnego. Dla mnie to była mega inspirujące, i pytanie: czy to oznacza, że to jest prawo natury? Czy po prostu tak działa nasz świat?</b></p>
<p><span style="font-weight: 400;">Wydaje mi się, że niestety takie właśnie jest prawo natury, ale z kolei nasz świat nie musi tak działać. Co przez to rozumiem? Chodzi tutaj o to, że można stworzyć pewne protokoły dzięki którym ludzie będą bardziej skłonni żeby, powiedzmy się ze sobą nie szarpać, ale żeby bardziej ze sobą współpracować. Więc te protokoły jak ja je rozumiem: na przykład, jak lecisz samolotem to często linie lotnicze sprzedają więcej biletów, niż jest miejsc w samolocie. Dlaczego to robią? Dlatego, że przeważnie ktoś się spóźnia na samolot, ktoś odwołuję lot i nie chcą żeby samoloty były puste. Ale na czym tutaj polega ta sytuacja tego protokołu? Na tym, że jeśli nie byłoby żadnego protokołu to ci pasażerowie czekający na samolot którzy by się nie dostali do samolotu prawdopodobnie by się pobili, prawda? </span></p>
<p><span style="font-weight: 400;">Ale właśnie w tym przypadku linie lotnicze już dawno wpadły na pomysł żeby wynagradzać tych pasażerów którzy odstępują swój bilet, czyli tych którzy zdecydują się, że poczekają na następny samolot. Kiedy kończyłem doktorat miałem taką sytuację. Właśnie byłem w Seattle, wracałem do Los Angeles, ale pisałem pracę doktorską i też się okazało, że samolot był w całości sprzedany. Nie było miejsca, więc zdecydowałem się odstąpić swój bilet, polecę późniejszym samolotem, popracuję trochę nad pracą doktorską. Okazało się, że dostałem za to darmowy lot na Alaskę na tydzień. Więc jeśli takie protokoły stworzymy w których agenci czy ludzie będą bardziej skłonni aby odstąpić to miejsce, to może się okazać, że nie będzie tej kłótni, albo ci którzy odstąpią, dostaną coś w zamian. Więc tak właśnie jest. Ty na przykład wspomniałeś, że czekałeś na następny tramwaj, więc też odstąpiłeś, poczekałaś, podszedłeś troszkę dalej na następny i w nagrodę był on pusty. Więc tego typu sytuacja. Wydaje mi się, że prawo natury już takie jest. Niestety ci ludzie będą agresywni, będą ze sobą walczyć. Natomiast jak te protokoły się dobrze stworzy, to będą mieli większą </span><i><span style="font-weight: 400;">incentive,</span></i><span style="font-weight: 400;"> czyli większą, jak to się mówi skłonność do tego żeby nie być agresywni, żeby odstępować te rzeczy, bo dostaną coś w zamian.</span></p>
<p><b>Kiedy rozmawialiśmy o multi agentach to wspomniałeś, że idea jest taka aby nie doszło do sytuacji kiedy pojawia się jeden, taki sztuczny dyktator, tylko żeby jednak ci agenci współpracowali ze sobą. Zastanawiam się, czy ten protokół o którym teraz mówisz, czy w nim chodzi o aspekt wytworzenia się sztucznego społeczeństwa? Myślę, że tak mogę to nazwać. Czy ten protokół będzie dyktowany w tym przypadku? Czy też chodzi po prostu o ludzi. Czy jakoś to można przenieść na życie prostych ludzi?</b></p>
<p><span style="font-weight: 400;">Szczerze nie wiem, jak jest z tym protokołem. Fajnie go stworzyć jak mamy do czynienia z konkretnym problemem, na przykład problem przelotu samolotem i overbookingu. Natomiast jeśli chodzi o generalne podejście to jest troszkę trudniej. Mamy tutaj w DeepMind pewne bardzo ciekawe badania odnośnie protokołów dla agentów, którzy są wynagradzani, jeśli rozwiązania które oni proponują są bardziej egalitarne, czyli jeśli nie ma tej ogromnej różnicy pomiędzy bogactwem agentów, więc da się zmodyfikować tę funkcję celu, żeby agenci starali się taką strategię wybierać w której nie ma takiego ogromnego rozstrzału pomiędzy tym bogactwem agentów. Są oni w miarę równi, więc wydaje mi się, że jest możliwość zaproponowania takich agentów, którzy we własnej funkcji celu mają wbudowany taki system w którym są wynagradzani za to, żeby nie dochodziło do takich ogromnych różnic między dyktatorem a resztą. Oczywiście, da się tak to zmodyfikować. Jest możliwość stworzenia takiego systemu agentów, który będzie bardziej egalitarny, mniej dyktatorski. Natomiast czy ten system później się nie przeprogramuje? Tego już nie wiemy, ale da się stworzyć takie właśnie protokoły, które są bardziej generalne i prowadzą do agentów którzy są mniej skłonni aby być dyktatorami. </span></p>
<p><b>Wprowadziliście pojęcie “sequential social dilemmas”, wyjaśnij proszę co to jest?</b></p>
<p><span style="font-weight: 400;">W klasycznej teorii gier mamy do czynienia z taką matrycą gry. Jest taka jedna gra, w której agenci podejmują w tym samym czasie jedną decyzję i to wszystko. Natomiast to rzadko oddaje rzeczywistość. W rzeczywistości jest troszkę inaczej. Są agenci, którzy podejmują jedną decyzję która zmienia trochę środowisko. To prowadzi do nowej konfiguracji i agenci znowu podejmują jakąś decyzję. Potem następuje kolejny krok i kolejny. Powstaje cała sekwencja decyzji. Taka sekwencja jest o tyle ciekawa, że pierwsza decyzja niekoniecznie jeszcze mówi o tym czy ci agenci ze sobą współpracować, czy może ze sobą będą konkurować. Może się okazać, że dopiero przy setnej czy tysięcznej decyzji wychodzi na jaw, że ta strategia jest konkurencyjna. Dla przykładu mamy taki problem. Po angielsku mówi się na to </span><i><span style="font-weight: 400;"><a href="https://en.wikipedia.org/wiki/Tragedy_of_the_commons">tragedy of the commons</a>, </span></i><span style="font-weight: 400;">czyli tragedia wspólnoty.</span></p>
<p><iframe title="What is the tragedy of the commons? - Nicholas Amendolare" width="960" height="540" src="https://www.youtube.com/embed/CxC161GvMPc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;"> Jest to taka ciekawa rzecz w której agenci mogą podjąć decyzje, że zbierają i zjadają jakieś zasoby. Cały czas wszystko jest dobrze. Nauczą się żeby zjadać zasoby i to będzie optymalna strategia, natomiast jak wprowadzimy sekwencyjność, to będziemy widzieli, że po jakimś czasie, jeśli powiedzmy przez 10 kolejnych epok, albo dni, albo miesięcy ci agenci cały czas zjadają wszystkie dostępne zasoby, to tych zasobów może zabraknąć w systemie.</span></p>
<p><span style="font-weight: 400;">Może ich być zbyt mało aby ten system się odnowił. Dla przykładu: &nbsp;mamy jakiś sad i w tym sadzie możemy zjadać wszystkie jabłka. Możemy na raz, w ciągu jednego dnia zjeść wszystkie jabłka. Wszyscy się świetnie najedzą, natomiast nie będzie możliwości żeby ten sad się odnowił. Wprowadzenie tej sekwencyjności pozwala nam na przeanalizowanie o wiele bardziej ciekawych problemów w których dopiero po którymś tam kroku zmienia się środowisko. To są bardzo ciekawe rzeczy i one są bardzo widoczne właśnie w naszym codziennym życiu, ponieważ jak weźmiemy taki problem więźnia, to niekoniecznie przekłada się on od razu na rzeczywistość. Natomiast taki sekwencyjny problem, czy powiedzmy ten </span><i><span style="font-weight: 400;">tragedy of the commons,</span></i><span style="font-weight: 400;"> czy też problem szukania zasobów w danym środowisku, albo wspólnego polowania na kogoś, tego typu problemy powodują, że mamy do czynienia z sekwencyjnością, ale dalej interesujemy się takimi właśnie problemami społecznymi w których mamy sekwencję wydarzeń.</span></p>
<p><b>Kolejna rzecz, która przykuła moją uwagę, to jak badaliście jakie czynniki wpływają na to, że agenci chcą współpracować. Powiedz trochę więcej o wynikach tego badania.</b></p>
<p><span style="font-weight: 400;">Mieliśmy taką jedną grę która była nazywana </span><i><span style="font-weight: 400;">“Stag-hunt”. </span></i><span style="font-weight: 400;">To jest coś w stylu takiego wspólnego polowania. Tam, na przykład zauważyliśmy, że agenci którzy byli w środowisku w którym musieli znaleźć daną ofiarę i na nią polować szybko przekonali się, że pojedynczo ciężko jest zapędzić tę ofiarę do rogu mapy. Bardzo szybko się nauczyli, że muszą ze sobą współpracować, czyli musi być dwóch albo trzech agentów, którzy będą koordynować swoje ruchy tak, żeby zapędzić ofiarę czy jakąś owieczkę, czy jakiegoś innego agenta do rogu, i potem, powiedzmy go skonsumować, czy dostać jakąś nagrodę. Szkoda, że jak skonstruujemy tak środowisko w którym pojedynczy agent nie będzie dostawał nagrody jeśli sam będzie jakiś cel próbował osiągnąć. Powiedzmy, jeśli sam będzie próbował na kogoś polować, a tak to skonstruujemy, że potrzeba jest więcej agentów, to ci agenci mają możliwość żeby się nauczyć właśnie ze sobą współpracować. Co jest ciekawe, prowadziliśmy dosyć podobne badania &nbsp;jeszcze w Kalifornii ze współpracą z departamentem straży pożarnej w Los Angeles, w którym trenowaliśmy takich głównodowodzący operacją gaszenia pożarów, gdzie mają wysyłać jednostki straży pożarnej. </span></p>
<p><span style="font-weight: 400;">Mieliśmy taki symulator, taką grę komputerową i właśnie ci głównodowodzący bardzo szybko się uczyli. Nie wysyłali wszystkich jednostek do różnych pożarów, tylko koncentrowali to. Czyli koncentrowali wiele straży pożarnych na jednym pożarze. Potem przechodzili do następnego. Ten system wieloagentowy jest w stanie się nauczyć takiej samej strategii, jaką się posługiwał głównodowodzący straży pożarnej w Los Angeles. Właśnie takiej, aby wspólnie te jednostki wysyłać do jednego pożaru. Jeśli się stworzy środowisko dosyć dobrze, to można zacząć obserwować tę współpracę agentów. W tym przypadku jest to albo współpraca tych jednostek straży pożarnej, które razem gaszą pożary, albo współpraca takich, powiedzmy wilków, które chcą zapędzić do rogu owcę i ją pożreć.</span></p>
<p><b>Czy myślisz że uda się stworzyć coś takiego, żeby środowisko w którym ta sztuczna inteligencja będzie istnieć, będzie zmuszało ją do współpracy w ten czy inny sposób? Cały czas podkreślałeś słowo środowisko. Żeby odpowiednio je (środowisko) skonstruować, to agenci szybko się zorientują, że muszą jednak współpracować. Czy ja dobrze myślę, że to jest jeden ze sposobów, jak nawet inteligentny system, który może być mądrzejszy niż my, ludzie, będzie nadal pod kontrolą, bo musi współpracować między sobą?</b></p>
<p><span style="font-weight: 400;">Masz rację, tak, ale &nbsp;jeszcze bym to troszeczkę rozwinął. To znaczy, jeśli budujemy system generalnej sztucznej inteligencji i ten system żyje w jakiejś symulacji, w jakiejś wirtualnej maszynie, wirtualnej maszynie, wirtualnej maszynie na komputerze, to nawet jeśli nie będziemy w stanie go kontrolować, to w najgorszym wypadku przejmie całą pamięć w danej maszynie wirtualnej, czyli wszystko skonsumuje, ale to żaden problem. Problem pojawia się dopiero wtedy, kiedy chcemy taki system na sztucznej inteligencji generalnej wypuścić na zewnątrz, a to co bardzo fajnie tutaj robimy w DeepMindzie, to jest to, że próbujemy ten problem zaatakować z dwóch stron. </span></p>
<p><span style="font-weight: 400;">To znaczy, z jednej strony mamy niesamowity nacisk na te światy wirtualne. Wszyscy nasi agenci żyją wirtualnie w tych światach, więc to są bardzo bezpieczne światy z których ci agenci się nie mogą wydostać, bo nie wiedzą, że żyją w ogóle w symulacji, a z drugiej strony mamy niesamowicie dużo badań naukowych odnośnie tego jak zrobić żeby to środowisko zmodyfikować w punkcie celów, lub agentów, żeby ci agenci zaczęli być altruistyczni, żeby współpracowali ze sobą, i tak dalej, Ale to nie jest oczywiste. To jest tak, że obserwuje się agentów, oni się uczą żeby zachłannie coś robić i po chwili nie ma koordynacji. Więc trzeba krok po kroku zmieniać funkcje celu, zmieniać środowiskom zmieniać te parametry, zmieniać te, protokoły, żeby ci agenci ucząc się dla nich optymalnej strategii sami na to wpadli że najwięcej osiągną, jak będą ze sobą współpracowali, kiedy się nie będa eliminowali. Próbujemy ten problem atakować z dwóch stron.</span></p>
<p><span style="font-weight: 400;"> Z jednej strony cały czas budując te &nbsp;bardzo realistyczne światy wirtualne, żeby ci agenci się nie wydostali, a z drugiej strony właśnie robiąc ogromne analizy, co się stanie właśnie w systemie agentowym, jak zmienimy funkcję w celu, jak zmienimy parametry środowiska, zmienimy protokoły, żeby znaleźć właśnie te protokoły, które są generalne i które powodują, że agenci ze sobą współpracują. To się da znaleźć i próbujemy to robić. </span></p>
<p><b>Zajmujesz się tematami związanymi z ogólną sztuczną inteligencją </b><b><i>(general AI), lub AGI. </i></b><b>Bardzo ciekawy jestem, jak definiujesz czym jest ten </b><b><i>AGI,</i></b><b> a najciekawsze jest to, jak zrozumiemy albo poznamy, że udało się już osiągnąć ten poziom?</b></p>
<p><span style="font-weight: 400;">Zawsze się mówiło, że będziemy mieli test Turinga i na podstawie testu Turinga zorientujemy się, że osoba z którą rozmawiamy nie jest biologiczną osobą, tylko jest agentem. Na przykład, jeśli nie będziemy w stanie tego zrozumieć to się okazuje, że mamy już tę generalną sztuczną inteligencję. Dla przykładu, teraz ze mną rozmawiasz i pytanie, czy ja jestem już tą sztuczną inteligencją, czy nie, i czy Cię już przekonałem, że nie jestem agentem tylko osobą biologiczną. Jednym z takich testów jest właśnie taka rozmowa, która może trwać 10, 15, 20 minut, na podstawie której sędziowie mogą stwierdzić, czy ten system rzeczywiście już jest inteligentny, że jest nierozróżnialny od człowieka. Okazuje się, że ten test prawdopodobnie przejdziemy zanim będziemy mieli taką generalną sztuczną inteligencję. Przywołam tutaj film, który mi się bardzo podoba. </span></p>
<p><span style="font-weight: 400;">Wiele razy go oglądałem. “Ex Machina” z roku 2014 albo 2015. W tym właśnie filmie jest podany przykład, jak możemy zweryfikować, czy już mamy tą generalną sztuczną inteligencję. I to nie jest tylko rozmowa. To jest pytanie, czy ten system jest w stanie naśladować ludzkie odruchy, emocje, przekonywanie, kłamanie, i tak dalej. Wydaje mi się, że test Turinga sam w sobie to był dobry początek, ale żebyśmy mieli pewność, że już mamy taką generalną sztuczną inteligencję, to musimy zrobić coś, co było wcześniej przedstawione w tym filmie “Ex Machina”. Czyli po prostu musimy mieć takiego agenta, który pokazuje, że potrafi nie tylko rozmawiać, ale również kłamać, oszukiwać, symulować. Tego jeszcze nie mamy, ale wydaje mi się, że w pewnym momencie jeśli ktoś będzie twierdził, że już ten algorytm posiada do generalnej sztucznej inteligencji, to trzeba będzie ten algorytm przetestować, a sam test Turinga nie wystarczy. Potrzeba będzie coś bardziej skomplikowanego.</span></p>
<p><iframe title="Ex Machina&#039;s Hidden Meaning" width="960" height="540" src="https://www.youtube.com/embed/V85VqlVptWM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Na ile szybko przesuwamy się w kierunku tego poziomu? Powiedzmy, jeśli mielibyśmy porównać naszą wiedzę o 5 lat wstecz do tej, którą mamy obecnie?</b></p>
<p><span style="font-weight: 400;">Zawsze jest tak, że jak ktoś robi taki sondaż i pyta się naukowców: kiedy to będziemy mieli tą generalną sztuczną inteligencję, to średnia odpowiedź brzmi 20 lat. Dlaczego? Dlatego, że jak jest powyżej 20 lat, to już mało kogo to interesuje, a jak jest mniej niż 20 lat, to istnieje ryzyko, że ten który robi przepowiednie pomyli się. Więc to jest taka ciekawa rzecz, że mimo to, że pytaliśmy naukowców w roku 1990, 2000 kiedy to będziemy mieli i zapytamy dzisiaj, to średnio wszyscy mówią dalej 20 lat. To się nie zmienia. Co się za to zmienia, na przykład Ray Kurzweil, który przez całe życie zajmuje się prognozą procesów technologicznych, prognozą postępów nauczania maszynowego, sztucznej inteligencji, on na przykład śledzi to od wielu, wielu lat i mówi, że w latach 90 średnia wynosiła 50 lat, teraz średnio wynosi to około 20 lat, ale co jest ciekawe, jak próbujemy tą średnią zbadać, to naukowcy patrzą liniowo, czyli jeśli postęp będzie taki jak jest dzisiaj, to to nastąpi powiedzmy za 50 lat. Jak się ich zapytamy dzisiaj kiedy to będziemy mieli, to mówią to samo. Będzie to za 20 lat zakładając dzisiejszy postęp technologiczny, ale zakładając, że ten postęp technologiczny idzie cały czas do przodu, czyli przyspiesza. </span></p>
<p><iframe title="Ray Kurzweil: Future of Intelligence | MIT 6.S099: Artificial General Intelligence (AGI)" width="960" height="540" src="https://www.youtube.com/embed/9Z06rY3uvGY?start=106&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">To może nastąpić szybciej. W ogóle, na przykład co mnie zszokowało ostatnio. Ray Kurzweil, który jest właśnie dyrektorem </span><i><span style="font-weight: 400;">Google Brain</span></i><span style="font-weight: 400;"> sprecyzował, że nastąpi to za 11 lat. To są oczywiście przepowiednie. To może być 100 lat, może być 50, 20, ale to, że osoba która cały czas śledzi te procesy technologiczne podejmuje się takiego ryzykownego zadania, żeby przepowiedzieć coś za 11 lat, to już o czymś świadczy. Jeśli chodzi o mnie, wydaje mi się, że możemy mieć to za szybciej niż 20 lat. Podejrzewam około 10 lat, z tym że nie sądzę, że do tego dojdziemy z wykorzystaniem aktualnych narzędzi, które mamy. Wydaje mi się, że to nas może nawet trochę spowalniać.</span></p>
<p><b>Właśnie to jest rzecz, o którą też chcę zapytać. Czyli o obecne algorytmy, ten słynny deep learning, ewentualnie </b><b><i>reinforcement learning.</i></b><b> Co powinno się stać żeby ten </b><b><i>AGI </i></b><b>udało się osiągnąć? Jak Ty to widzisz?</b></p>
<p><span style="font-weight: 400;">Tutaj akurat nie ma konsensusu. To znaczy, naukowcy uważają że wystarczy przeskalować narzędzia, które mamy na większej ilości danych, na największej ilości problemów i wtedy dojdziemy do tej sztucznej inteligencji generalnej. To może być prawda. Ja osobiście uważam, że nie, że do tego nie dojdziemy. Przez wiele problemów, o których właśnie piszę teraz w nowej publikacji. Uważam, że nie mamy jeszcze tego algorytmu. To, co mamy dzisiaj, czyli właśnie ten </span><i><span style="font-weight: 400;">deep learning,</span></i> <i><span style="font-weight: 400;">machine learning.</span></i><span style="font-weight: 400;"> Mamy systemy, które bardzo fajnie dopasowują pewne funkcje do danych treningowych, czyli mamy systemy, które można wytrenować. Mamy aproksymatory. Aproksymatory, które są w stanie zaproksymować pewien problem. Na przykład, mogą zaproksymować problem wkładania wtyczki do gniazdka i różne tego typu rzeczy. Wydaje mi się, że nie mamy algorytmu takiej prawdziwej sztucznej inteligencji, a próbujemy stosować niesamowicie silne aproksymatory żeby przybliżać pewne funkcje kognitywne, więc w teorii wystarczy przybliżyć setki tysięcy różnych funkcji kognitywnych i będziemy mieli sztuczną inteligencję generalną. </span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">W praktyce jednak okazuje się, że może po prostu do tego za mało danych i jest to nieefektywne podejście. </span></p>
<p><span style="font-weight: 400;">Ja osobiście uważam, że narzędzia które są świetne, są to niesamowite narzędzia, które się przyczynią do postępu w medycynie, i tak dalej. One niestety nie wystarczą, według mnie oczywiście do tej generalnej i sztucznej inteligencji. Ja właśnie próbuję to rozwiązać stosując coś zupełnie innego dlatego, że nie mam wiary w te narzędzia z których korzystamy, ponieważ widzę jakie są ich ograniczenia. Natomiast o tych ograniczeniach nie zawsze się mówi. Przeważnie widzimy jakiś system, który nauczył się robić to, albo wykrywa raka na zdjęciach. </span></p>
<p><span style="font-weight: 400;">Dzisiaj przeczytałem artykuł o systemie, który lepiej analizuje tak zwane </span><i><span style="font-weight: 400;">non-disclosure agreement.</span></i><span style="font-weight: 400;"> Jest on dokładniejszy od prawników. Cały czas widzimy te rzeczy, ale nie widzimy tych ograniczeń. A jeśli byśmy się naprawdę skupili na ograniczeniach, to moglibyśmy stracić wiarę, że właśnie tym podejściem dojdziemy do generalnej sztucznej inteligencji. Wielu się ze mną zgadza. Na przykład Ray Kurzweil, który jest dyrektorem w Google Brain, albo Jeff Hawkins, który jest założycielem Palm Computing.</span></p>
<p><iframe title="Jeff Hawkins: How brain science will change computing" width="960" height="540" src="https://www.youtube.com/embed/G6CVj5IQkzk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Wydaje mi się, że ludzie którzy już dużo osiągnęli w tej dziedzinie, jak Ray albo Jeff, którzy są w sumie niezależni, którzy są już znani na świecie, raczej próbują robić coś zupełnie innego. Jeśli chodzi o inne podejścia, wydaje mi się, że są to młodsi naukowcy, którzy chcą się wykazać. Staramy się robić to, co jest bardziej sprawdzone, dlatego jesteśmy jeszcze trochę sceptycznie nastawieni do tego, że rozwiążemy ten problem z wykorzystaniem aktualnych narzędzi. Nawet ostatnio czytałem artykuł, w którym było wspomniane, że powinniśmy od nowa zacząć badania na temat sztucznej inteligencji. Jak tego typu sławni ludzie i ojcowie sztucznej inteligencji o tym piszą, to daje do myślenia, mimo iż ogromne fundusze są na to przeznaczane, artykuły w gazetach, w telewizji, wszyscy wieszczą, że będzie koniec świata, to jednak założyciele tego fieldu AI, oni robią coś innego. Podobnie ja próbuję czegoś zupełnie innego ponieważ uważam, że jest taka potrzeba.</span></p>
<p><b>Bardzo interesujące i bardzo konkretne. Będzie to na pewno wartościowe dla wielu osób. A co do słynnych osób, Yann Lecun w swoich ostatnich prezentacjach dość często wspomina, że uczenie nienadzorowane ma zdecydowanie większy potencjał niż jest wykorzystywany teraz i to jest kierunek przyszłościowy. Jaka jest Twoja opinia na ten temat?</b></p>
<p><iframe title="RI Seminar: Yann LeCun : The Next Frontier in AI: Unsupervised Learning" width="960" height="540" src="https://www.youtube.com/embed/IbjF5VjniVE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Jak najbardziej. Całkowicie się zgadzam z Yannem. Może jeszcze dodam, że ja już się w ogóle nie zajmuje systemem </span><i><span style="font-weight: 400;">supervised</span></i><span style="font-weight: 400;">, czyli wszystko jest nienadzorowane. Ludzie się uczą też uzupełnienie nienadzorowani. Czasem się uczą z wykorzystaniem przykładów, ale przeważnie to jest uczenie się nienadzorowane. Dodam jeszcze, że ja osobiście zajmuje się systemami, które są dyskretne, czyli to nie są systemy różniczkowalne, którymi wszyscy się zajmują. To nie jest dopasowywanie funkcji ciągłej do danych, tylko są to systemy dyskretne. Więc uważam, że duży potencjał leży w systemach, które uczą się właśnie bez tego nadzoru, to po pierwsze, a po drugie systemy, które są dyskretne dlatego, że jak mamy system, który jest różniczkowalny, to możemy go wytrenować, ale też musimy dopasować tę funkcję w danych i ta funkcja musi być ciągła. Nie każda funkcja jest ciągła, więc mam dużą wiarę w systemy dyskretne i uważam, że właśnie w tym tkwi sedno. </span></p>
<p><span style="font-weight: 400;">Według mnie procesy myślowe, które zachodzą w mózgu jesteśmy w stanie symulować z wykorzystaniem procesów dyskretnych, a co jest jeszcze ciekawe, jak mamy procesy dyskretne, to w ogóle nie wykorzystujemy na przykład tego </span><i><span style="font-weight: 400;">gradient descent,</span></i><span style="font-weight: 400;"> czyli nie wykorzystujemy metody planowania sieci, którą każdy wykorzystuje i nie musimy wpadać w pułapkę, która jest generowana właśnie przez tego typu algorytm. Na przykład, nie musimy mieć modelu, który jest różniczkowalny. Nie musimy zakładać wielkości tego modelu, ponieważ niczego nie będziemy różniczkowali. Możemy zrobić tak, żeby były tylko aproksymowane. Więc w dużym skrócie, jak najbardziej się zgadzam z Yannem. Ciekawym jest to, że Yann był szefem Facebook Research, a od pewnego czasu już nie jest. Wrócił na uniwersytet. Czyli on też widzi, że coś jest jeszcze do zrobienia. Nie tylko systemy, które się uczą bez nadzoru</span><i><span style="font-weight: 400;">,</span></i><span style="font-weight: 400;"> tylko też systemy, które są dyskretne. Wydaje mi się, że analiza procesów dyskretnych nie jest teraz popularna, gdyż jest trudna, jest bardzo mało intuicji geometrycznych. </span></p>
<p><span style="font-weight: 400;">Więc aktualnie olbrzymi nacisk kładziony jest na systemy różniczkowalne z intuicją geometryczną, aproksymatory, ponieważ widzimy tę strukturę funkcji, którą musimy aproksymować tej funkcji ciągłej, ale niestety wydaje mi się, że musimy wejść na głęboką wodę, czyli systemy które nie mają tego </span><i><span style="font-weight: 400;">supervisor&#8217;a, </span></i><span style="font-weight: 400;">tego nadzoru i są systemami dyskretnymi. Tego typu system i automaty komórkowe dyskretne, to jest naprawdę ciężka sprawa, ale moim zdaniem one są przyszłością. </span></p>
<p><b>Ciekawy jestem jeszcze Twojej opinii o kolejnym zagadnieniu, czyli zastosowania tak zwanego uczenia ze wzmocnieniem albo </b><b><i>reinforcement learning.</i></b><b> Pytanie jest następujące: Jak myślisz, czy to rozkwitnie w ciągu najbliższych 5-10 lat i będzie używane gdzieś w rzeczywistości? Aktualnie jest dużo publikacji, które coraz częściej się pojawiają na konferencjach, na prezentacjach, ale prawie nie ma takich prawdziwych wdrożeń na produkcję. Czy to się zmieni</b><span style="font-weight: 400;">?</span></p>
<p><span style="font-weight: 400;">Osobiście uważam, że będzie niesamowity postęp z tego typu algorytmami wykorzystywanymi w grach komputerowych. Naprawdę, to zawsze w grach komputerowych mamy do czynienia z nieograniczoną ilością danych treningowych, z symulatorem, z pewnego rodzaju zamkniętym środowiskiem, i w tego typu właśnie środowiskach zamkniętych, które możemy symulować, w których jest mnóstwo danych treningowych, w tego typu środowiskach, systemy </span><i><span style="font-weight: 400;">deep reinforcement</span></i><span style="font-weight: 400;"> potrafią świetnie działać. Jeśli teraz chodzi o to, o co pytasz, czy zobaczymy jakieś zastosowanie w świecie rzeczywistym? Podejrzewam, że tak, ale nie od razu. Dlatego, że transferowalność tych rozwiązań z jednej dziedziny do drugiej nie jest trywialna. To znaczy, jak wytrenujemy system, na przykład w symulatorze żeby jeździł samochodem i potem ten sam system wstawimy do samochodu i będziemy jeździć normalnie po drodze, to nie jest oczywiste, że on się będzie dobrze zachowywał. To prawda, że jest to czasem nieintuicyjne, ale tam są pewnego rodzaju problemy, na przykład ten system może nie do końca transferować swoją wiedzę. Jeśli chodzi o zastosowania, to na pewno będziemy mieli takowe.</span></p>
<p><iframe title="MIT 6.S094: Deep Reinforcement Learning" width="960" height="540" src="https://www.youtube.com/embed/MQ6pP65o7OM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Już mamy </span><i><span style="font-weight: 400;">deep reinforcement learning </span></i><span style="font-weight: 400;">w takiej dziedzinie jak, na przykład finanse. W finansach mamy do czynienia z ogromną ilością danych, z rynkiem finansowym w którym możemy mieć symulatory. Tam ci agenci mogą się uczyć jak handlować, co sprzedawać, co kupować. Na przykład wiemy, że w zeszłym roku JPMorgan Chase wytrenował agenta, który tam sobie grał i optymalnie wykonywał pewną egzekucję na transakcje finansowe. Te systemy już w rzeczywistości są w świecie finansowym. Jeśli chodzi o inne dziedziny, to transferowalność jest dużym problemem. W ogóle transferowalność tych rozwiązań z jednej dziedziny do drugiej, i przez to nie wiem czy będziemy mieli od razu takie spektakularne wyniki jakie mamy bez tego </span><i><span style="font-weight: 400;">reinforcement learning</span></i><span style="font-weight: 400;">. Z reinforcement learningiem jest też taki problem, że te systemy potrzebują strasznie dużo danych treningowych i to jest właśnie bolączką tych systemów. Jeśli tych danych treningowych nie ma, to wtedy w świecie rzeczywistym możemy nie mieć tylu tych danych treningowych i te systemy nie będą się rozwijać. </span></p>
<p><span style="font-weight: 400;">Dla przykładu podam taką rzecz z książki “The Book of Why”, Judea Pearl’a. On tam podaje przykład, czy da się w ogóle wytrenować agenta, który będzie rozwiązywał problem wyciągnięcia pończochy ze szprych koła w rowerze. To jest prosta rzecz. Jak ja bym pokazał jak to zrobić, na przykład Tobie, to byś popatrzył na te szprychy, popatrzyłbyś na tę pończochę i byś to wyciągał. Jeśli weźmiemy takiego agenta </span><i><span style="font-weight: 400;">deep reinforcement learning</span></i><span style="font-weight: 400;">, to musiałbyś go wytrenować na ogromnej ilości zadań typu: wyciągnij pończochę z roweru. Niekoniecznie tego typu zadania będziesz miał pod ręką, więc to jest ten problem, że mamy zawężone środowisko. Na przykład, handlowanie akcjami z użyciem systemu </span><i><span style="font-weight: 400;">deep reinforcement learning</span></i><span style="font-weight: 400;"> działa już dzisiaj. One są już w świecie rzeczywistym i operują ogromną ilością pieniędzy. Jeśli chodzi o przykładowo jazdę autem, możemy wytrenować system, który będzie świetnie jeździ autem w bardzo realistycznej grze komputerowej. Na przykład Grand Theft Auto 5. </span></p>
<p><span style="font-weight: 400;">Czy ten system będziesz świetnie jeździł w rzeczywistości? Podejrzewam, że w 99% przypadków tak, ale pozostaje ten jeden procent, ten nieszczęśliwy 1% albo jedna dziesiąta procenta, albo jedna setna, która będzie będzie powodowała, że będziemy chcieli tego człowieka mieć koło siebie. To jest ten problem. W dużym skrócie: te systemy </span><i><span style="font-weight: 400;">deep reinforcement learning</span></i><span style="font-weight: 400;"> już są stosowane w świecie rzeczywistym, np. w handlowaniu. Próbują być stosowane przy </span><i><span style="font-weight: 400;">self-driving cars</span></i><span style="font-weight: 400;"> z różnymi rezultatami i poczekajmy i zobaczymy. Wydaje mi się, że jak mamy z symulator z ogromną ilością danych, to w tym przypadku te systemy mogą działać. Natomiast jak symulatora nie mamy, nie mamy dużej ilości danych, to tego systemu nie wytrenujemy na różnych wariacjach i przez to transferowalność może nie działać. </span></p>
<p><b>Wygląda na to, że </b><b><i>reinforcement learning</i></b><b> już można zacząć stosować tylko wymaga troszkę innych umiejętności niż taki klasyczny ML. Jakie są twoje najbardziej bolesne porażki z uczeniem maszynowym, lub innymi słowy, na co należy uważać?</b></p>
<p><span style="font-weight: 400;">Wydaje mi się, że największym problemem jest wyciąganie przedwcześnie pochopnych wniosków, typu: czego dany system się nauczył i co już potrafi zrobić. Próba generalizowania rezultatów jest największym problemem. Na przykład, weźmiemy sobie system, który gra w jakąś grę komputerową. Na przykład w taką grę </span><i><span style="font-weight: 400;"><a href="https://medium.com/@dhruvp/how-to-write-a-neural-network-to-play-pong-from-scratch-956b57d4f6e0">Pong</a>.</span></i><span style="font-weight: 400;"> Można wyciągnąć taki wniosek, że system się nauczył grać w tę grę. Jednak tak naprawdę ten system się nauczył wykonywać optymalną akcje na podstawie konfiguracji kilku punktów na ekranie. On się nie nauczył gry w </span><i><span style="font-weight: 400;">Pong.</span></i><span style="font-weight: 400;"> On się nauczył wykonywać optymalną akcje na podstawie danych wejściowych, które są ściśle zdefiniowane. Dużym problemem jest to, jak próbujemy to generalizować. Czyli mówimy, że ten system nauczył się na przykład jeździć autem po jakieś autostradzie w Phoenix w Arizonie, i wtedy generalizujemy, że mamy już samoprowadzący się samochód. To nie jest prawda. Ta pułapka jest tym największym problemem, że próbujemy wyciągać pochopne wnioski odnośnie tego, czego system się nauczył. Czasem nawet nie wiemy czego się nauczył. Czasem jest tak, że wyciągamy takie wnioski, że nauczył się, powiedzmy rozumować, nauczył się abstrakcyjnego myślenia, nauczył się planować, a on może na przykład tego nie umie. On może tylko znaleźć jakiś punkt, jakieś piksel na podstawie którego podejmuje dobrą decyzję i nam się wydaje, że czegoś się nauczył. Trzeba być ostrożnym przy analizowaniu czego system się już nauczył. Generalizacja jest wielką pułapką. </span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">W takim dużym skrócie, to jest największa bolączka.</span></p>
<p><b>Czy masz jakąś taką <em>check listę</em>? To znaczy, w jaki sposób próbujesz sam siebie dopytywać, czy to rozwiązanie, które mi się wydaje faktycznie, że jest już rozwiązaniem, czy tylko jednym konkretnym przypadkiem. Kiedy model działa dobrze? Jakie pytania sobie zadajesz, żeby upewnić się, że to co udało się osiągnąć faktycznie jest tym czym się wydaje?</b></p>
<p><span style="font-weight: 400;">Masz na myśli pewne rozwiązanie </span><i><span style="font-weight: 400;">deep reinforcement learning</span></i><span style="font-weight: 400;">?</span></p>
<p><b>Bardziej mi chodzi o sposób myślenia. Teraz powiedzmy czytają to osoby, które też wdrażają takie rozwiązania i patrzą na przykład na metrykę sukcesu. Może im się wydawać, że to działa dobrze. Bardzo się cieszą, wrzucają taki model na produkcję, i tak dalej. Jak być jeszcze takim bardziej pragmatycznym? Jakie pytanie warto sobie jeszcze raz zadać, żeby się potem nie oparzyć?</b></p>
<p><span style="font-weight: 400;">Wydaje mi się, że nie powinniśmy stosować tego samego zbioru testowego wielokrotnie. Podam dla przykładu: mamy stworzyć system, który rozpoznaje cyfry, czyli zbiór treningowy </span><a href="http://yann.lecun.com/exdb/mnist/"><span style="font-weight: 400;">MNIST</span></a><span style="font-weight: 400;"> i on jest podzielony na dwie części: na część treningową i część testową. Część treningowa składa się z 50000 liczb, a część testowa z 10000 liczb. </span></p>
<p><iframe title="Neural Network 3D Simulation" width="960" height="540" src="https://www.youtube.com/embed/3JQ3hYko51Y?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Co się okazuje? Trenujemy jakiś system. Testujemy różnego rodzaju konfiguracje tej sieci neuronowej, różne hyperparametry, jedne, drugie, trzecie. Za każdym razem trenujemy to na tym zbiorze treningowym, a potem uruchamiamy na zbiorze testowym i patrzymy jak się zachowuje. To jest nieuczciwe dlatego, że my optymalizujemy go pod kątem danego zbioru testowego. Nawet jak sieć tego nie widziała. Przez to, że robimy analizę i przeszukiwanie tych hyperparametrów, </span><span style="font-weight: 400;">i możemy jednocześnie sprawdzać dziesiątki tysięcy modeli, każde z nich jest trenowane na zbiorze treningowym po to, żeby wybrać ten jeden, który się najlepiej zachowuje na zbiorze testowym. Tak naprawdę, mamy do czynienia z takim timingiem, w którym ta sieć jest wytrenowana pod kątem tego danego zbioru testowego, i to jest ta pułapka. Jak już budujemy jakiekolwiek zaawansowane systemy, które chcemy wdrożyć w produkcji, to nie róbmy tego tak, że mamy jakiś zbiór testowy i analizujemy różnego rodzaju konfiguracje sieci danych treningowych, a potem patrzymy jak się zachowują na zbiorze testowym i wybieramy najlepszy. Zbiór testowy powinniśmy testować tylko na jednym problemie</span></p>
<p><b>Super! Taka bardzo prosta, ale mega trafna wskazówka. Jeszcze pytanie bardziej już takie wizjonerskie. Jak myślisz, jak ten świat w którym żyjemy teraz może się zmienić w ciągu najbliższych 5-10 lat? Troszkę o tym już wspomniałeś, ale chciałbym żebyś wszystko jeszcze raz podsumował. </b></p>
<p><span style="font-weight: 400;">Gdziekolwiek nie patrzę jak czytam jakieś artykuły w gazetach czy w internecie, jest taka wizja, że ta sztuczna inteligencja jest tuż za rogiem i wszystkie prace znikną, albo będzie ogromne bezrobocie. Ja osobiście nie jestem przekonany, że tak zaraz będzie gdyż widzę, jakie są ograniczenia tych systemów, które mamy, i przez te właśnie ograniczenia, w ciągu najbliższych 5 i 10 lat nie sądzę żeby znikły wszystkie te prace dookoła. Nawet nie widzę żebyśmy mieli samochody, które same się sterują. Wydaje mi się, że tej technologii nie mamy, więc ja bym nie był takim pesymistą, że nagle będą załamania społeczne, bezrobocie. Natomiast co się może zmienić, to ogromny postęp w medycynie. Dlaczego o tym wspominam? Prowadzę badania naukowe wykorzystujące sieci neuronowe rekurencyjne do predykcji, na przykład zwijania białek i to pozwala i dzięki temu jesteśmy w stanie szybciej zasymulować jak dane białka się będą zawijały, właśnie z wykorzystaniem sieci neuronowej i jednocześnie przyspieszyć proces badania, czy dane białko doprowadzi do czegoś pozytywnego. Na podstawie tego jesteśmy w stanie o wiele szybciej generować i próbować różnego rodzaju leki, więc wydaje mi się, że postęp w medycynie będzie teraz niesamowity. Właśnie przez to, że będziemy w stanie badać o wiele większą ilość różnych leków o wiele szybciej właśnie z wykorzystaniem deep learningu. </span></p>
<p><span style="font-weight: 400;">Co mnie trochę martwi to jest to, że te narzędzia jednocześnie się świetnie nadają do inwigilacji, do obserwowania społeczeństw. Na przykład, wiesz że teraz w Chinach już jest wdrożony system, który świetnie rozpoznaje ludzkie twarze i rejestruje gdzie, kto był w danym momencie na podstawie obrazu z kamer. Wydaje mi się, że rządy będą próbowały wykorzystać te fantastyczne narzędzia które mamy, te sieci neuronowe do zwiększenia kontroli nad społeczeństwem. Więc z jednej strony, jestem bardzo optymistycznie nastawiony, jeśli chodzi o postęp w medycynie w ciągu najbliższych pięciu lat, a z drugiej strony boję się, że te narzędzia będą wykorzystane właśnie do zmniejszenia prywatności, do zwiększenia inwigilacji nad społeczeństwami. Ale zobaczymy. Bądźmy dobrej myśli.</span></p>
<p><b>Dzięki wielkie za Twoją opinie. Ostatnie pytanie na dzisiaj: Jak można znaleźć ciebie w sieci w przypadku gdy ktoś chciałby się z tobą się skontaktować?</b></p>
<p><span style="font-weight: 400;">Najlepiej po prostu wpisać w Google moje imię nazwisko i kliknąć “I’m feeling lucky” :). Powinienem się pojawić na górze. Mam też stronę internetową </span><a href="http://www.januszmarecki.com/"><span style="font-weight: 400;">www.januszmarecki.com/</span></a><span style="font-weight: 400;">. Jestem też na <a href="https://www.linkedin.com/in/januszmarecki/">LinkedIn</a>. Zapraszam do internetowej dyskusji ze mną.</span></p>
<p><b>Super! Dzięki wielkie za Twój czas który znalazłeś, za chęć podzielenia się wiedzą i też wyróżnienie takich punktów, które są mega przemyślane, gdyż cały czas tym się zajmujesz, ale jednocześnie nie są tak otwarte ani spopularyzowane w &nbsp;mediach i bardzo się cieszę, że udało mi się tego wszystkiego dowiedzieć. Dzięki wielkie!</b></p>
<p><span style="font-weight: 400;"> Dzięki, mam nadzieję, że każdy z tego w jakiś sposób skorzysta.</span></p>
<hr />
<p><span style="font-weight: 400;">Dziękuję Ci bardzo za poświęcony czas. Ten odcinek wyszedł troszkę dłuższy.&nbsp; Jeśli spodobał Ci się ten odcinek, jak i również inne, to napisz recenzję w <a href="https://itunes.apple.com/us/podcast/id1215290277">iTunes</a>. Sprawi mi to wielką przyjemność i jednocześnie podcast stanie się bardziej dostępny dla innych osób w przypadku, gdy szukają czegoś do wysłuchania. Dzięki wielkie! Do usłyszenia, do zobaczenia! Cześć!</span></p><p>Artykuł <a href="https://biznesmysli.pl/deepmind-janusz-marecki/">Prowadzący naukowiec z DeepMind o rozwoju sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/deepmind-janusz-marecki/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Sztuczna inteligencja i IBM &#8211; rozmowa z Piotrem Pietrzakiem &#8211; CTO w IBM</title>
		<link>https://biznesmysli.pl/sztuczna-inteligencja-ibm-piotr-pietrzak/</link>
					<comments>https://biznesmysli.pl/sztuczna-inteligencja-ibm-piotr-pietrzak/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 19 Jun 2017 03:00:29 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[connie]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[deepblue]]></category>
		<category><![CDATA[Garry Kasparov]]></category>
		<category><![CDATA[ibm]]></category>
		<category><![CDATA[RISC]]></category>
		<category><![CDATA[ross]]></category>
		<category><![CDATA[RS/6000]]></category>
		<category><![CDATA[wywiad]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=373</guid>

					<description><![CDATA[<p>Jesteśmy po kolejnej rocznej konferencji przygotowana przez dużego gracza &#8211; tym razem Apple. Pewnie jak spodziewasz się również  tam było o machine learning. Na przykład pojawił się nowy produkt Apple HomePod (zintegrowany z Siri) który podobnie ma konkurować z Amazon Echo czy Google Home. Siri będzie działać jeszcze lepiej. W iOS11, to jest system operacyjny dla iphone, który ma pojawić się we wrześniu 2017, będzie wbudowany Core ML umożliwiający uruchomienie modeli na telefonie. Apple stawia na to, żeby taki model był uruchamiany na komórce. Dlaczego to jest ważne? Chodzi o dane, pamiętasz, że dane to jest nowoczesny surowiec. Wysłanie ich na zewnątrz zawsze wiąże się z ryzykiem. Na końcu podcastu polecam miejsca gdzie możesz posłuchać więcej na ten temat. Sztuczna inteligencja w IBM Już nie przedłużam i przechodzimy do dzisiejszego tematu. Piotr Pietrzak który jest CTO w IBM zgodził się podzielić się swoim doświadczeniem.  Dowiesz się więcej o słynnej grze kiedy maszyna wygrały w szachy Garry Kasparov&#8217;ego, o zwycięstwu Watson w grze Jeopardy i wele innych tematów. Gorąco zapraszam. Vladimir:Cześć Piotr. Przedstaw się słuchaczom… Kim jesteś, czym się zajmujesz, gdzie mieszkasz? Piotr:Cześć Vladimir. Witam wszystkich słuchaczy. Nazywam się Piotr Pietrzak, na co dzień jestem dyrektorem do spraw technologii i innowacji w firmie IBM. Na co dzień mieszkam w Legionowie, sympatycznej podwarszawskiej miejscowości. Cały czas chce zakładać że jestem człowiekiem nieco cyborgiem,  na pewno jestem komputerowym geekiem i chyba w skrócie tyle. Vladimir:Co ostatnio czytałeś i czego nauczyłeś z tej książki? Piotr:Ostatnio wróciłem do książki, która nauczyła mnie jak bardzo skomplikowany jest nasz umysł czyli pułapek myślenia. Książka, którą bardzo serdecznie polecam wszystkim którzy chcą otworzyć się na to jak łatwo można zmanipulować nasz mózg, jak łatwo można zmanipulować sposób naszego myślenia czyli pułapki myślenia. To jest książka napisana przez Daniela Kahnemana, który jest noblistą. Z tej serii jest również kilka innych książek, które wyjaśniają pewnego rodzaju zjawiska nad którymi na co dzień nie zastanawiamy. Vladimir:Pracujesz w IBM jako techniczny dyrektor albo po angielski to brzmi CTO. Jak wygląda Twoja praca? Jakiego typu problemy rozwiązujesz i w jaki sposób? Piotr:Niestety odpowiedź na to pytanie nie jest prosta. Dlatego że zajmuję się stosunkowo szerokim spektrum rzeczy i rozwiązań. Począwszy od wsparcia lokalnego firmy w jaki sposób dostarczać, marketingować nowe rozwiązania, produkty czy technologie do polskiego rynku. Czyli w jaki sposób z technologii czy z konkretnego produktu zrobić rozwiązanie, które będzie akceptowalne bądź chętne do nabywania przez naszych klientów, ale żeby oni chcieli to nabywać, musi być zbudowana pewna ścieżka wartości dla nich. Czyli co tak naprawdę mają z tej technologii i co technologia im pozwala rozwiązać w codziennym życiu biznesowym. I to jest jeden obszar czyli coś co możemy nazwać strategią. Drugim obszarem jest działanie bezpośrednie, współpraca z klientami w projektach. W chwili obecnej głównie koncentruję się na cloud computingu na rozwiązaniach typu watson i sztucznej inteligencji ewentualnie można to nazywać czymś co w chwili obecnej nazywane jest cognitive computing. Ja, przyznam szczerze, nie lubię tłumaczenia na język polski słowa cognitive, bo to oznacza poznawczy. Poznawczy system komputerowy brzmi trochę sztywno, przyznam szczerze, więc tutaj angielskie nazewnictwo bardziej mi przypada do gustu, przynajmniej z punktu widzenia osoby technicznej. Pewnie dla osób, które nie są związane z technologią może to być mniej sympatyczne do zaakceptowania czy absorbcji. Tutaj przede wszystkim koncentruję się nad tym w jaki sposób nowe technologie, po pierwsze, pomagają wnieść nową wartość biznesową klientowi do jego biznesu, bądź też jakie nowe usługi i produkty dana firma może wypuścić na rynek, niezależnie czy to w kanale “business to business” czy “business to consumer” (czyli klient indywidualny) z użyciem nowych technologii. To jest niesamowicie ciekawy obszar, chyba najbardziej pasjonujący dla mnie, mimo wszystko, dlatego że widzimy bardzo wyraźnie przenikanie się branż. Wyobraź sobie, mam na co dzień okazję bycia członkiem komisji innowacyjności Polskiej Izby Przemysłu Chemicznego. Czy ja wiem coś o chemii &#8211; kompletnie nie. Czy ja wiem coś o EIoT &#8211; bardzo dużo. Czy ja wiem coś o systemach informatycznych &#8211; chce wierzyć, że sporo. I w związku z tym, że następuje we wszystkich branżach przenikanie się rozwiązań, w komisji innowacyjności jestem w stanie podpowiadać jakie rozwiązania techniczne mogą rozwiązać jakie problemy. Na przykład, na instalacji chemicznej, w procesie wytwórczym czy przetwórczym ropy naftowej, jakimi rozwiązaniami może nas zaskoczyć za chwile na rynku firma produkująca nawozy sztuczne albo środki ochrony roślin. Albo w jaki sposób nowe technologie mogą przyśpieszyć i obniżyć koszty, na przykład, prac nad nawozami płynnymi. I to są rzeczy, które z punktu widzenia przetwarzania informacji, przetwarzania i budowy nowych rozwiązań są moją kompetencją. Po drugiej stronie mam partnerów, których główną kompetencją jest wiedza branżowa, czyli z czego jest zbudowany dany związek chemiczny, co musi być spełnione żeby on działał, wszystkie te rzeczy związane z branżą. I to są chyba najbardziej ciekawe rozwiązania, którymi się zajmuję. A trzeci obszar to jest oczywiście reprezentacja firmy IBM w obszarze, z jednej strony wszelkiego rodzaju konferencji branżowych, mówienia o naszych najnowszych technologiach, ale również taki obszar który bardzo często przez wiele osób nie jest dostrzegany, chociaż jest coraz bardziej popularny w Polsce &#8211; to współpraca z funduszami inwestycyjnymi, inkubatorami oraz akceleratorami przedsiębiorczości na terenie kraju. Czyli takie trzy głównych filary. Vladimir:Powiedziałeś kilka ciekawych rzeczy, będę pytał o nie później. Myślę, każdy się zgodzi że IBM jest bardzo słynną firmą w temacie sztucznej inteligencji. I są ku temu powody. Większość prezentacji która mówi o sztucznej inteligencji, zwłaszcza z tak zwanej wąskiej lub słabej sztucznej inteligencji, która w uproszczeniu oznacza, że komputer jest lepszy niż człowiek w pewnym obszarze &#8211; zwykle zaczyna się  od przykładu gry w szachy. Słynna gra pomiędzy Garri Kasparowem i Deep Blue w maju 1997. To były początki, ale ciekawe jest co było pod spodem, dlaczego Deep Blue był lepszy? I przy okazji zapytam, bo Deep Learning jest bardzo gorącym tematem.  Teraz gdy pojawia się słowo Deep to automatycznie wiąże się z Deep Learning. Jeżeli nie używano Deep Learning pod spodem (bo to pojęcie pojawiło się trochę później), to czemu Deep? Co autorzy mieli na myśli czy być może to zbieg okoliczności? Piotr:Po pierwsze, nie uważam i nie utożsamiam komputera Deep Blue ze sztuczną inteligencją. To znaczy, jezeli coś jest bardzo wydajną maszyną obliczeniową niekoniecznie spełnia paradygmat tego czym określamy sztuczną inteligencję. To, że komputer wygrywa z komputerem w gry, nie oznacza że jest inteligentniejszy od komputera. To oznacza że umie lepiej rozwiązywać pewien problem postawiony w danej grze. Wynika to z bardzo prostej rzeczy &#8211; z ewolucji. Dlatego że komputery, które rozwiązują problemy chociażby optymalizacyjne zostały zaprogramowane w celu wygrania w szachy, rozwiązania problemów komiwojażera albo przynajmniej ich mocnego optymalizowania albo przynajmniej wygranie w grę go. Człowiek w trakcie swojej ewolucji nie ewoluował po to, żeby być mistrzem w rozwiązywaniu zagadek matematycznych, czy grania w szachy czy gry w go. Więc pewne obszary nie wymagają, nazwijmy to, sztucznej inteligencji żeby być w tym dobrym jak komputer. Czyli wymagają dużej mocy obliczeniowej, która umożliwia, po pierwsze, z wyprzedzeniem wykonywanie pewnych kalkulacji, natomiast na ile to ma związek ze sztuczną inteligencją, przyznam szczerze, zebym bardzo polemizował. Deep Blue wydaje mi się bardziej był przykładem maszyny, nazwijmy to 32 węzłowego klastra obliczeniowego, zbudowanego na maszynach typu RS/6000 bazujących na procesorach IBM Power w architekturze RISC, które dysponowały dużą mocą obliczeniową, dzięki czemu mogły przewidzieć wiele kombinacji ruchów do przodu. Z tyłu &#8211; bazę danych, która była zgromadzoną  informacją o dotychczasowych partiach szachowych, na to nałożony model analityczny, który mógł z jednej strony przeliczać wiele różnych kombinacji i robić wiele symulacji versus to co się dzieje w danym momencie na szachownicy. Jeżeli popatrzymy na możliwości obliczeniowe ówczesnego Deep Blue który, z tego co pamiętam, zachował się w teście LINPACK z wydajnością około 11 czy 12 gigaflopów. I popatrzymy na to z czym mamy do czynienia w chwili obecnej, gdzie konsola do gier, którą mam w domu, ma moc obliczeniową na poziomie 1,2 teraflopa w górę, to znaczy że przez 20 lat przeskoczyliśmy pewną przepaść między tym co mogliśmy kiedyś, a tym co mamy teraz. Zapytałeś również o nazwę. Ta nazwa nie była przypadkowa. Deep Blue nie miał nic wspólnego, jeżeli chodzi o nazwę, z Deep Learningiem, natomiast Deep Blue był nazwą zaczerpniętą przez twórcę i projektanta tego rozwiązania z ksiązki, gdzie nazwa komputera pochodzi od fikcyjnego komputera, który był przytaczany w książce pod tytułem Autostopem przez Galaktykę. Tamten komputer nazywał się Deep Thought czyli “głębokie myślenie”, i nazwa, zaczerpnięta z książki, została zmodyfikowana na Deep Blue czyli “głęboki niebieski”. Vladimir:Ciekawa opinia. Z twoich słów bardziej brzmi, że wygrały w szachy nie dlatego że maszyna była inteligentna, tylko posiadała bardzo dużą moc obliczeniową. Piotr:Tak, żeby móc przekalkulować duże ilości ruchów do przodu. Ale również mieć z tyłu bazę danych, która umożliwia analizę, związaną z tym jaki ruch czy jakie kombinacje będą optymalne jako następne. Nie powiedziałbym że zagadnienia optymalizacyjne dotyczą bezpośrednio zagadnień związanych z samouczeniem się. Vladimir:Ciekawy jestem Twojej opinii o drugim przykładzie &#8211; komputerze IBM Watson i grze Jeopardy (którego polskim odpowiednikiem był Va banque). Co się stało w lutym 2011 i dlaczego ten przykład jest tak słynny. Co zmieniło się po tej grze? Również ciekawy jestem czy w IBM Watson był bardziej inteligentny byt czy nadal moc obliczeniowa. Piotr:Jak najbardziej już inteligentny byt. Deep Blue możemy oczywiście podciągać pod obszary sztucznej inteligencji, logiki i tak dalej i tak dalej. Wybacz że to powiem, ale zakładam coś takiego w informatyce, że jeżeli znasz historię informatyki, bo miałem kiedyś prowadzony taki przedmiot,  gdzie zaczynasz rozumieć informatykę i pamiętasz informatykę od poziomu krosno Jacquarda (maszyna żakardowa), jak implementowały się pewne algorytmy, jak budowało się roboty, to nagle dochodzisz do wniosku, że to co się dzieje teraz &#8211; to jest coś, co już kiedyś wymyślono, teraz następują tylko i wyłącznie implementacje tego co już było. Na początku naszej rozmowy zwróciłeś uwagę na to, że algorytmy dotyczące sieci neuronowych, przynajmniej podstawa matematyczna sieci neuronowych to jest stara rzecz, to nie jest nic nowego. To są rzeczy wymyślone w latach 50-ych jeżeli nie wcześniej XX wieku w dodatek. Natomiast teraz mamy możliwości technologiczne, które umożliwiają implementację tych rozwiązań na szeroką skalę. I to nie dotyczy tylko sztucznej inteligencji, to dotyczy komputerów kwantowych, dotyczy praktycznie każdej dziedziny wiedzy, której się dotkniemy, która została w sposób matematyczny zbudowana 100-150 czy 200 lat temu. To jest pasjonujące moim zdaniem, że w chwili obecnej mamy techniczne możliwości do implementacji rozwiązań które były dawno temu wymyślone. To jest coś co nakręca zarówno przemysł technologiczny, rozwiązania, pomysły na biznes, te całe historie dotyczące pewnych zjawisk, które zmieniają realnie branże. I w pewien sposób Watson jest następstwem tych wszystkich zdarzeń. Dlatego że przez ostatnie 20 lat od czasu Deep Blue, wiedza na temat budowania i sposobów budowania optymalnych baz danych i optymalizowania baz danych  poszła niesamowicie do przodu. Przetwarzanie tekstu naturalnego, nazwijmy to natural language processing, poszło niesamowicie do przodu. Udało się  zaimplementować algorytmy samouczące, bazujące między innymi na sieciach neuronowych. Skomasowanie tych wszystkich cech, umożliwiło zbudowanie systemu, który ma cechy sztucznej inteligencji, dlatego że rozumie dane, jest w stanie na ich podstawie stawiać pewne tezy, te tezy popierać dowodami, oceniać dowody versus tezy z pewną trafnością i dowodzić pewnych pojęć. I to jest sztuczna inteligencja. Vladimir:Na początku, gdy zacząłem nagrywać swój podcast, robiłem wprowadzenie do sztucznej inteligencji. Wtedy powiedziałem że zbiegły się razem trzy czynniki czyli dane, algorytmy i moc obliczeniowa. Dzięki czemu teraz uczenie maszynowe jest tak napędzane. Ciekawy jestem Twojej opinii i czy mógłbyś wyróżnić któryś z tych czynników albo dodać coś. Piotr:Myślę że podsumowałeś to idealnie. Duże próbki danych dostępne w jednym centralnym miejscu, dostępne dla konkretnego systemu komputerowego niezależnie jak duży on jest. Druga rzecz &#8211; moc obliczeniowa, która jest w stanie równolegle przetwarzać dane, wnioskować na nich i ten proces powtarzać i udoskonalać. Trzecia rzecz, o której wspomniałeś, to algorytmy, które dzięki tej mocy obliczeniowej dużej próbce danych mogły być zaimplementowane i sprawdzone na dużej skali. Miałem rozmowę, dotyczącą trenowania jednego z dosyć ciekawych komponentów, które udostępniamy jako IBM przez naszą chmurę o nazwie Bluemix czyli Watson visual recognition, komponent który umożliwia rozpoznanie i wyszukiwanie obiektów na zdjęciach bądź trenowanie tego systemu w oparciu o własne próbki zdjęć. Zgłosiła się do mnie firma, która mówi, że “trenujemy komponent na...</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-ibm-piotr-pietrzak/">Sztuczna inteligencja i IBM &#8211; rozmowa z Piotrem Pietrzakiem &#8211; CTO w IBM</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-N26VG wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm8-sztuczna-inteligencja-w-ibm" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>Jesteśmy po kolejnej rocznej konferencji przygotowana przez dużego gracza &#8211; tym razem Apple. Pewnie jak spodziewasz się również  tam było o machine learning. Na przykład pojawił się nowy produkt Apple HomePod (zintegrowany z Siri) który podobnie ma konkurować z Amazon Echo czy Google Home. Siri będzie działać jeszcze lepiej.</p>
<p>W <a href="https://pl.wikipedia.org/wiki/IOS" rel="nofollow">iOS</a>11, to jest system operacyjny dla iphone, który ma pojawić się we wrześniu 2017, będzie wbudowany <a href="https://developer.apple.com/machine-learning/" rel="nofollow">Core ML</a> umożliwiający uruchomienie modeli na telefonie. Apple stawia na to, żeby taki model był uruchamiany na komórce. Dlaczego to jest ważne? Chodzi o dane, pamiętasz, że dane to jest nowoczesny surowiec. Wysłanie ich na zewnątrz zawsze wiąże się z ryzykiem.</p>
<p>Na końcu podcastu polecam miejsca gdzie możesz posłuchać więcej na ten temat.</p>
<h1>Sztuczna inteligencja w IBM</h1>
<p>Już nie przedłużam i przechodzimy do dzisiejszego tematu. Piotr Pietrzak który jest CTO w IBM zgodził się podzielić się swoim doświadczeniem.  Dowiesz się więcej o słynnej grze kiedy maszyna wygrały w szachy Garry Kasparov&#8217;ego, o zwycięstwu Watson w grze Jeopardy i wele innych tematów. Gorąco zapraszam.</p>
<figure id="attachment_380" aria-describedby="caption-attachment-380" style="width: 620px" class="wp-caption alignnone"><img decoding="async" class="wp-image-380 size-full" src="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr.jpg" alt="Piotr Pietrzak | CTO IBM" width="620" height="413" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr.jpg 620w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr-300x200.jpg 300w" sizes="(max-width: 620px) 100vw, 620px" /><figcaption id="caption-attachment-380" class="wp-caption-text">Piotr Pietrzak | CTO IBM</figcaption></figure>
<p><span id="more-373"></span></p>
<p><b>Vladimir:<br /></b>Cześć Piotr. Przedstaw się słuchaczom… Kim jesteś, czym się zajmujesz, gdzie mieszkasz?</p>
<p><b>Piotr:<br /></b>Cześć Vladimir. Witam wszystkich słuchaczy. Nazywam się Piotr Pietrzak, na co dzień jestem dyrektorem do spraw technologii i innowacji w firmie IBM. Na co dzień mieszkam w Legionowie, sympatycznej podwarszawskiej miejscowości. Cały czas chce zakładać że jestem człowiekiem nieco cyborgiem,  na pewno jestem komputerowym <i>geekiem</i> i chyba w skrócie tyle.</p>
<p><b>Vladimir:<br /></b>Co ostatnio czytałeś i czego nauczyłeś z tej książki?</p>
<p><b>Piotr:<br /></b>Ostatnio wróciłem do książki, która nauczyła mnie jak bardzo skomplikowany jest nasz umysł czyli <a href="http://amzn.to/2sGNxrC" rel="nofollow">pułapek myślenia</a>. Książka, którą bardzo serdecznie polecam wszystkim którzy chcą otworzyć się na to jak łatwo można zmanipulować nasz mózg, jak łatwo można zmanipulować sposób naszego myślenia czyli pułapki myślenia. To jest książka napisana przez Daniela Kahnemana, który jest noblistą. Z tej serii jest również kilka innych książek, które wyjaśniają pewnego rodzaju zjawiska nad którymi na co dzień nie zastanawiamy.</p>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0374533555/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0374533555&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=035d3b74730df638d1c674bb86e50853" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0374533555&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0374533555" alt="" width="1" height="1" border="0" /></li>
</ul>
<p><b>Vladimir:<br /></b>Pracujesz w IBM jako techniczny dyrektor albo po angielski to brzmi CTO. Jak wygląda Twoja praca? Jakiego typu problemy rozwiązujesz i w jaki sposób?</p>
<p><b>Piotr:<br /></b>Niestety odpowiedź na to pytanie nie jest prosta. Dlatego że zajmuję się stosunkowo szerokim spektrum rzeczy i rozwiązań. Począwszy od wsparcia lokalnego firmy w jaki sposób dostarczać, <i>marketingować</i> nowe rozwiązania, produkty czy technologie do polskiego rynku. Czyli w jaki sposób z technologii czy z konkretnego produktu zrobić rozwiązanie, które będzie akceptowalne bądź chętne do nabywania przez naszych klientów, ale żeby oni chcieli to nabywać, musi być zbudowana pewna ścieżka wartości dla nich. Czyli co tak naprawdę mają z tej technologii i co technologia im pozwala rozwiązać w codziennym życiu biznesowym. I to jest <b>jeden obszar</b> czyli coś co możemy nazwać strategią.</p>
<p><b>Drugim obszarem</b> jest działanie bezpośrednie, współpraca z klientami w projektach. W chwili obecnej głównie koncentruję się na <i>cloud computingu</i> na rozwiązaniach typu <i>watson</i> i sztucznej inteligencji ewentualnie można to nazywać czymś co w chwili obecnej nazywane jest <i>cognitive computing</i>. Ja, przyznam szczerze, nie lubię tłumaczenia na język polski słowa cognitive, bo to oznacza poznawczy. Poznawczy system komputerowy brzmi trochę sztywno, przyznam szczerze, więc tutaj angielskie nazewnictwo bardziej mi przypada do gustu, przynajmniej z punktu widzenia osoby technicznej. Pewnie dla osób, które nie są związane z technologią może to być mniej sympatyczne do zaakceptowania czy absorbcji. Tutaj przede wszystkim koncentruję się nad tym w jaki sposób nowe technologie, po pierwsze, pomagają wnieść nową wartość biznesową klientowi do jego biznesu, bądź też jakie nowe usługi i produkty dana firma może wypuścić na rynek, niezależnie czy to w kanale “business to business” czy “business to consumer” (czyli klient indywidualny) z użyciem nowych technologii. To jest niesamowicie ciekawy obszar, chyba najbardziej pasjonujący dla mnie, mimo wszystko, dlatego że widzimy bardzo wyraźnie przenikanie się branż.</p>
<p>Wyobraź sobie, mam na co dzień okazję bycia członkiem komisji innowacyjności Polskiej Izby Przemysłu Chemicznego. Czy ja wiem coś o chemii &#8211; kompletnie nie. Czy ja wiem coś o <a href="http://www.gartner.com/smarterwithgartner/the-internet-of-things-and-the-enterprise/" rel="nofollow" class="broken_link">EIoT</a> &#8211; bardzo dużo. Czy ja wiem coś o systemach informatycznych &#8211; chce wierzyć, że sporo. I w związku z tym, że następuje we wszystkich branżach przenikanie się rozwiązań, w komisji innowacyjności jestem w stanie podpowiadać jakie rozwiązania techniczne mogą rozwiązać jakie problemy.</p>
<p>Na przykład, na instalacji chemicznej, w procesie wytwórczym czy przetwórczym ropy naftowej, jakimi rozwiązaniami może nas zaskoczyć za chwile na rynku firma produkująca nawozy sztuczne albo środki ochrony roślin. Albo w jaki sposób nowe technologie mogą przyśpieszyć i obniżyć koszty, na przykład, prac nad nawozami płynnymi. I to są rzeczy, które z punktu widzenia przetwarzania informacji, przetwarzania i budowy nowych rozwiązań są moją kompetencją. Po drugiej stronie mam partnerów, których główną kompetencją jest wiedza branżowa, czyli z czego jest zbudowany dany związek chemiczny, co musi być spełnione żeby on działał, wszystkie te rzeczy związane z branżą. I to są chyba najbardziej ciekawe rozwiązania, którymi się zajmuję.</p>
<p>A <b>trzeci obszar</b> to jest oczywiście reprezentacja firmy IBM w obszarze, z jednej strony wszelkiego rodzaju konferencji branżowych, mówienia o naszych najnowszych technologiach, ale również taki obszar który bardzo często przez wiele osób nie jest dostrzegany, chociaż jest coraz bardziej popularny w Polsce &#8211; to współpraca z funduszami inwestycyjnymi, inkubatorami oraz akceleratorami przedsiębiorczości na terenie kraju.</p>
<p>Czyli takie trzy głównych filary.</p>
<p><b>Vladimir:<br /></b>Powiedziałeś kilka ciekawych rzeczy, będę pytał o nie później.</p>
<p>Myślę, każdy się zgodzi że IBM jest bardzo słynną firmą w temacie sztucznej inteligencji. I są ku temu powody. Większość prezentacji która mówi o sztucznej inteligencji, zwłaszcza z tak zwanej wąskiej lub słabej sztucznej inteligencji, która w uproszczeniu oznacza, że komputer jest lepszy niż człowiek w pewnym obszarze &#8211; zwykle zaczyna się  od przykładu gry w szachy. Słynna gra pomiędzy Garri Kasparowem i <a href="https://pl.wikipedia.org/wiki/Deep_Blue" rel="nofollow">Deep Blue</a> w maju 1997.</p>
<p><iframe title="Deep Blue vs Kasparov: How a computer beat best chess player in the world - BBC News" width="960" height="540" src="https://www.youtube.com/embed/KF6sLCeBj0s?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To były początki, ale ciekawe jest co było pod spodem, dlaczego Deep Blue był lepszy? I przy okazji zapytam, bo Deep Learning jest bardzo gorącym tematem.  Teraz gdy pojawia się słowo Deep to automatycznie wiąże się z Deep Learning. Jeżeli nie używano Deep Learning pod spodem (bo to pojęcie pojawiło się trochę później), to czemu Deep? Co autorzy mieli na myśli czy być może to zbieg okoliczności?</p>
<p><b>Piotr:<br /></b>Po pierwsze, nie uważam i nie utożsamiam komputera Deep Blue ze sztuczną inteligencją. To znaczy, jezeli coś jest bardzo wydajną maszyną obliczeniową niekoniecznie spełnia paradygmat tego czym określamy sztuczną inteligencję. To, że komputer wygrywa z komputerem w gry, nie oznacza że jest inteligentniejszy od komputera. To oznacza że umie lepiej rozwiązywać pewien problem postawiony w danej grze. Wynika to z bardzo prostej rzeczy &#8211; z ewolucji. Dlatego że komputery, które rozwiązują problemy chociażby optymalizacyjne zostały zaprogramowane w celu wygrania w szachy, rozwiązania problemów komiwojażera albo przynajmniej ich mocnego optymalizowania albo przynajmniej wygranie w grę go.</p>
<p>Człowiek w trakcie swojej ewolucji nie ewoluował po to, żeby być mistrzem w rozwiązywaniu zagadek matematycznych, czy grania w szachy czy gry w go. Więc pewne obszary nie wymagają, nazwijmy to, sztucznej inteligencji żeby być w tym dobrym jak komputer. Czyli wymagają dużej mocy obliczeniowej, która umożliwia, po pierwsze, z wyprzedzeniem wykonywanie pewnych kalkulacji, natomiast na ile to ma związek ze sztuczną inteligencją, przyznam szczerze, zebym bardzo polemizował.</p>
<p><iframe title="IBM Research scientist Dr. Murray Campbell on Deep Blue" width="960" height="540" src="https://www.youtube.com/embed/KFSVZlkHHmM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Deep Blue wydaje mi się bardziej był przykładem maszyny, nazwijmy to 32 węzłowego klastra obliczeniowego, zbudowanego na maszynach typu <a href="https://pl.wikipedia.org/wiki/RS/6000" rel="nofollow">RS/6000</a> bazujących na procesorach <a href="https://pl.wikipedia.org/wiki/IBM_POWER" rel="nofollow">IBM Power</a> w architekturze <a href="https://pl.wikipedia.org/wiki/RISC" rel="nofollow">RISC</a>, które dysponowały dużą mocą obliczeniową, dzięki czemu mogły przewidzieć wiele kombinacji ruchów do przodu. Z tyłu &#8211; bazę danych, która była zgromadzoną  informacją o dotychczasowych partiach szachowych, na to nałożony model analityczny, który mógł z jednej strony przeliczać wiele różnych kombinacji i robić wiele symulacji versus to co się dzieje w danym momencie na szachownicy. Jeżeli popatrzymy na możliwości obliczeniowe ówczesnego Deep Blue który, z tego co pamiętam, zachował się w teście <a href="https://en.wikipedia.org/wiki/LINPACK_benchmarks" rel="nofollow">LINPACK</a> z wydajnością około 11 czy 12 gigaflopów.</p>
<p>I popatrzymy na to z czym mamy do czynienia w chwili obecnej, gdzie konsola do gier, którą mam w domu, ma moc obliczeniową na poziomie 1,2 teraflopa w górę, to znaczy że przez 20 lat przeskoczyliśmy pewną przepaść między tym co mogliśmy kiedyś, a tym co mamy teraz.</p>
<p>Zapytałeś również o nazwę. Ta nazwa nie była przypadkowa. Deep Blue nie miał nic wspólnego, jeżeli chodzi o nazwę, z Deep Learningiem, natomiast Deep Blue był nazwą zaczerpniętą przez twórcę i projektanta tego rozwiązania z ksiązki, gdzie nazwa komputera pochodzi od fikcyjnego komputera, który był przytaczany w książce pod tytułem Autostopem przez Galaktykę. Tamten komputer nazywał się Deep Thought czyli “głębokie myślenie”, i nazwa, zaczerpnięta z książki, została zmodyfikowana na Deep Blue czyli “głęboki niebieski”.</p>
<p><b>Vladimir:<br /></b>Ciekawa opinia. Z twoich słów bardziej brzmi, że wygrały w szachy nie dlatego że maszyna była inteligentna, tylko posiadała bardzo dużą moc obliczeniową.</p>
<p><b>Piotr:<br /></b>Tak, żeby móc przekalkulować duże ilości ruchów do przodu. Ale również mieć z tyłu bazę danych, która umożliwia analizę, związaną z tym jaki ruch czy jakie kombinacje będą optymalne jako następne. Nie powiedziałbym że zagadnienia optymalizacyjne dotyczą bezpośrednio zagadnień związanych z samouczeniem się.</p>
<p><b>Vladimir:<br /></b>Ciekawy jestem Twojej opinii o drugim przykładzie &#8211; komputerze IBM Watson i grze Jeopardy (którego polskim odpowiednikiem był <a href="https://pl.wikipedia.org/wiki/Teleturnieje_nadawane_w_TVP2#Va_banque" rel="nofollow"> <i>Va banque</i></a>). Co się stało w lutym 2011 i dlaczego ten przykład jest tak słynny. Co zmieniło się po tej grze?</p>
<p><iframe title="IBM Watson: Final Jeopardy! and the Future of Watson" width="960" height="540" src="https://www.youtube.com/embed/lI-M7O_bRNg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Również ciekawy jestem czy w IBM Watson był bardziej inteligentny byt czy nadal moc obliczeniowa.</p>
<p><b>Piotr:<br /></b>Jak najbardziej już inteligentny byt. Deep Blue możemy oczywiście podciągać pod obszary sztucznej inteligencji, logiki i tak dalej i tak dalej. Wybacz że to powiem, ale zakładam coś takiego w informatyce, że jeżeli znasz historię informatyki, bo miałem kiedyś prowadzony taki przedmiot,  gdzie zaczynasz rozumieć informatykę i pamiętasz informatykę od poziomu krosno Jacquarda (<a href="https://pl.wikipedia.org/wiki/Maszyna_%C5%BCakardowa" rel="nofollow">maszyna żakardowa</a>), jak implementowały się pewne algorytmy, jak budowało się roboty, to nagle dochodzisz do wniosku, że to co się dzieje teraz &#8211; to jest coś, co już kiedyś wymyślono, teraz następują tylko i wyłącznie implementacje tego co już było.</p>
<p><iframe title="Loom History Moving to Computer" width="960" height="540" src="https://www.youtube.com/embed/itd-4lMoXgI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Na początku naszej rozmowy zwróciłeś uwagę na to, że algorytmy dotyczące sieci neuronowych, przynajmniej podstawa matematyczna sieci neuronowych to jest stara rzecz, to nie jest nic nowego. To są rzeczy wymyślone w latach 50-ych jeżeli nie wcześniej XX wieku w dodatek. Natomiast teraz mamy możliwości technologiczne, które umożliwiają implementację tych rozwiązań na szeroką skalę. I to nie dotyczy tylko sztucznej inteligencji, to dotyczy komputerów kwantowych, dotyczy praktycznie każdej dziedziny wiedzy, której się dotkniemy, która została w sposób matematyczny zbudowana 100-150 czy 200 lat temu.</p>
<p>To jest pasjonujące moim zdaniem, że w chwili obecnej mamy techniczne możliwości do implementacji rozwiązań które były dawno temu wymyślone. To jest coś co nakręca zarówno przemysł technologiczny, rozwiązania, pomysły na biznes, te całe historie dotyczące pewnych zjawisk, które zmieniają realnie branże. I w pewien sposób Watson jest następstwem tych wszystkich zdarzeń. Dlatego że przez ostatnie 20 lat od czasu Deep Blue, wiedza na temat budowania i sposobów budowania optymalnych baz danych i optymalizowania baz danych  poszła niesamowicie do przodu. Przetwarzanie tekstu naturalnego, nazwijmy to natural language processing, poszło niesamowicie do przodu. Udało się  zaimplementować algorytmy samouczące, bazujące między innymi na sieciach neuronowych. Skomasowanie tych wszystkich cech, umożliwiło zbudowanie systemu, który ma cechy sztucznej inteligencji, dlatego że rozumie dane, jest w stanie na ich podstawie stawiać pewne tezy, te tezy popierać dowodami, oceniać dowody versus tezy z pewną trafnością i dowodzić pewnych pojęć. I to jest sztuczna inteligencja.</p>
<p><b>Vladimir:<br /></b>Na początku, gdy zacząłem nagrywać swój podcast, robiłem wprowadzenie do sztucznej inteligencji. Wtedy powiedziałem że zbiegły się razem trzy czynniki czyli dane, algorytmy i moc obliczeniowa. Dzięki czemu teraz uczenie maszynowe jest tak napędzane. Ciekawy jestem Twojej opinii i czy mógłbyś wyróżnić któryś z tych czynników albo dodać coś.</p>
<p><b>Piotr:<br /></b>Myślę że podsumowałeś to idealnie. Duże próbki danych dostępne w jednym centralnym miejscu, dostępne dla konkretnego systemu komputerowego niezależnie jak duży on jest. Druga rzecz &#8211; moc obliczeniowa, która jest w stanie równolegle przetwarzać dane, wnioskować na nich i ten proces powtarzać i udoskonalać. Trzecia rzecz, o której wspomniałeś, to algorytmy, które dzięki tej mocy obliczeniowej dużej próbce danych mogły być zaimplementowane i sprawdzone na dużej skali.</p>
<p>Miałem rozmowę, dotyczącą trenowania jednego z dosyć ciekawych komponentów, które udostępniamy jako IBM przez naszą chmurę o nazwie <a href="https://www.ibm.com/cloud-computing/bluemix/" rel="nofollow">Bluemix</a> czyli <a href="https://www.ibm.com/watson/developercloud/visual-recognition.html" rel="nofollow">Watson visual recognition</a>, komponent który umożliwia rozpoznanie i wyszukiwanie obiektów na zdjęciach bądź trenowanie tego systemu w oparciu o własne próbki zdjęć. Zgłosiła się do mnie firma, która mówi, że “trenujemy komponent na bazie 150 zdjęć, jest super, ale jeszcze trzeba by było udoskonalić znajdowanie tego, tego i tego”.</p>
<p>https://www.youtube.com/watch?v=-s5EpR0eRXY</p>
<p>Popatrzyłem na sposób w jaki oni ten komponent trenują, jak wygląda model, czego poszukują i mówię że “musicie trenować ten model na bazie 1000 czy 2000 zdjęć, wówczas trenujecie go z dobrą dokładnością, a nie na bazie 150 stosunkowo prostych do rozpoznania obiektów”. I właśnie dzięki temu że mamy możliwości zebrania takich ilości danych w bardzo krótkim czasie, mamy algorytmy zaimplementowane i mamy pod spodem dużą moc obliczeniową, możemy to fizycznie robić.</p>
<p>Myślę że kolejnym krokiem w ewolucji tych rozwiązań, zwłaszcza po stronie nie tylko firm które nad tym pracują i dostarczają te rozwiązania, ale zwłaszcza po stronie ich końcowych odbiorców, jest to w jaki sposób możńa konsumować sztuczną inteligencję chmurą obliczeniową. To będzie pisanie aplikacji bazujących na nowym paradygmacie czyli oderwanie programistów, po pierwsze, od infrastruktury i ograniczeń związanych z jej skalowalnością.</p>
<p>Czyli idealna aplikacja wykorzystująca zarówno cechy chmury i sztucznej inteligencji będzie aplikacją która będzie mogła skalować się od zera do nieskończoności, czyli praktycznie obsłużyć dowolny ruch, który do niej przychodzi, bazując  na oderwaniu się od infrastruktury. Czyli nowy paradygmat pisania i tworzenia aplikacji, które wykorzystują mikroserwisy, wykorzystują platformy chmurowe, które są pod nimi zapewniając moc obliczeniową.</p>
<p>Programista już nie powinien więcej myśleć o tym, że ma ograniczenie do dwóch, trzech, czterech procesorów w jakiejś maszynie w obszarze jakiegoś klastra obliczeniowego. Nie, on powinien powiedzieć co chce zrobić, jakie obiekty chce powołać do życia i to już kompletnie inna warstwa powinna mu to zapewnić. To będzie kolejny duży krok na przód.</p>
<p><b>Vladimir:<br /></b>Wróćmy jeszcze do przykładu z IBM Watson, kiedy była gra. Pytanie jest nieco dziwne, ale zapytam, bo pewnie wiele osób myli się, myśląc, że IBM Watson jest wyszukiwarką, która szybko wyszukuje informacje w dużej ilości dokumentów, powiedzmy całej Wikipedii czy innych źródłach wiedzy. Jaka jest różnica pomiędzy wyszukiwarką i IBM Watson, mam na myśli tę implementacje, która wygrała w Jeopardy.</p>
<p><b>Piotr:<br /></b>Pierwszą podstawową różnica jest to, że nie bazujemy na czymś co się nazywa keyword. Jest zbudowany cały potok przetwarzania w Watsonie, który mówi w jaki sposób działamy z informacją. Dla nas najważniejsze jest to, żeby użytkownik, po pierwsze, mógł zadać to pytanie i żebyśmy nie szukali dokumentu bazując na tym w jaki sposób i ile słów kluczowych w nim występuje, jak wysoko były oceniane. Tylko żeby w modelu wytrenowanym do rozumienia danego języka czy zbioru wiedzy bazującego na semantyce i ontologii, módz wyłuskać informacje które są potrzebne i przedstawić je użytkownikowi.</p>
<p><iframe title="IBM Watson: The Science Behind an Answer" width="960" height="720" src="https://www.youtube.com/embed/DywO4zksfXw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Czyli każda wyszukiwarka z którą najczęściej się spotykamy, wyszukuję konkretny dokument i mówi: “Drogi użytkowniku, tu masz listę dokumentów”, tworzy listę rankingową i wyświetla ją w kolejności. W Watsonie to działa kompletnie inaczej. Watson nie koncentruję się na wynalezieniu konkretnego dokumentu, Watson chcę znaleźć odpowiedź na zadane pytanie poprzez rozkład semantyczny tego pytania, zmapowanie go na swoją bazę wiedzy i model, następnie wyłuskać odpowiedź, która wskazuję na to pytanie i podeprzeć ją dokumentami dzięki którym podaje tę odpowiedź z pewna trafnością.</p>
<p>Możemy sobie założyć, że w momencie kiedy Watson przetwarza informację, w pewnym momencie buduje jakiś zestaw odpowiedzi, gdzie każda z tych odpowiedzi posiada jakiś indeks poprawności czy pewności, z którą ta odpowiedź jest udzielana. I Watson pokazuje nam te odpowiedzi, pokazując również ten poziom trafności z którym on twierdzi że odpowiada.</p>
<figure id="attachment_382" aria-describedby="caption-attachment-382" style="width: 1130px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-382" src="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_1.png" alt="W odpowiadaniu na pytania nie chodzi o wyszukiwanie dokumentów" width="1130" height="530" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_1.png 1130w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_1-300x141.png 300w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_1-768x360.png 768w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_1-1024x480.png 1024w" sizes="(max-width: 1130px) 100vw, 1130px" /><figcaption id="caption-attachment-382" class="wp-caption-text">W odpowiadaniu na pytania nie chodzi o wyszukiwanie dokumentów</figcaption></figure>
<p>To może być 60% czy 80%, to może być 99,9%. I następnie w modelu trenowania Watsona musi być ekspert, który powie: “ok, ta odpowiedź jest dobra”. Ten sposób rozumowania, dojścia do tej odpowiedzi, ten flow i dokumenty, czyli fakty, które wskazują na udzielenie tej informacji są poprawne. W momencie kiedy nie zgadzamy się z podsumowaniem czy odpowiedzią udzieloną przez Watsona wówczas modyfikujemy zestaw dokumentów który wpłynęły na jego rozumowanie.</p>
<p>I w ten sposób z jednej strony modyfikujemy model wnioskowania, z drugiej &#8211; zmieniamy dokumenty, które wpływają na sposób jego trenowania. Czyli do trenowania modelu zawsze jest potrzebny ekspert, to jest pierwsze podstawowe założenie, a druga rzecz taka, że ekspert ma możliwość zmiany sposobu rozumowania systemu. To jest główna różnica między Watsonem czy systemem kognitywnym i podstawową wyszukiwarką bazującą nadal w dużej mierze na <i>keywords’ach</i>, statystyce, popularności.</p>
<p><b>Vladimir:<br /></b>Na dzień dzisiejszy IBM Watson ma wiele zastosowań w różnych branżach, takie jak <a href="https://www.youtube.com/watch?v=jC0I08qt5VU" rel="nofollow">Connie</a> która pracuje jako concierge w hotelu Hilton albo  <a href="https://www.youtube.com/watch?v=ZF0J_Q0AK0E" rel="nofollow">ROSS</a> &#8211; robo-prawnik zatrudniony przez kancelarie <a href="https://www.bakerlaw.com/" rel="nofollow"> Baker &amp; Hostetler</a>. Proszę podaj swoje trzy a może pięć przykładów, gdzie IBM Watson został użyty i daje korzyści z punktu widzenia biznesowego (np. możesz podać po przykłady z branży).</p>
<p><iframe title="Meet ROSS, Your Brand New Artificially Intelligent Lawyer" width="960" height="540" src="https://www.youtube.com/embed/ZF0J_Q0AK0E?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Piotr:<br /></b>Po pierwsze, musimy zrozumieć jak podzielone są te rozwiązania w Watsonie. Część rozwiązań bazujących na technologiach dookoła Watsona są to rozwiązania dedykowane do danej branży. Nie chcę powiedzieć, że są monolitycznymi rozwiązaniami, ale są rozwiązaniami dedykującymi pewne konkretne problemy.</p>
<p>Drugi obszar rozwiązań, to są moduły, nazwijmy to API. To są interfejsy które umożliwiają programistom zasilenie systemu w dane, przetwarzanie tych danych i otrzymanie pewnych rezultatów. To działa w obszarze rozwiązania chmurowego o nazwie <a href="https://www.ibm.com/cloud-computing/bluemix/" rel="nofollow">IBM Bluemix</a> i nazywa się <a href="https://www.ibm.com/watson/developercloud/services-catalog.html" rel="nofollow">Watson Services</a> on Bluemix. Tam są dostępne rozwiązania dotyczące przetwarzania tekstu, przetwarzanie mowy, przetwarzanie obrazów, przetwarzanie dokumentów, konwersji dokumentów i wiele innych.</p>
<p>Jest trzeci obszar, który często jest nazywany Watson’om. Też to mogą być składowe komponenty które wchodzą w skład do innych rozwiązań. To jest oprogramowanie które możemy zainstalować na infrastrukturze klienta, możemy budować docelowe rozwiązanie. To są takie rzeczy jak <a href="https://www.ibm.com/us-en/marketplace/content-analytics" rel="nofollow">Watson Explorer</a>, narzędzie statystyczne pochodzące z rodziny SPS, narzędzie do rozwiązywania problemów optymalizacyjnych.</p>
<p>Czwartą grupą stanowią, nie chcę powiedzieć &#8211; <i>gadżety</i>, ale stanowią przykłady rozwiązań, tak jak  przytoczyłeś na przykład <i>concierge</i>, które sa w stanie zwykłym ludziom, którzy nie zajmują się na co dzień technologią i sztuczną inteligencją, pokazać co można za pomocą tych rozwiązań uzyskać.</p>
<p><iframe title="Meet Connie, the Hilton robot concierge" width="960" height="540" src="https://www.youtube.com/embed/ghbS-aTYw14?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Jest takie rozwiązanie jak Watson Chef. To jest rozwiązanie, które jest dostępne w internecie i można w popularnych wyszukiwarkach je wyszukać. To jest system, który został stworzony po to, żeby pokazać ludziom w jaki sposób na przykładzie kuchni i składników różnych potraw można budować potrawy do których normalnie nie są przyzwyczajeni. Czyli, na przykład, jak system komputerowy jest w stanie zasugerować człowiekowi zrobienie czekoladowego burrito, które okazuje się być pyszne, ale nie koniecznie sami byśmy na nie wpadli. W sklepach internetowych dostępne są książki kucharskie, gdzie można znaleźć ponad 60 przepisów wygenerowanych przez Watsona, są dosyć ciekawe, są dość abstrakcyjne, ale przede wszystkim smaczne.</p>
<p><iframe title="IBM Chef Watson E.A.T.S." width="960" height="540" src="https://www.youtube.com/embed/xBTiuSaV8Yw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Więc mamy cztery grupy rozwiązań. Mamy rozwiązania dla konkretnych branż, rozwiązania dla branży medycznej, chemicznej, dla branży która zajmuje się rozwojem nowych leków, branży budowlanej. I to są rozwiązania dedykowane. O tych rozwiązaniach, które spotyka końcowy użytkownik jako przykład sztucznej inteligencji czy implementacji tego typu rozwiązań, już powiedzieliśmy.</p>
<p>I jest ta cała część pośrodku, adresowana przez programistów, takich jak ty, ja czy nasi koledzy, którzy w pewnym momencie mogą dojść do wniosku i powiedzieć: “a ja bym chciał, żeby moja aplikacja, na przykład, mogła rozpoznawać obraz albo chciałbym, żeby mogła budować behawioralny obraz człowieka, bazując na tym, co pisze w internecie.” I czy jest to możliwe? Jest. Można to zbudować samemu od podstaw, tracąc dużo czasu i pieniędzy, albo można skorzystać z dostępnej usługi, którą integrujemy do swojej aplikacji. Nie ma ograniczeń.</p>
<p><b>Vladimir:<br /></b>Wspomniałeś o <a href="https://www.ibm.com/watson/developercloud/services-catalog.html" rel="nofollow">IBM API</a>. Specajlnie przed wywiadem sprawdziłem, w tej chwilę jest dostępne 19 usług. Większośc z nich jest związane z tekstem, np. jak analiza, rozumienie, tłumaczenie itd. Pierwsze co nasuwa się, jakie języki są wspierany i czy jest plan wspierać polski?</p>
<p><b>Piotr:<br /></b>Języki które są wspierane zależą bardzo od usługi. Nie wszystkie usługi wymagają do działania jakiegokolwiek języka. Pomyślmy chociażby o rozpoznaniu obrazów, tam język w ogóle nie jest potrzebny,  pomyślijmy o tym w jaki sposób możemy uczyć model predykcyjny, który bazuje na danych pogodowych, tam też nie.</p>
<p>W chwili obecnej w tych usługach, które są dostępne u nas w chmurze które dotyczą języka, język polski nie jest językiem wspieranym. Wspierany jest język angielski, hiszpański, w niektórych z usług jest wspierany język japoński. Implementacja języka polskiego jest w planach. To co możemy robić w chwili obecnej dookoła języka polskiego jest zgromadzenie dookoła tych trzech innych typów rozwiązań. Rozwiązań, które możemy zbudować na życzenie klienta u niego, bazując na tym oprogramowaniu, o którym wcześniej wspominałem, bądź też w obszarze gadżetowym “szytym na miarę”. Natomiast z punktu widzenia dostępnych rozwiązań w języku polskim na chmurze Bluemix, w chwili obecnej nie są dostępne.</p>
<p><b>Vladimir:<br /></b>Ciekawy jestem na ile taki zwykły programista, który zdecyduje się użyć IBM API, jest w stanie zbudować odpowiednik, żeby wygrać w Jeopardy. Czy na tym poziomie już możemy operować, czy są ograniczenia, jak na przykład mocy obliczeniowej?</p>
<p><b>Piotr:<br /></b>To jest na pewno ograniczenie mocy obliczeniowej, z drugiej strony &#8211; zakresu danych, które posiadamy. Przygotowanie Watsona żeby wygrał w Jeopardy trwało prawie rok. System w trakcie gry był odłączony od internetu, czyli nie był zasilany z zewnętrznych źródeł danych poza tymi które zostały do niego wciśnięte.</p>
<p>Kolejna ciekawa rzecz którą można powiedzieć o tej rozgrywce w Jeopardy jest taka, że system komputerowy miał podawane pytania wówczas w wersji tekstowej. Czyli to co czytał zapowiadający, w momencie kiedy skończył, system komputerowy otrzymywał w formie tekstowej i taką treść przedstawiał w drugą stronę, nastąpiła oczywiście detalizacja mowy. Jest dość sporo ciekawych filmików między innymi na YouTube z tego wydarzenia, gdzie Watson jest pokazany troszeczkę od kuchni.</p>
<p><iframe title="IBM Watson: How it Works" width="960" height="540" src="https://www.youtube.com/embed/_Xcmh1LQB9I?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Pokazane są algorytmy, które pokazywały i badały pewność i trafność udzielanej odpowiedzi, które modyfikowały to. Bardzo serdecznie zachęcam do zapoznania się z tym. Sukces Watsona, który wygrywał w Jeopardy w 2011 roku, zachęcił IBM do stworzenia całego pionu biznesowego o nazwie Watson i uruchomieniu produktów oraz całej grupy rozwiązań bazujących na projektach badawczo-rozwojowych, które pojawiły się  przy okazji tej gry.</p>
<p><b>Vladimir:<br /></b>Na jednej Twojej <a href="http://www-05.ibm.com/pl/watson-warsaw-summit/assets/files/Opening_2_-_Piotr_Pietrzak.pdf" rel="nofollow" class="broken_link">prezentacji</a>, miałeś slajd który był podzielony na dwie części, z lewej strony było to co człowiek potrafi najlepiej takie jak. zdrowy rozsądek, wyobraźnia, moralność, współczucie, abstrakcyjne myślenie, dylematy ), po prawej stronie to co maszyna potrafi najlepiej, a mianowicie: lokalizacja wiedzy, znajdowanie połączeń, rozumienie języka naturalnego, uczenia mszynowe, obiektywna ocena, skalowalność. Tytuł slajdu brzmiał “Systemy kognitywne stworzą nowy rodzaj współpracy między człowiekiem,a komputerem”. Podziel się swoją opinią, jak taka współpraca może wyglądać i tak naprawdę do czego to dąży?</p>
<figure id="attachment_381" aria-describedby="caption-attachment-381" style="width: 1101px" class="wp-caption aligncenter"><img decoding="async" class="wp-image-381 size-full" title=" Systemy kognitywne stworzą nowy rodzaj współpracy między człowiekiem, a komputerem" src="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_2.png" alt=" Systemy kognitywne stworzą nowy rodzaj współpracy między człowiekiem, a komputerem" width="1101" height="515" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_2.png 1101w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_2-300x140.png 300w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_2-768x359.png 768w, https://biznesmysli.pl/wp-content/uploads/2017/06/piotr_prezentacja_2-1024x479.png 1024w" sizes="(max-width: 1101px) 100vw, 1101px" /><figcaption id="caption-attachment-381" class="wp-caption-text">Systemy kognitywne stworzą nowy rodzaj współpracy między człowiekiem, a komputerem</figcaption></figure>
<p><b>Piotr:<br /></b>Systemy które jesteśmy w stanie w tej chwili budować, dzięki cechom które przytoczyłeś, dają nam możliwość obserwowania bardzo objektywnego zjawiska. Dane pomagają je interpretować nie wnosząc w nie czynnika ludzkiego. I to moim zdaniem jest niesamowita wartość, dlatego że te systemy nigdy się nie męczą, są zawsze obiektywne, zawsze wskazują decyzje właściwą, która nie niesie ze sobą całego bagażu człowieka. Dopiero człowiek bazując na tej, nazwijmy to, suchej opinii może podjąć końcową decyzje. Wydaje mi się rozdzielenie tych dwóch obszarów w pewien sposób pozwala zachować dobry balans między trafnością, a konsekwencjami późniejszych następstw podjętych decyzji. I to są dwie niezależne drogi.</p>
<p>Oczywiście ten slajd ma pokazywać to rozdzielenie celowo, dlatego że dość dużo osób utożsamia rozwój sztucznej inteligencji, bo wierzy że jesteśmy na początku drogi, z filmami zagłady, science fiction. I to jest myślenie, wydaje mi się, które powinno nie mieć miejsca. Myślenie pod tytułem “mam młotek w sklepie, i ten młotek jest bardzo groźny”. Nie. Młotek nie jest narzędziem groźnym, młotek stworzony po to żeby wykonywać konkretną pracę. Do czego zostanie zastosowany &#8211; to już kwestia człowieka. I ten slajd pokazuje to rozdzielenie, czyli sztuczna inteligencja jest pewnego rodzaju młotkiem. Młotek uderzy z odpowiednią siła przyłożoną, wbije ten gwóźdź w miejsce które przyłożymy, pozwoli zbudować wiele różnych ciekawych rozwiązań. Ale również jeżeli przełożymy do niego cechy z prawej strony slajdu, całą ludzką otoczkę, to może nas doprowadzić do zaskakujących, często niepożądanych rzeczy.</p>
<p>Rozdzielenie tych dwóch obszarów ma głęboki sens, dlatego że bazując na twardych danych jesteśmy w stanie podejmować lepsze decyzje już okraszone całością tego co możemy uznać za człowieczeństwo.</p>
<p><b>Vladimir:<br /></b>My jako ludzkość w najbliższym czasie będziemy stać przed dużym wyzwaniem, jak zarządzać ryzykiem kiedy maszyna podejmuje pewną decyzje, kto tak naprawdę będzie winny jeżeli ta decyzja była złą. To co usłyszałem w twojej wypowiedzi, brzmi że człowiek może być ostatnim elementem, który będzie nieco minimalizować to. Czy dobrze to usłyszałem czy miałeś coś innego na myśli?</p>
<p><b>Piotr:<br /></b>Troszeczkę coś innego, bo patrzę przez pryzmat technologii jako coś co daje nam nowe możliwości. Czy systemy komputerowe podejmują za człowieka decyzje? Oczywiście że tak. Jeżeli jedziemy samochodem i naciskamy przycisk hamulca, to system ABS, który jest niczym innym jak fragmentem oprogramowania w układzie elektronicznym, decyduje z jaką siłą i kiedy hamujemy. Człowiek nie ma na to wpływu, człowiek tylko uruchamia go, żeby zahamować. Został stworzony do tego żeby pomóc człowiekowi ominąć błędy i ograniczenia jego samego.</p>
<p><iframe title="Autka tańczą na lodzie! Czyli jak działa ABS." width="960" height="540" src="https://www.youtube.com/embed/sZRI0stEZwI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>I nikt się nie zastanawia w chwili obecnej nad tym, czy systemy ABS w samochodach są potrzebne. One tam fizycznie są &#8211; wysoko wyspecjalizowane systemy.</p>
<p>Mamy systemy autonomicznego czy automatycznego parkowania w samochodzie, również w standardowych modelach. Jeżeli naciskam przycisk parkowania i proszę komputer, a tak naprawdę kod oprogramowania, współdziałający i zarządzający jakimiś procesami, to czy człowiek decyduje jak ten komputer będzie parkował, no i na koniec dnia bierze za to odpowiedzialność. Ale ten komputer w wielu przypadkach już teraz zaparkuje dużo lepiej, dużo szybciej, dużo sprawniej niż człowiek.</p>
<p><iframe title="Volvo&#039;s Autonomous Parking system" width="960" height="540" src="https://www.youtube.com/embed/LsQq74dnlhk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>I teraz jest pytanie czy te technologie się upowszechniają i upowszechnią? Tak, i my nawet nie zauważymy kiedy. Dlatego że one dla nas będą coraz bardziej normalne i oczywiste. Również dlatego, że absorpcja tych technologii będzie postępowała w ramach tego, jak  perfekcyjne zaczynają się stawać.</p>
<p>Często przytaczam taki przykład z zestawem głośnomówiącym w samochodzie. Wiele osób nie używa interfejsu głosowego w komórce do wybierania numerów, do sprawdzania maila, do dyktowania treści smsa. Dlatego że 20 czy 10 czy 5 lat temu zetknęli się po raz pierwszy z rozwiązaniami które nie działały w sposób dla nich intuicyjny. W chwili obecnej nawet nie próbują ich użyć, bo 5 czy 10 lat temu użyli tych rozwiązań i one nie działały, więc w głowie ekstrapolują że one nadal nie będą działały tak jak oni chcą.</p>
<p>Drugi obszar jest taki, że jako pokolenie które wyrośliśmy przy komputerze z którym bardzo często komunikujemy się przy pomocy klawiatury, to że klawiatura jest naturalnym interfejsem. Nie, klawiatura nie jest naturalnym interfejsem interakcji z systemem komputerowym. Człowiek z systemem komputerem powinien wchodzić w interakcje, tak jak z innym człowiekiem. I w momencie kiedy te bariery zostaną zatarte, będziemy mogli powiedzieć że zaczynamy z takich rozwiązań w pełni korzystać.</p>
<p>Trend, który widać dookoła urządzeń, które mamy w domu, do których możemy mówić, które mogą na polecenie głosowe włączyć światło, sprawdzić pogodę, ustawić ulubioną muzykę, zapytać co słychać, te urządzenia otwierają nas na interakcję z technologią w normalny sposób. I teraz różnica jest taka, że rzeczy które były możliwe na filmach science fiction, robionych w latach 60., w chwili obecnej zaczynają być możliwe na co dzień.</p>
<p><iframe title="VoicePod - Completely Hands Free Voice Control for Your Home" width="960" height="540" src="https://www.youtube.com/embed/uyLtcPIqcUo?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Pamiętam mojego dziadka, który fascynował się Star Trekiem z lat 60., gdzie kapitan Picard mówił do znaczka w klapie i się komunikował. W chwili obecnej jak nie mam komórki  w swoim zasięgu, to rozmowę telefoniczną mogę odebrać na komputerze albo na zegarku i rozmawiać przez zegarek. Przeszliśmy olbrzymią drogę i to co nas ogranicza to przyzwyczajenia ludzkie do tego co robiliśmy 5, 10 lat temu.</p>
<p>Zobaczmy co się dzieje w samochodach, które są powszechnie dostępne i używane. Coraz więcej powierzchni, takich które służą do operowania i zarządzania funkcjami, przechodzi w obszar materiałów elektroprzewodzących czy elektro obojętnych, gdzie na koniec dnia cieszymy się z tego rozwiązania, bo wygląda ono nowocześnie, ale z drugiej strony obniża nam koszty produkcji.</p>
<p>Wyobraźcie sobie że schowek samochodowy, który można dotknąć i on się otworzy, jest dużo tańszy w produkcji i serwisowaniu, niż schowek samochodowy złożony z 10-12 elementów, z których każdy osobno trzeba zawieźć i przetestować. Wchodzimy w pewną erę technologiczną w której rozwiązania, o których kiedyś oglądaliśmy filmy,  są już możliwe do implementacji, ale z drugiej strony nasze przyzwyczajenia ograniczyły nas, jako zwykłego użytkownika (nie mówię o technologicznych geekach).</p>
<p><b>Vladimir:<br /></b>Poruszyłeś bardzo ciekawy temat interfejsu pomiędzy człowiekiem a komputerem, a właśnie przez to, że używając klawiatury, bardzo wolno przekazujemy dane do komputera. I chciałbym zapytać o twojej opinii o Elonie Musku, a bardziej o firmie którą założył pod nazwą Neurolink. I on ma taki pomysł żeby zintegrować komputer czy maszynę z mózgiem. Wspomniałeś, że w pewnym sensie komórka, jako przykład czegoś mądrego w naszej ręce, jest częścią naszego ciała. Natomiast nie ma, przynajmniej publicznie udostępnionych, integracji pomiędzy komputerem a mózgiem. Co o tym myślisz i kiedy twoim zdaniem to będzie możliwe?</p>
<p>https://www.youtube.com/watch?v=y6rqNLDnO94</p>
<p><b>Piotr:<br /></b>Myślę że to będzie możliwe szybciej niż nam się to wydaje, dlatego że takie rozwiązania powstają już od wielu lat. Nazwijmy to rozwiązania, które bazując na pewnych odkryciach i cechach zachowań fal mózgowych i naszych reakcjach elektrycznych w mózgu, chociażby w trakcie badania EEG, pozwalają sterować obiektami, przesuwać je. I tego typu rozwiązania już istnieją. Od tego teoretycznie jest bardzo krótka droga do wykonywania bardziej skomplikowanych czynności.</p>
<p>Co jest ciekawe w tych rozwiązaniach? To to, że korzystają z nanotechnologii. To będzie kolejny olbrzymi trend, jeżeli chodzi o <a href="https://pl.wikipedia.org/wiki/Wearables" rel="nofollow"><i>wearable devices</i></a> czyli wszelkiego rodzaju urządzenia, które nosimy na sobie, a za chwile będziemy nosić w sobie lub na sobie, ale w zupełnie innej postaci. Zauważmy, że coś co się zaczęło od różnego rodzaju gadżetów fitnessowych w chwili obecnej przeradza się w trend bardzo związany ze zdalną opieką i diagnostyką medyczną.</p>
<p><iframe title="How wearable technology will change our lives | Gonzalo Tudela | TEDxSFU" width="960" height="540" src="https://www.youtube.com/embed/u8tnYt30L-A?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Obserwujemy,że jeżeli chodzi o miniaturyzację wszelkiego rodzaju czujników, a wraz z miniaturyzacją i zwiększaniem się mocy obliczeniowej w pojedynczym układzie tranzystorowym, możliwa jest wstępna analiza danych już na poziomie samego urządzenia. Są bardzo mocno zaawansowane prace nad soczewkami, które pozwalają wyświetlać rzeczywistość rozszerzoną.</p>
<p>Pamiętam, jak zaczynałem swoją pracę w IBM, firma Polcont prowadziła konferencje w Polsce dotyczącą nowych technologii i już ponad 10 lat temu pokazywaliśmy tam ekrany HUD dla żołnierza przyszłości. W chwili obecnej w różnych firmach trwają prace nad tym, żeby ekrany HUD integrować z soczewką wkładaną do oka, więc postęp w tej dziedzinie jest niesamowity.</p>
<p>Pytanie jest tylko takie, czy jesteśmy w stanie znależć realna wartość biznesową czy realną wartość dla naszego życia codziennego, płynącą z takich rozwiązań. I to jest bardzo często dyskusyjne, bo wiele rzeczy da się zrobić nawet w sposób optymalny kosztowo, a druga rzecz &#8211; pokazać użytkownikom że oni tego tak naprawde potrzebują.</p>
<p><b>Vladimir:<br /></b>Nas słuchają osoby decyzyjne, ludzie z biznesu, które chcą zacząć używać uczenie maszynowe w praktyce. Jakie praktyczne rady możesz im dać, na co należy zwracać szczególną uwagę? Jak użyć uczenia maszynowego w sposób optymalny?</p>
<p><b>Piotr:<br /></b>Możno podejść do tego na dwa sposoby. Pierwszy sposób &#8211; to korzystać z usług partnerów, którzy już coś zrobili, gdzieś zaimplementowali i mogą to pokazać. Może to być zrobione w obszarze naszej branży, tego co nasza firma robi. A z drugiej strony, jeżeli naprawdę chcemy zmieniać pewnego rodzaju branżę i budować swoją przewagę konkurencyjną, to musimy mieć pewnego rodzaju zwiększoną chęć do ponoszenia ryzyka.</p>
<p>Pamiętajmy, że wszelkiego rodzaju nowe technologie i rozwiązania, nawet jeżeli wygląda na to, że biznes kejsy wychodzą pozytywnie, niosą ze sobą odpowiednie ryzyko, że założone cele mogą się nie sprawdzić albo nie zadziałać. Dlatego zachęcam przede wszystkim do budowania prototypów, do sprawdzania koncepcji, do tego żeby nie brnąć w olbrzymie monolityczne projekty, które mają być realizowane przez rok, dwa, trzy. Tylko podchodzić do nich w taki sposób, żeby wymyślać w jakim obszarze może być wniesiona wartość, sprawdzić czy ta wartość ma szansę być wniesiona, a następnie podjąć ryzyko jej implementacji. Bo to jest jedyny sposób na wyprzedzenie konkurencji naszej branży.</p>
<p>Jeżeli będziemy bezczynnie czekali tylko i wyłącznie na to, żeby współpracować i budować rozwiązania, które ktoś już zaimplementował na rynku i z sukcesem, to znaczy że nigdy nie będziemy tymi, którzy na tym rynku będą wygrywali dzięki technologii. Zawsze będziemy podążającym za kimś i być może z czasem zrobimy to rozwiązanie nawet lepiej niż nasza konkurencja, ale nadal to nie my będziemy tymi innowacyjnymi, zmieniającymi oblicze branży i o których będa mówili na prezentacjach.</p>
<p>W momencie kiedy mamy do czynienia z nowymi pomysłami i technologiami, musimy zaakceptować pewnego rodzaju ryzyko, chyba że przenosimy dokładnie jeden do jednego rozwiązanie, które już przez kogoś zostało zaimplementowane.</p>
<p><b>Vladimir:<br /></b>Jeżeli chcemy być liderami, nie możemy się bać, a tylko eksperymentować. Natomiast musi być zdrowy rozsądek. Muszą to być bardzo tanie eksperymenty, szybka informacja zwrotna, ale jeżeli nam na tym nie zależy zawsze będziemy krok do tyłu.</p>
<p><b>Piotr:<br /></b>Tak i osoby które do tej pory nie spotkały się z <a href="https://pl.wikipedia.org/wiki/Programowanie_zwinne" rel="nofollow">metodykami zwinnymi</a> prowadzenia projektów i mają bardzo często problem z akceptacją tego bądź definicją tego, co może być uznane za <i>proof of technology</i> czy <i>proof of concept</i>. I bardzo często dążą do tego, żeby swoją wizje świata idealnego przenosić na wymagania na proof of concept. I to się nigdy nie sprawdzi.</p>
<p>Pamiętam jak w Polsce zaczynał kiełkować trend <i>Cloud Computingu</i> czy usług chmurowych. Wiele firm postanowiło że chcą mieć takie infrastruktury, zbudowane u siebie. Zaczęło budować specyfikacje tego co chcą, specyfikacje które wysyłali do dostawców opisywały rozwiązania, które może zaistnieją na rynku za 5-6 lat, firmom którzy w tym się specjalizują. I taki sposób nigdy nie zadziała.</p>
<p><b>Vladimir:<br /></b>Powiedziałeś kiedyś, że “Kluczową kompetencją staje się zdolność adaptacji do przemian oraz wykorzystania trendów.” Z jednej strony nic nowego, bo w biznesie zawsze chodziło o zmiany. Wydaje się, że jednak w Twojej frazie jest głębszy sens. Człowiek zdecydowanie wolnej adaptuje się do zmian, niż technologia. Przez technologie zmiany będą napędzane jeszcze szybciej. Proszę podziel się swoją opinią na ten temat… I dokąd to wszystko pędzi? Gdzie będziemy za 20 czy nawet 10 lat?</p>
<p><b>Piotr:<br /></b>Pierwsza rzecz jest taka, że największym stoperem rozwoju technologii i implementacji technologii na koniec dnia, są ludzie, nasze obawy i brak otwartości.</p>
<p>Wyobraźmy sobie bardzo prosty przykład. Mam sieć sklepów czy hurtowni (załóżmy na terenie całego kraju), chcę zwiększyć profitowość sprzedaży, chcę obniżyć koszty magazynowania, chce zoptymalizować logistykę. Dlaczego nie wykorzystać w modelu planowania, przewidywanie i prognozowanie pogody. Dane które są dostępne, które firmy w wielu miejscach świata używają czy testują. Co nas przed tym powstrzymuje? Wstrzymuje niechęć do podejmowania ryzyka i niechęć do zmiany. Pomimo tego, że podświadomie (w tym przykładzie) wszyscy czują że informacja dwa tygodnie wcześniej o tym, że na przykład w wakacje polskie wybrzeże będzie nie słoneczne i warto tam dostarczyć parasole, powinna być zautomatyzowana. Dlatego że wtedy siadają koszty operacyjne i podnosi się nasza wydajność. Dzięki temu, na przykład w skali sieci sklepów, obniżają się koszty logistyki, podnosi się marżowość produktu, podnosi się wielkość pojedynczego koszyka.</p>
<p>To jest jeden przykład z życia jakiejś bardzo konkretnej branży, która mogłaby wykorzystać pewnego rodzaju dane pogodowe do usprawnienia swoich wewnętrznych procesów, optymalizacji sprzedaży i zarządzania asortymentem.</p>
<p>W którą stronę to idzie. Dosyć ciekawie to opisują w książce Race Against the Machine profesorowie z MIT. Którzy pokazują tezę taką, że idziemy w stronę świata w którym w pewnym momencie będziemy musieli ludziom płacić za nie robienie niczego. Nastąpi taki poziom automatyzacji, taki poziom zastąpienia ludzi, że albo całe branże i całe grupy zawodowe będą się transformowały, albo będą powstawały grupy zawodowe ,którym trzeba będzie płacić wynagrodzenie za nie robienie niczego. I to jest bardzo ciekawie opisane w książce <a href="http://amzn.to/2rojQrd" rel="nofollow">Race Against the Machine</a> którą bardzo serdecznie polecam.</p>
<ul class="books">
<li><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0984725113&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0984725113" alt="" width="1" height="1" border="0" /></li>
</ul>
<p>Na pewno stoimy w perspektywie czasu przed wyzwaniami nie stricte technologicznymi, ale przed wyzwaniami stricte socjologicznymi i to pewnie będzie obszar do zagospodarowania przez wielu badaczy i wiele firm.</p>
<p>Trochę powtarzamy czasy rewolucji przemysłowej. Pamiętajmy, że historia lubi się powtarzać, tak jak przeszliśmy z epoki kamienia w epokę koła, później przez wiele innych etapów do rewolucji przemysłowej, która też miała wiele zmienić. Weszły maszyne parowe, które też zmieniły sposób w jaki ludzie pracowali i wytwarzali dobra. W chwili obecnej żyjemy w świecie rewolucji bardzo mocno cyfrowej, gdzie zmienił się tylko obszar, który napędza tę rewolucję z pary na dane. Co nam to przyniesie&#8230;zobaczymy! Zakładam że samo dobro.</p>
<p><b>Vladimir:<br /></b>Czyli jesteś nastawiony optymistycznie…</p>
<p><b>Piotr:<br /></b>Bardzo. Inaczej nie byłoby postępu.</p>
<p><b>Vladimir:<br /></b>Zapytałem o przyszłość technologiczną, teraz zapytam o przyszłość prywatną. Może zdradzisz trochę o planach które masz, zwłaszcza związane z tematem uczenia maszynowego czy sztucznej inteligencji?</p>
<p><b>Piotr:<br /></b>Bardzo trudne pytanie. Na pewno chcę uczestniczyć w jak największej ilości projektów w których uczenie maszynowe przekuwa się na realną wartość dla końcowego klienta.</p>
<p>Na pewno chciałbym uczestniczyć w projektach, które łączą uczenie maszynowe z daleko posuniętą robotyzacją. Bardzo ciekawym obszarem rozwiązań są powstające egzoszkielety, wsparcie ich sztuczną inteligencją, opomiarowanie. To są rzeczy, które mogą przynieść w perspektywie niedalekiego czasu niesamowity postęp, zwłaszcza w obszarze rehabilitacji osób niepełnosprawnych, po wypadkach, przykutych do łóżka. To są rzeczy, które będą zmieniały naszą rzeczywistość i otwierały nowe możliwości przed ludźmi, którzy do tej pory tych możliwości nie mieli. Chciałbym być częścią takich zmian. Traktuje to jako podróż w nieznane, ale jestem gotowy ją odbyć.</p>
<p><b>Vladimir:<br /></b>Ostatnie pytanie na dzisiaj. Czy w razie potrzeby słuchacze mogą kontaktować się z Tobą i jeżeli tak, to jak mogą to zrobić? Czy jesteś otwarty na takie kontakty?</p>
<p><b>Piotr:<br /></b>Jak najbardziej. Najszybciej można się ze mną skontaktować przez Twitter. Mój nickname po prostu <a href="https://twitter.com/PiotrPietrzak" rel="nofollow">PiotrPietrzak</a>.</p>
<p><b>Vladimir:<br /></b>Dziękuję Ci bardzo za twój czas.</p>
<hr />
<p><b>Podsumowanie</b></p>
<p>Rozmowa z Piotrem mogła jeszcze trwać co najmniej godzinę… Jest to człowiek pasji i dość rzadko spotyka się osobę, która pracuje w tak dużej firmie na wysokim stanowisku i jest tak otwarty w rozmowie (również już po nagraniu podcastu). Spędziliśmy jeszcze jakiś czas na omówieniu różnych tematów i wyzwań które są obecnie.</p>
<p>Ciekaw jestem Twojej opinii. Podziel się na itunes zastawiając komentarz, czy na stronie biznesmysli.pl albo na facebook. Będę bardzo za to wdzięczny.</p>
<p>Już dostaję od słuchaczy pytania na różne tematy związane z uczeniem maszynowym. Jeżeli również masz jakieś &#8211; to pisz śmiało do mnie, na stronie <a href="http://biznesmysli.pl/kontakt" rel="nofollow">kontakt</a> znajdziesz formularz. Również, jeżeli zależy Ci bardzo, żebym skupił się nad którymś tematem bardziej, to proszę daj mi tym znać, zbieram takie głosy i to pomaga mi ustalić dalsze priorytety. W najbliższym czasie mam już plan szeregu wywiadów z ciekawymi ludźmi z branży. Z drugiej strony, myślę, że warto robić tematy gdzie skupiam się nad pewnym zagadnieniem, jak to było w kilku pierwszych odcinkach. Co o tym myślisz?</p>
<p><b>Podziękowania</b></p>
<p>Tomasz Wóźniak zostawił recenzję na itunes z pięciu gwiazdkami. Dzięki wielkie Tomku :).</p>
<p>Patryk Wójcik również dziękuję Tobie za Twoją aktywność, udzielanie komentarze na blogu, facebook.</p>
<p>Dziękuję również za like, tweety, polubienia &#8211; bardzo mi miło, że to co robię ma odzew :).</p>
<p><b>Ogłoszenia<br /></b>Zacząłem ten odcinek od konferencji zorganizowanej przez Apple. Jeżeli chcesz posłuchać więcej detali po polsku to polecam odcinek #13, podcastu Szymona Drejewicza  &#8211; Data Science po polsku. Szymon bardziej skupia się na procesie, również ten podcast może być bardzo ciekawy jeżeli rozważasz zrobić swoją karierę jako “data scientist”.</p>
<p>Miałem okazję być gościem podcastu “Lepiej Teraz” który prowadzi Radosław Budnicki. Jeżeli jeszcze nie słuchałeś tego podcastu &#8211; to gorąco polecam. Radek jest coachem na co dzień i ma talent do znajdowania ciekawych i inspirujących ludzi, których zaprasza na rozmowę. Mój wywiad jest w <a href="http://www.lepiejteraz.pl/sztuczna-inteligencja/" rel="nofollow">odcinku nr. 59</a>, gdzie między innymi dowiesz się więcej o mnie. Zapraszam do posłuchania podcastu “Lepiej Teraz”.</p>
<p>W sobotę, 17 czerwca odbyła się konferencja dla podcasterów i słuchaczy podcastów &#8211; Polcaster 2017. Miałem okazję również opowiedzieć o trudnościach jakie miałem, kiedy zaczynałem Biznes Myśli i jak je pokonywałem.</p>
<p>Podcast ma dopiero trzy miesiące i staje się coraz bardziej popularny. Już był w TOP 20 wszystkich podcastów i TOP 2 w kategorii biznes.</p>
<figure id="attachment_385" aria-describedby="caption-attachment-385" style="width: 2048px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/06/biznes.jpg"><img decoding="async" class="size-full wp-image-385" src="https://biznesmysli.pl/wp-content/uploads/2017/06/biznes.jpg" alt="Biznes Myśli | 2 miejsce w rankingu" width="2048" height="1141" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/biznes.jpg 2048w, https://biznesmysli.pl/wp-content/uploads/2017/06/biznes-300x167.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/06/biznes-1024x571.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/06/biznes-768x428.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/06/biznes-1536x856.jpg 1536w, https://biznesmysli.pl/wp-content/uploads/2017/06/biznes-1140x635.jpg 1140w" sizes="(max-width: 2048px) 100vw, 2048px" /></a><figcaption id="caption-attachment-385" class="wp-caption-text">Biznes Myśli | 2 miejsce w rankingu</figcaption></figure>
<p>To jest super… ale często nie widać jakie trudności są pomiędzy. Wyjścia ze strefy komfortu, wątpliwości i wiele innych emocji. Chciałem opowiedzieć swoją historię i podzielić się tym jak to przeżywałem i  radziłem sobie z tymi wyzwaniami. Mało tam jest o moim bohaterstwie, ale dużo o tym jak małymi krokami i wsparciu właściwych osób możesz osiągnąć wszystko co tylko chcesz. Tego bardzo Ci życzę… żeby w Twoim otoczeniu znalazły się osoby które pomogą Ci rozwinąć Twoje skrzydła.</p>
<p><iframe title="Od sztucznej inteligencji do podcastu | Polcaster 2017" width="960" height="540" src="https://www.youtube.com/embed/ChwLo1QqnG4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Bardzo polecam obejrzeć to osobam które wychdozą ze strefy komfortu i mają dużo wątpliwości.</p>
<p>27 czerwca, w Krakowie będę miał przyjemność <a href="https://www.eventbrite.com/e/omgkrk-academy-2-forecasting-the-future-how-will-artificial-intelligence-and-virtual-reality-tickets-35401056513" rel="nofollow">powiedzieć</a> więcej na temat sztucznej inteligencji, a mianowicie o ryzyku i możliwościach które nam daje. Również będzie na VR &#8211; wirtualnej rzeczywistości. Jeżeli będziesz w Krakowie w tym czasie, chcesz posłuchać tych tematów a może spotkać się ze mną, to gorąco zapraszam.</p>
<p>To tyle na dzisiaj. Dziękuję za Twój czas, Twoją energię i do usłyszenia w następnym odcinku.</p>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0374533555/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0374533555&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=035d3b74730df638d1c674bb86e50853" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0374533555&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0374533555" alt="" width="1" height="1" border="0" /></li>
<li><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0984725113&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0984725113" alt="" width="1" height="1" border="0" /></li>
</ul><p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-ibm-piotr-pietrzak/">Sztuczna inteligencja i IBM &#8211; rozmowa z Piotrem Pietrzakiem &#8211; CTO w IBM</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/sztuczna-inteligencja-ibm-piotr-pietrzak/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
