<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Gartner &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/tag/gartner/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/tag/gartner/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Tue, 11 Feb 2020 13:45:02 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>Gartner &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/tag/gartner/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Autonomiczne samochody</title>
		<link>https://biznesmysli.pl/autonomiczne-samochody/</link>
					<comments>https://biznesmysli.pl/autonomiczne-samochody/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 12 Mar 2018 04:00:10 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[autonomiczny samochód]]></category>
		<category><![CDATA[Gartner]]></category>
		<category><![CDATA[Karol Majek]]></category>
		<category><![CDATA[udacity]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=836</guid>

					<description><![CDATA[<p>Z tego odcinka dowiesz się: czym są samochody autonomiczne, czym się różnią od autopilotów, czy samochody autonomiczne podejmują decyzję zamiast kierowcy, jacy producenci mają najbardziej zaawansowane prace nad modelami autonomicznymi, czym jest lidar i dlaczego jest konieczny w takich samochodach, ile tego typu samochodów wychodzi rocznie na rynek, ile czasu potrzeba, żeby wymienić wszystkie auta na te nowej generacji, czy kierując takim pojazdem potrzebne jest prawo jazdy, czy samochody autonomiczne są testowane w różnych warunkach klimatycznych, jak wygląda rozwój samochodów autonomicznych w Chinach, czy kolejnym krokiem będą latające pojazdy, czy samochody autonomiczne są zabezpieczone przed hakerami. Gartner – agencja analityczno-doradcza – co rok przygotowuje 10 najbardziej wyraźnych trendów. Już wcześniej omówiłem trendy na rok 2017, teraz skupię się na roku 2018.  Jak łatwo można się domyślić, na pierwszym miejscu znajduje się tak zwana sztuczna inteligencja. Zaznaczono tam, że firmy będą miały możliwość korzystania ze sztucznej inteligencji w celu usprawniania procesu decyzyjnego, tworzenia nowych modeli biznesowych i ekosystemów oraz tworzenia nowych doświadczeń dla klientów, co będzie przynosić swoje owoce do roku 2025. Kolejne dwa miejsca również są związane z uczeniem maszynowym. Na drugim miejscu były inteligentne aplikacje oraz inteligentna analityka, a na trzecim znalazły się inteligentne rzeczy. Porównując z poprzednim rokiem, widać, że czołówka została podobna i jeszcze bardziej się rozkręca. Z drugiej strony warto pamiętać, że teraz jest dużo przypadków, kiedy firmy zaczynają stosować uczenie maszynowe na poziomie emocji. To jednak wymaga przejścia pewnych kroków. Jeśli jesteś osobą decyzyjną, polecam posłuchać odcinka z Wojtkiem: Data Driven Organisation. Technologia jest ważna, ale warto pamiętać o wadze kultury w Twojej firmie. Dzisiejszym tematem są samochody autonomiczne. Jest to jedna z najbardziej widocznych gałęzi, jeśli chodzi o zmiany w przyszłości. Gościem jest Karol Majek – jeden z najlepszych znanych mi specjalistów w tym zakresie w Polsce.  Poruszyliśmy kilka tematów, zaczynając od tego, czy nasze dzieci będą potrzebowały prawa jazdy, a kończąc na śmieszniejszych, ale jednak kreatywnych tematach, jak na przykład autonomiczne trampki. Karol przygotował dla Ciebie prezent – „Samochody autonomiczne”, ale o tym będzie na końcu. Wtedy powiem też trochę o pierwszej rocznicy Biznesu Myśli. To zaczynamy&#8230; Cześć Karol. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz? Cześć Vladimir, jestem obecnie jednym z pierwszych inżynierów samochodów autonomicznych w Polsce, po kursie Self Driving Car Engineer Nanodegree by Udacity. Skończyłem studia na Politechnice Warszawskiej z tytułem magistra inżyniera robotyki mobilnej. Przez kilka lat zajmowałem się nauką, obecnie chcę kłaść większy nacisk na wdrożenia. Mieszkam pod Warszawą, natomiast często wyjeżdżam na różne konferencje czy zawody. Ostatnio byłem trzy miesiące w Instytucie Fraunhofera i pracowałem tam nad tworzeniem przez robota autonomicznego fotorealistycznych modeli otoczenia na podstawie obrazu z kamer oraz skanerów laserowych. No to tyle ciekawych rzeczy, mam nadzieję, że to wszystko rozwiniemy w tym odcinku. A teraz dość standardowe pytanie, co ostatnio czytałeś? Ostatnio czytałem bardzo ciekawą książkę „Świt robotów”. Ta książka opowiada o tym, czy sztuczna inteligencja pozbawi nas pracy. Jest to bardzo ciekawa pozycja. Bardzo fajna książka, ja też ją przerabiałem. Biorąc pod uwagę, że ta książka była wydana kilka lat temu, a świat zmienia się szybciej niż myślisz, to są w niej bardzo trafnie zebrane różne fakty, również predykcje, na temat tego, co może się wydarzyć. Traktuje między innymi o autonomicznych samochodach. Przejdźmy teraz do tematu. Powiedz, czym zajmujesz się na co dzień? Na co dzień pracuję w różnych projektach programistycznych, zajmuję się także trenowaniem głębokich sieci neuronowych, szczególnie jeśli chodzi o wykrywanie obiektów. Ostatnio wracam do projektu z Udacity, gdzie wraz z drużyną studentów Udacity stworzyliśmy samochód autonomiczny, który miał za zadanie jeździć po torze wyścigowym – miało to miejsce w zeszłym roku w kwietniu podczas zawodów Self Racing Cars w Kalifornii. Z tego, co pamiętam, to udostępniałeś też wideo na Facebooku, na jednej z warszawskich ulic jedziesz samochodem i wykrywasz, segmentujesz ludzi, samochody, drogę itd. Jest to bardzo ciekawe. Dzisiejszym tematem są autonomiczne samochody. Czy możesz wyjaśnić, co to jest? Podaj proszę jakieś przykłady albo porównaj, czym różni się autopilot w samolocie od autonomicznego samochodu? Tutaj z pomocą przychodzi nam standard, który rozróżnia pięć poziomów autonomii. Został on stworzony przez Stowarzyszenie Inżynierów Motoryzacji. Wyróżniamy poziom zerowy, czyli jest to kompletny brak autonomii – są to takie samochody, jak były kiedyś i jak są obecnie, a które nie mają żadnych systemów wspomagających kierowcę. Poziom pierwszy zakłada już podstawowe wspomaganie kierowcy jak na przykład utrzymanie na pasie ruchu czy adaptacyjny tempomat. Poziom drugi wprowadza już częściową automatyzację, tutaj mamy rozwiązanie w postaci autopilota Tesli czy rozwiązania innych producentów samochodów. Te rozwiązania pozwalają na jednoczesne utrzymanie w pasie ruchu i kontrolę prędkości. Poziom trzeci to warunkowa automatyzacja, co przedstawia np. nowe Audi A8, gdzie poniżej 60 km/h samochód jest w stanie jechać cały czas autonomicznie, stając w korku lub poruszając się po mieście. Natomiast po przekroczeniu tej prędkości kierowca musi przejąć kontrolę nad pojazdem, co właściwie wprowadza dodatkowe zagrożenie, bo człowiek jest już przyzwyczajony, że samochód dba o bezpieczeństwo. Natomiast tutaj powyżej tej prędkości trzeba jednak przejąć kontrole i skupić się na prowadzeniu. W ramach czwartego poziomu system prowadzi za nas przez zdecydowaną większość czasu i przejmujemy kontrolę tylko w nagłych przypadkach – zostajemy o tym uprzedzeni np. 10 sekund wcześniej. I w ostatnim piątym poziomie mamy już pełną automatyzację. Samochód jest w stanie bez kierowcy dowieźć nas do naszego celu. Podsumowując, w pierwszych trzech poziomach, biorąc pod uwagę również ten zerowy, to człowiek monitoruje otoczenie. Natomiast od poziomu trzeciego system samochodu monitoruje otoczenie wokół nas. W przypadku samolotu mamy troszkę inną sytuację, gdyż samochód porusza się na drodze wśród innych samochodów i jest ich znacznie więcej w ramach tej przestrzeni, jaką zajmuje samochód, niż w przypadku samolotu, gdzie w jego przestrzeni znajduje się znacznie mniej innych samolotów i przestrzeń jest znacznie większa. W przypadku samolotów łatwiejsza jest również nawigacja i lokalizacja, gdyż sygnał GPS nie jest zakłócany przez budynki, tunele. Dopuszczamy również większe błędy lokalizacji GPS, gdyż mamy dość dużą przestrzeń i ryzyko kolizji jest bardzo niskie. Na drodze potrzebujemy dokładności do kilkunastu centymetrów lub mniej, żeby poruszać się autonomicznie. Wygląda na to, że autonomiczne samochody mają znacznie większe wyzwania. Spróbujmy teraz zrozumieć, jak to działa? Zwłaszcza jeżeli chodzi o poziom trzeci i w górę. Spróbuj wyjaśnić na przykładach, w jaki sposób samochód potrafi zaangażować się w ruchu i podejmować prawidłowe decyzje? Jeśli chodzi o sterowanie samochodu, to wyróżniamy takie klasyczne podejście, gdzie znamy dokładną trajektorię, jaką ten samochód powinien się poruszać i następnie system sterowania z tą trajektorią, omija przeszkody, to znaczy inne samochody, pieszych, rowery itd. Także do podejmowania decyzji podejście takie wymaga bardzo dużych zbiorów danych, natomiast jest ono już możliwe. Dobra, w takim razie ta wiedza jest zbierana i mamy już większą moc obliczeniową, lepsze algorytmy. Ale czy te decyzje są w jakiś sposób współdzielone? Czy każdy samochód jest odizolowany i próbuje sam podejmować te decyzje? Obecnie samochody podejmują decyzje samodzielnie, mają połączenie z internetem. Na potrzeby omijania korków, na potrzeby informacji o zagrożeniach drogowych wykorzystuje się internet oraz dane z internetu. Obecnie samochody, które są wypuszczane na rynek nie współdziałają ze sobą, nie mają informacji o wzajemnych ruchach, nie próbują współpracować, ustępować sobie miejsca. Nie ma jeszcze takich rozwiązań. Waymo, Tesla i wiele innych firm bardzo aktywnie pracują nad rozwojem autonomicznego samochodu. No i właśnie tak z Twojego punktu widzenia jako inżyniera, gdzie technologicznie teraz jesteśmy? Obecnie Waymo jest na poziomie czwartym, jeśli chodzi o autonomię. Testują swoje samochody już bardzo długo, zwiększają czas jazdy bez dezaktywacji autonomicznego systemu. Ten czas się bardzo wydłuża, znacznie wzrosła liczba samochodów, jakie Waymo posiada i jakie testuje na drogach, przez co znacznie szybciej pokonują swoimi samochodami tysiące kilometrów. Jeśli chodzi o Teslę, Tesla ma tę przewagę, że wprowadziła produkt komercyjny, który jest kupowany już na całym świecie. Ich samochody są przygotowane pod, powiedzmy, poziom czwarty. Jednak obecnie wykorzystywany w autopilocie jest poziom drugi autonomii, natomiast wielką przewagą Tesli jest to, że samochody są na rynku, każdy może je kupić, a gdy osiągną możliwość nawigacji autonomicznej, autonomicznego poruszania się na poziomie wyższym, wystarczy tylko zaktualizować oprogramowanie i każdy będzie już mógł korzystać z tych możliwości. Brzmi to bardzo ciekawie, że w momencie osiągnięcia poziomu czwartego przez Teslę czy innego producenta, wystarczy tylko zaktualizować software i już można jechać. Zapytam teraz o Waymo, które testuje prototyp zamawiania taksówek autonomicznych. W podobnym kierunku dąży też Uber, który dość mocno zainspirował się technologią Google, ale teraz pomińmy ten wątek, dla osób zainteresowanych podaję link. I obie firmy używają między innymi tzw. lidara. Wyjaśnij proszę, co to jest ten lidar i czy jest on konieczny dla samochodów autonomicznych? Bo chociażby Elon Musk, mówiąc o Tesli, nadal wątpi, że lidar jest konieczny. Chciałbym wspomnieć o pracowniku Waymo, który przeszedł do Ubera i Google posądził Ubera o pobranie od pracownika tajnych informacji, natomiast ciekawostka jest taka, że ten spór zakończył się w tym roku i Uber nie przyznał się do winy. Natomiast ma zapłacić Google’owi 245 milionów dolarów i sprawa będzie zamknięta. Jeśli chodzi o lidary, czyli systemy laserowe, skanery laserowe, to mierzą one czas lotu światła do obiektu albo zmiany fazy podczas tego lotu, co daje nam dokładny pomiar odległości. Razem z moim kolegą, w ramach jego firmy Mandala, zajmujemy się technologiami laserowymi i tworzymy polskie skanery laserowe 3d. Do obecnych skanerów laserowych tworzymy sprzęt, który umożliwia obracanie go wokół dodatkowej osi, co pozwala nam uzyskać trójwymiar w każdym kierunku. Co do wykorzystania skanerów laserowych to jestem w zasadzie po obu stronach, bo z drugiej strony pracuję również w zespole z Udacity, gdzie wykorzystujemy kamerę światła widzialnego do poruszania się samochodu – robiliśmy to w zeszłym roku na torze wyścigowym. Więc z jednej strony wierzę, że jest możliwe zrobienie samochodu autonomicznego tylko na kamerach wizyjnych rozmieszczonych dookoła samochodu, z drugiej strony wiem, jakie są ograniczenia – nie zawsze jesteśmy w stanie ocenić odległość, gdyż nie zawsze są cechy jak w obrazie. Jeżeli mielibyśmy białą ciężarówkę, co zdarzyło się w przypadku Tesli, przejeżdżającą w poprzek skrzyżowania, samochód może jej nie zauważyć, może nie ocenić odległości na podstawie obrazu z kamery i może się stać tragedia, tak jak to miało miejsce w przypadku Tesli, gdzie Tesla nie zauważyła ciężarówki i przejechała pod nią, zabijając kierowcę. Jest to bardzo smutna sytuacja, a zastosowanie laserów pozwoli nam tego uniknąć. Powstają teraz nowe technologie laserów, które dają dużo dokładniejsze, dużo gęstsze dane i ciągle spada ich cena. Ostatnio bardzo popularne lasery firmy Velodyne staniały o połowę, co jest krokiem w dobrą stronę. Elon Musk zarzucał laserom zbyt wysoką cenę, a po drugie uważa, że same kamery powinny wystarczyć. Ale jak będzie w praktyce – zobaczymy. Rozumiem. Znów wspomnę o Elonie Musku, ale teraz zadam takie bardziej wizjonerskie pytanie. Elon Musk w roku 2017 powiedział, że na całym świecie produkowane jest około 100 milionów samochodów rocznie. Sprawdziłem to, znalazłem statystyki i okazuje się, że sprzedawane jest przynajmniej około 80 milionów samochodów, więc prawdopodobne jest, że produkowane jest około 100 milionów. I dalej były rozważania, że skoro wszystkich samochodów na świecie jest około 2 miliardów, to potrzebujemy około 20 lat, żeby powymieniać fizycznie te wszystkie samochody na autonomiczne, czyli stąd można wyciągnąć wniosek, że nawet jeśli technologicznie jesteśmy gotowi już dzisiaj, to to przejście nie będzie natychmiastowe. Z drugiej strony Elon Musk powiedział, że już nawet za 10 lat nasz świat może nas mocno zaskoczyć, jeżeli chodzi autonomiczne samochody. No i teraz pytanie: mój syn ma 2 lata, jak myślisz, czy będzie potrzebował prawa jazdy na samochód? To jest fantastyczne pytanie, moi synowie również mają 2 lata, tak że bardzo się z tym identyfikuję. Jeśli chodzi o wdrażanie samochodów, to faktycznie potrzebujemy sporo czasu i tak jak mówiłem Tesla jest na dobrej drodze, bo oni już te samochody jakby wymienili. Jeżeli chodzi o pozostałe samochody, no to pytanie brzmi: jak długo ludzie jeżdżą samochodami? Nie kupujemy wszyscy nowych samochodów, a bardzo duży odsetek ludzi kupuje samochody używane. Nawet jeśli kupujemy nowy samochód, to ile osób ma ten pierwszy poziom autonomii? Powiedzmy, że tempomat zwykły, to już jest raczej standard, natomiast jeśli chodzi o utrzymanie pasa ruchu, czy aktywny tempomat, który zwalnia, dostosowuje prędkość do samochodu przed nami, jest to jednak mniej popularne. Pytanie też, ile osób kupi np. Audi A8, które teraz ma ten poziom trzeci...</p>
<p>Artykuł <a href="https://biznesmysli.pl/autonomiczne-samochody/">Autonomiczne samochody</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-Z1mw116 wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/podcast27" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p><span style="font-weight: 400;">Z tego odcinka dowiesz się:</span></p>
<ul>
<li style="font-weight: 400;"><span style="font-weight: 400;">czym są samochody autonomiczne,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czym się różnią od autopilotów,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czy samochody autonomiczne podejmują decyzję zamiast kierowcy,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">jacy producenci mają najbardziej zaawansowane prace nad modelami autonomicznymi,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czym jest lidar i dlaczego jest konieczny w takich samochodach,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">ile tego typu samochodów wychodzi rocznie na rynek,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">ile czasu potrzeba, żeby wymienić wszystkie auta na te nowej generacji,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czy kierując takim pojazdem potrzebne jest prawo jazdy,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czy samochody autonomiczne są testowane w różnych warunkach klimatycznych,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">jak wygląda rozwój samochodów autonomicznych w Chinach,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czy kolejnym krokiem będą latające pojazdy,</span></li>
<li style="font-weight: 400;"><span style="font-weight: 400;">czy samochody autonomiczne są zabezpieczone przed hakerami.</span></li>
</ul>
<p><span id="more-836"></span></p>
<p><span style="font-weight: 400;">Gartner – agencja analityczno-doradcza – co rok przygotowuje 10 najbardziej wyraźnych trendów. Już wcześniej omówiłem trendy na </span><a href="http://biznesmysli.pl/sztuczna-inteligencja-w-biznesie/"><span style="font-weight: 400;">rok 2017</span></a><span style="font-weight: 400;">, teraz skupię się na </span><a href="https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2018/" class="broken_link"><span style="font-weight: 400;">roku 2018</span></a><span style="font-weight: 400;">.  Jak łatwo można się domyślić, na pierwszym miejscu znajduje się tak zwana sztuczna inteligencja. Zaznaczono tam, że firmy będą miały możliwość korzystania ze sztucznej inteligencji w celu usprawniania procesu decyzyjnego, tworzenia nowych modeli biznesowych i ekosystemów oraz tworzenia nowych doświadczeń dla klientów, co będzie przynosić swoje owoce do roku 2025. </span></p>
<p><span style="font-weight: 400;">Kolejne dwa miejsca również są związane z uczeniem maszynowym. Na drugim miejscu były inteligentne aplikacje oraz </span><span style="font-weight: 400;">inteligentna analityka</span><span style="font-weight: 400;">, a na trzecim znalazły się inteligentne rzeczy.</span></p>
<p><span style="font-weight: 400;">Porównując z poprzednim rokiem, widać, że czołówka została podobna i jeszcze bardziej się rozkręca. Z drugiej strony warto pamiętać, że teraz jest dużo przypadków, kiedy firmy zaczynają stosować uczenie maszynowe na poziomie emocji. To jednak wymaga przejścia pewnych kroków. Jeśli jesteś osobą decyzyjną, polecam posłuchać odcinka z Wojtkiem: </span><a href="http://biznesmysli.pl/data-driven-organisation/"><span style="font-weight: 400;">Data Driven Organisation</span></a><span style="font-weight: 400;">. Technologia jest ważna, ale warto pamiętać o wadze kultury w Twojej firmie.</span></p>
<figure id="attachment_837" aria-describedby="caption-attachment-837" style="width: 2592px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037.jpg"><img decoding="async" fetchpriority="high" class="size-full wp-image-837" src="https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037.jpg" alt="Karol Majek" width="2592" height="1458" srcset="https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037.jpg 2592w, https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037-300x169.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037-768x432.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037-1024x576.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2018/03/20170402_091037-480x270.jpg 480w" sizes="(max-width: 2592px) 100vw, 2592px" /></a><figcaption id="caption-attachment-837" class="wp-caption-text">Karol Majek</figcaption></figure>
<p><span style="font-weight: 400;">Dzisiejszym tematem są samochody autonomiczne. Jest to jedna z najbardziej widocznych gałęzi, jeśli chodzi o zmiany w przyszłości. Gościem jest Karol Majek – jeden z najlepszych znanych mi specjalistów w tym zakresie w Polsce. </span></p>
<p><span style="font-weight: 400;">Poruszyliśmy kilka tematów, zaczynając od tego, czy nasze dzieci będą potrzebowały prawa jazdy, a kończąc na śmieszniejszych, ale jednak kreatywnych tematach, jak na przykład autonomiczne trampki. </span></p>
<p><span style="font-weight: 400;">Karol przygotował dla Ciebie prezent – „Samochody autonomiczne”, ale o tym będzie na końcu. Wtedy powiem też trochę o pierwszej rocznicy Biznesu Myśli.</span></p>
<p><span style="font-weight: 400;">To zaczynamy&#8230;</span></p>
<hr />
<p><b>Cześć Karol. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz?</b></p>
<p><span style="font-weight: 400;">Cześć Vladimir, jestem obecnie jednym z pierwszych inżynierów samochodów autonomicznych w Polsce, po kursie <a href="https://eu.udacity.com/course/self-driving-car-engineer-nanodegree--nd013" class="broken_link">Self Driving Car Engineer Nanodegree</a> by Udacity. Skończyłem studia na Politechnice Warszawskiej z tytułem magistra inżyniera robotyki mobilnej.</span></p>
<p><span style="font-weight: 400;">Przez kilka lat zajmowałem się nauką, obecnie chcę kłaść większy nacisk na wdrożenia. Mieszkam pod Warszawą, natomiast często wyjeżdżam na różne konferencje czy zawody. Ostatnio byłem trzy miesiące w <a href="https://www.fraunhofer.de/en.html">Instytucie Fraunhofera</a> i pracowałem tam nad tworzeniem przez robota autonomicznego fotorealistycznych modeli otoczenia na podstawie obrazu z kamer oraz skanerów laserowych.</span></p>
<p><b>No to tyle ciekawych rzeczy, mam nadzieję, że to wszystko rozwiniemy w tym odcinku. A teraz dość standardowe pytanie, co ostatnio czytałeś?</b></p>
<p><span style="font-weight: 400;">Ostatnio czytałem bardzo ciekawą książkę „Świt robotów”. Ta książka opowiada o tym, czy sztuczna inteligencja pozbawi nas pracy. Jest to bardzo ciekawa pozycja.</span></p>
<p><b>Bardzo fajna książka, ja też ją przerabiałem. Biorąc pod uwagę, że ta książka była wydana kilka lat temu, a świat zmienia się szybciej niż myślisz, to są w niej bardzo trafnie zebrane różne fakty, również predykcje, na temat tego, co może się wydarzyć. Traktuje między innymi o autonomicznych samochodach. Przejdźmy teraz do tematu. Powiedz, czym zajmujesz się na co dzień?</b></p>
<p><span style="font-weight: 400;">Na co dzień pracuję w różnych projektach programistycznych, zajmuję się także trenowaniem głębokich sieci neuronowych, szczególnie jeśli chodzi o wykrywanie obiektów. Ostatnio wracam do projektu z Udacity, gdzie wraz z drużyną studentów Udacity stworzyliśmy samochód autonomiczny, który miał za zadanie jeździć po torze wyścigowym – miało to miejsce w zeszłym roku w kwietniu podczas zawodów <a href="http://selfracingcars.com/">Self Racing Cars</a> w Kalifornii.</span></p>
<p><iframe title="PolySync @ Self Racing Cars" width="960" height="540" src="https://www.youtube.com/embed/hBk3wNBUF_c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Z tego, co pamiętam, to udostępniałeś też wideo na Facebooku, na jednej z warszawskich ulic jedziesz samochodem i wykrywasz, segmentujesz ludzi, samochody, drogę itd. Jest to bardzo ciekawe.</b></p>
<p><iframe title="Mask RCNN - COCO -  instance segmentation" width="960" height="540" src="https://www.youtube.com/embed/OOT3UIXZztE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Dzisiejszym tematem są autonomiczne samochody. Czy możesz wyjaśnić, co to jest? Podaj proszę jakieś przykłady albo porównaj, czym różni się autopilot w samolocie od autonomicznego samochodu?</b></p>
<p><span style="font-weight: 400;">Tutaj z pomocą przychodzi nam standard, który rozróżnia pięć poziomów autonomii. Został on stworzony przez Stowarzyszenie Inżynierów Motoryzacji.</span></p>
<p><span style="font-weight: 400;">Wyróżniamy poziom zerowy, czyli jest to kompletny brak autonomii – są to takie samochody, jak były kiedyś i jak są obecnie, a które nie mają żadnych systemów wspomagających kierowcę.</span></p>
<p><span style="font-weight: 400;">Poziom pierwszy zakłada już podstawowe wspomaganie kierowcy jak na przykład utrzymanie na pasie ruchu czy adaptacyjny tempomat.</span></p>
<p><span style="font-weight: 400;">Poziom drugi wprowadza już częściową automatyzację, tutaj mamy rozwiązanie w postaci autopilota Tesli czy rozwiązania innych producentów samochodów. Te rozwiązania pozwalają na jednoczesne utrzymanie w pasie ruchu i kontrolę prędkości.</span></p>
<p><iframe title="Autopilot Full Self Driving Demonstration Nov 18 2016 Realtime Speed" width="960" height="540" src="https://www.youtube.com/embed/VG68SKoG7vE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Poziom trzeci to warunkowa automatyzacja, co przedstawia np. nowe Audi A8, gdzie poniżej 60 km/h samochód jest w stanie jechać cały czas autonomicznie, stając w korku lub poruszając się po mieście. Natomiast po przekroczeniu tej prędkości kierowca musi przejąć kontrolę nad pojazdem, co właściwie wprowadza dodatkowe zagrożenie, bo człowiek jest już przyzwyczajony, że samochód dba o bezpieczeństwo. Natomiast tutaj powyżej tej prędkości trzeba jednak przejąć kontrole i skupić się na prowadzeniu.</span></p>
<p><iframe title="2018 Audi A8 Debuts with Advanced Autonomous Driving Technology" width="960" height="540" src="https://www.youtube.com/embed/J_0VIM8VAPg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">W ramach czwartego poziomu system prowadzi za nas przez zdecydowaną większość czasu i przejmujemy kontrolę tylko w nagłych przypadkach – zostajemy o tym uprzedzeni np. 10 sekund wcześniej.</span></p>
<p><span style="font-weight: 400;">I w ostatnim piątym poziomie mamy już pełną automatyzację. Samochód jest w stanie bez kierowcy dowieźć nas do naszego celu.</span></p>
<p><span style="font-weight: 400;">Podsumowując, w pierwszych trzech poziomach, biorąc pod uwagę również ten zerowy, to człowiek monitoruje otoczenie. Natomiast od poziomu trzeciego system samochodu monitoruje otoczenie wokół nas.</span></p>
<p><span style="font-weight: 400;">W przypadku samolotu mamy troszkę inną sytuację, gdyż samochód porusza się na drodze wśród innych samochodów i jest ich znacznie więcej w ramach tej przestrzeni, jaką zajmuje samochód, niż w przypadku samolotu, gdzie w jego przestrzeni znajduje się znacznie mniej innych samolotów i przestrzeń jest znacznie większa. W przypadku samolotów łatwiejsza jest również nawigacja i lokalizacja, gdyż sygnał GPS nie jest zakłócany przez budynki, tunele. Dopuszczamy również większe błędy lokalizacji GPS, gdyż mamy dość dużą przestrzeń i ryzyko kolizji jest bardzo niskie. Na drodze potrzebujemy dokładności do kilkunastu centymetrów lub mniej, żeby poruszać się autonomicznie.</span></p>
<p><b>Wygląda na to, że autonomiczne samochody mają znacznie większe wyzwania. Spróbujmy teraz zrozumieć, jak to działa? Zwłaszcza jeżeli chodzi o poziom trzeci i w górę. Spróbuj wyjaśnić na przykładach, w jaki sposób samochód potrafi zaangażować się w ruchu i podejmować prawidłowe decyzje?</b></p>
<p><span style="font-weight: 400;">Jeśli chodzi o sterowanie samochodu, to wyróżniamy takie klasyczne podejście, gdzie znamy dokładną trajektorię, jaką ten samochód powinien się poruszać i następnie system sterowania z tą trajektorią, omija przeszkody, to znaczy inne samochody, pieszych, rowery itd. Także do podejmowania decyzji podejście takie wymaga bardzo dużych zbiorów danych, natomiast jest ono już możliwe.</span></p>
<p><b>Dobra, w takim razie ta wiedza jest zbierana i mamy już większą moc obliczeniową, lepsze algorytmy. Ale czy te decyzje są w jakiś sposób współdzielone? Czy każdy samochód jest odizolowany i próbuje sam podejmować te decyzje?</b></p>
<p><span style="font-weight: 400;">Obecnie samochody podejmują decyzje samodzielnie, mają połączenie z internetem. Na potrzeby omijania korków, na potrzeby informacji o zagrożeniach drogowych wykorzystuje się internet oraz dane z internetu. Obecnie samochody, które są wypuszczane na rynek nie współdziałają ze sobą, nie mają informacji o wzajemnych ruchach, nie próbują współpracować, ustępować sobie miejsca. Nie ma jeszcze takich rozwiązań.</span></p>
<p><b>Waymo, Tesla i wiele innych firm bardzo aktywnie pracują nad rozwojem autonomicznego samochodu. No i właśnie tak z Twojego punktu widzenia jako inżyniera, gdzie technologicznie teraz jesteśmy?</b></p>
<p><iframe title="Waymo 360° Experience: A Fully Self-Driving Journey" width="960" height="540" src="https://www.youtube.com/embed/B8R148hFxPw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Obecnie <a href="https://waymo.com/">Waymo</a> jest na poziomie czwartym, jeśli chodzi o autonomię. Testują swoje samochody już bardzo długo, zwiększają czas jazdy bez dezaktywacji autonomicznego systemu. Ten czas się bardzo wydłuża, znacznie wzrosła liczba samochodów, jakie Waymo posiada i jakie testuje na drogach, przez co znacznie szybciej pokonują swoimi samochodami tysiące kilometrów.</span></p>
<p><span style="font-weight: 400;">Jeśli chodzi o Teslę, Tesla ma tę przewagę, że wprowadziła produkt komercyjny, który jest kupowany już na całym świecie. Ich samochody są przygotowane pod, powiedzmy, poziom czwarty. Jednak obecnie wykorzystywany w autopilocie jest poziom drugi autonomii, natomiast wielką przewagą Tesli jest to, że samochody są na rynku, każdy może je kupić, a gdy osiągną możliwość nawigacji autonomicznej, autonomicznego poruszania się na poziomie wyższym, wystarczy tylko zaktualizować oprogramowanie i każdy będzie już mógł korzystać z tych możliwości.</span></p>
<p><b>Brzmi to bardzo ciekawie, że w momencie osiągnięcia poziomu czwartego przez Teslę czy innego producenta, wystarczy tylko zaktualizować software i już można jechać. Zapytam teraz o Waymo, które testuje prototyp zamawiania taksówek autonomicznych.</b></p>
<p><iframe title="Waymo&#039;s fully self-driving cars are here" width="960" height="540" src="https://www.youtube.com/embed/aaOB-ErYq6Y?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>W podobnym kierunku dąży też Uber, który dość mocno zainspirował się technologią Google, ale teraz pomińmy ten wątek, dla osób zainteresowanych podaję <a href="https://www.theverge.com/2017/5/30/15714362/uber-anthony-levandowski-fired-lawsuit-waymo">link</a>. I obie firmy używają między innymi tzw. lidara. Wyjaśnij proszę, co to jest ten lidar i czy jest on konieczny dla samochodów autonomicznych? Bo chociażby <a href="https://www.theverge.com/2018/2/7/16988628/elon-musk-lidar-self-driving-car-tesla">Elon Musk</a>, mówiąc o Tesli, nadal wątpi, że lidar jest konieczny.</b></p>
<p><iframe title="Self-Driving in San Francisco | Uber" width="960" height="540" src="https://www.youtube.com/embed/OKJK3_XIGD4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Chciałbym wspomnieć o pracowniku Waymo, który przeszedł do Ubera i Google posądził Ubera o pobranie od pracownika tajnych informacji, natomiast ciekawostka jest taka, że ten spór zakończył się w tym roku i Uber nie przyznał się do winy. Natomiast ma zapłacić Google’owi <a href="https://www.wired.com/story/uber-waymo-lawsuit-settlement/">245 milionów dolarów</a> i sprawa będzie zamknięta.</span></p>
<p><span style="font-weight: 400;">Jeśli chodzi o lidary, czyli systemy laserowe, skanery laserowe, to mierzą one czas lotu światła do obiektu albo zmiany fazy podczas tego lotu, co daje nam dokładny pomiar odległości. Razem z moim kolegą, w ramach jego firmy Mandala, zajmujemy się technologiami laserowymi i tworzymy polskie skanery laserowe 3d. Do obecnych skanerów laserowych tworzymy sprzęt, który umożliwia obracanie go wokół dodatkowej osi, co pozwala nam uzyskać trójwymiar w każdym kierunku.</span></p>
<p><span style="font-weight: 400;">Co do wykorzystania skanerów laserowych to jestem w zasadzie po obu stronach, bo z drugiej strony pracuję również w zespole z Udacity, gdzie wykorzystujemy kamerę światła widzialnego do poruszania się samochodu – robiliśmy to w zeszłym roku na torze wyścigowym. Więc z jednej strony wierzę, że jest możliwe zrobienie samochodu autonomicznego tylko na kamerach wizyjnych rozmieszczonych dookoła samochodu, z drugiej strony wiem, jakie są ograniczenia – nie zawsze jesteśmy w stanie ocenić odległość, gdyż nie zawsze są cechy jak w obrazie. Jeżeli mielibyśmy <a href="https://www.theregister.co.uk/2017/06/20/tesla_death_crash_accident_report_ntsb/">białą ciężarówkę</a>, co zdarzyło się w przypadku Tesli, przejeżdżającą w poprzek skrzyżowania, samochód może jej nie zauważyć, może nie ocenić odległości na podstawie obrazu z kamery i może się stać tragedia, tak jak to miało miejsce w przypadku Tesli, gdzie Tesla nie zauważyła ciężarówki i przejechała pod nią, zabijając kierowcę.</span></p>
<p><span style="font-weight: 400;">Jest to bardzo smutna sytuacja, a zastosowanie laserów pozwoli nam tego uniknąć. Powstają teraz nowe technologie laserów, które dają dużo dokładniejsze, dużo gęstsze dane i ciągle spada ich cena. Ostatnio bardzo popularne lasery firmy Velodyne staniały o połowę, co jest krokiem w dobrą stronę. Elon Musk zarzucał laserom zbyt wysoką cenę, a po drugie uważa, że same kamery powinny wystarczyć. Ale jak będzie w praktyce – zobaczymy.</span></p>
<p><iframe title="New LiDAR: Driverless cars are about to get a whole lot better at seeing the world | WIRED Originals" width="960" height="540" src="https://www.youtube.com/embed/ibIzthKKZWY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Rozumiem. Znów wspomnę o Elonie Musku, ale teraz zadam takie bardziej wizjonerskie pytanie. Elon Musk w roku 2017 <a href="https://electrek.co/2017/02/13/tesla-elon-musk-all-new-cars-self-driving/">powiedział</a>, że na całym świecie produkowane jest około 100 milionów samochodów rocznie. Sprawdziłem to, znalazłem statystyki i okazuje się, że sprzedawane jest przynajmniej około 80 milionów samochodów, więc prawdopodobne jest, że produkowane jest około 100 milionów. </b></p>
<p><iframe title="World Government Summit 2017 A Conversation with Elon Musk" width="960" height="540" src="https://www.youtube.com/embed/Xa8m3SATR1s?start=389&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>I dalej były rozważania, że skoro wszystkich samochodów na świecie jest około 2 miliardów, to potrzebujemy około 20 lat, żeby powymieniać fizycznie te wszystkie samochody na autonomiczne, czyli stąd można wyciągnąć wniosek, że nawet jeśli technologicznie jesteśmy gotowi już dzisiaj, to to przejście nie będzie natychmiastowe.</b></p>
<p><b>Z drugiej strony Elon Musk powiedział, że już nawet za 10 lat nasz świat może nas mocno zaskoczyć, jeżeli chodzi autonomiczne samochody. No i teraz pytanie: mój syn ma 2 lata, jak myślisz, czy będzie potrzebował prawa jazdy na samochód?</b></p>
<p><span style="font-weight: 400;">To jest fantastyczne pytanie, moi synowie również mają 2 lata, tak że bardzo się z tym identyfikuję. Jeśli chodzi o wdrażanie samochodów, to faktycznie potrzebujemy sporo czasu i tak jak mówiłem Tesla jest na dobrej drodze, bo oni już te samochody jakby wymienili.</span></p>
<p><span style="font-weight: 400;">Jeżeli chodzi o pozostałe samochody, no to pytanie brzmi: j</span>ak długo ludzie jeżdżą samochodami? Nie kupujemy wszyscy nowych samochodów, a bardzo duży odsetek ludzi kupuje samochody używane. Nawet jeśli kupujemy nowy samochód, to ile osób ma ten pierwszy poziom autonomii?</p>
<p><span style="font-weight: 400;">Powiedzmy, że tempomat zwykły, to już jest raczej standard, natomiast jeśli chodzi o utrzymanie pasa ruchu, czy aktywny tempomat, który zwalnia, dostosowuje prędkość do samochodu przed nami, jest to jednak mniej popularne. Pytanie też, ile osób kupi np. Audi A8, które teraz ma ten poziom trzeci i jest to dość zaawansowany samochód. Jednak technologia jest obecnie bardzo droga, wiadomo, ceny będą spadać i myślę, że za 5-10 lat, w większości samochodów będzie dostępny drugi albo trzeci poziom.</span></p>
<p><span style="font-weight: 400;">Sądzę, że w ciągu najbliższych 10 lat nie ma się co obawiać, że będziemy mieli na drogach tylko samochody autonomiczne, czy że będzie ich naprawdę dużo.</span></p>
<p><span style="font-weight: 400;">Myślę, że to będzie przede wszystkim wspomaganie kierowcy, pytanie na jak dużym poziomie, oby jak najwyższym. Natomiast czy za te kilkanaście lat już nasze dzieci nie będą potrzebować prawa jazdy? Uważam, że to jeszcze nie ten moment, natomiast trudno to przewidzieć. Kilkanaście lat temu przecież nie mieliśmy kryptowalut, które wybuchły ostatnio, dużo się o nich mówi i zmieniają świat. Trudno powiedzieć, co będzie za te kilkanaście lat, trudno to ocenić.</span></p>
<p><b>Rozumiem. Z jednej strony jest podejrzenie, że potrzeba więcej czasu, żeby się rozpędzić, ale z drugiej strony świat zmienia się szybciej niż myślimy i jest szansa, że nawet już za 15 lat faktycznie prawo jazdy nie będzie potrzebne.</b></p>
<p><b>Zapytam jeszcze tak konkretnie o Polskę i o samochody autonomiczne. Pominę wątek prawny, bo też to pewnie jest duże wyzwanie, ale z punktu widzenia technicznego, na ile samochód autonomiczny poradzi sobie na polskich drogach?</b></p>
<p><span style="font-weight: 400;">Jeśli chodzi o polskie drogi, to szczególnie bym się nie bał, bardziej bałbym się w przypadku Indii, gdzie jeżdżenie jest dużo bardziej wymagające. U nas mamy dobrej jakości drogi szybkiego ruchu czy autostrady, mamy dużo nowych dróg i tych dróg będzie się pojawiało coraz więcej, myślę, że na nowych drogach nie powinno być problemu. Jedynym takim większym problemem są remonty, czy drogi na wsiach, daleko od dużych miast, które są zaniedbane – to już może być trudniejsze.</span></p>
<p><b>A jak jest np. z pogodą, bo popatrzmy na Waymo, oni testują swój samochód w Kalifornii, gdzie prawie nigdy nie pada i na pewno nie ma śniegu. W Polsce śniegu nie ma ostatnio aż tak dużo, ale czasem się pojawia i jak sobie taki samochód z tym poradzi? Czy to jest duże wyzwanie, czy też jest to raczej do rozwiązania?</b></p>
<p><span style="font-weight: 400;">Widziałem bardzo ciekawe rozwiązanie i śledzę je już jakiś czas. Rozwiązanie z Rosji, bo oni jednak mają troszkę inne warunki pogodowe niż Kalifornia i ich samochód jest troszkę inaczej wyposażony, te kamery są bardziej odporne na warunki i na wandalizm. Oni pokazują jak samochód jest w stanie jechać autonomicznie, jak jest w stanie rozpoznawać znaki drogowe i robić to wszystko w złych warunkach pogodowych, podczas śniegu, deszczu. O ile nasze sensory nie będą zabrudzone przez ten deszcz, śnieg to jesteśmy w stanie wykrywać i nawigować nawet w złych warunkach.</span></p>
<p><b>No to brzmi fantastycznie. A teraz jeszcze taka ciekawostka. Mówiąc o autonomicznych pojazdach warto powiedzieć, że ten pomysł można adaptować w różnych kierunkach. I ostatnio pojawiło się dość oryginalne zastosowanie przygotowane przez Nissana. Są to autonomiczne trampki, które potrafią same zaparkować tam, gdzie jest wolne miejsce, tam gdzie trzeba. </b><b>I nawet jest hotel, w którym mało tego, że trampki same się poruszają, parkują, gdzie trzeba, to inne rzeczy jak np. pilot czy poduszka też potrafią się posprzątać. Jest to dość zabawne. Czy masz jakieś egzotyczne pomysły, jak można zaadaptować wiedzę z autonomicznych samochodów w biznesie?</b></p>
<p><iframe title="Self-Parking... Slippers?" width="960" height="720" src="https://www.youtube.com/embed/WPdNn1qOb7g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Jeśli chodzi o wiedzę z autonomicznych samochodów, to patrzę na to szerszym spojrzeniem, przez świat robotyki mobilnej, od czego wszystko się tak naprawdę zaczęło, bo roboty autonomiczne są tworzone od wielu lat. Wciąż nie mamy rozwiązań, które działają wszędzie, w każdych warunkach. Natomiast czy mam jakiś egzotyczne pomysły, w tej chwili trudno mi powiedzieć. Natomiast te trampki autonomiczne i ten hotel, to coś niesamowitego, powiedziałbym, że trudne do uwierzenia, ale przezabawny pomysł na reklamę samochodów.</span></p>
<p><b>Ten hotel jest jednym z najbardziej popularnych hoteli. Z tego co pamiętam, to jest on blisko Tokio. To jest taka ciekawostka, że jak masz technologię, to można ją zaadaptować w różnych kierunkach. Jeśli ktoś ma duże przestrzenie, które trzeba non stop monitorować i teraz pilnuje ich ochroniarz, który sprawdza, czy wszystko jest ok, to równie dobrze może to robić robot albo dziesiątki robotów, a robot jest tańszy, bo płacisz tylko wtedy, jak kupujesz i ewentualnie serwisujesz. Potrafi też szybciej się poruszać, nie ma urlopu albo innych ludzkich potrzeb, więc myślę, że to może mieć zastosowanie w biznesie.</b></p>
<p><iframe title="Autonomous Security Robot Overview v1.1" width="960" height="540" src="https://www.youtube.com/embed/WeAKWwu-hiA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Tutaj jak najbardziej tak. Pracowałem nad takim rozwiązaniem właśnie do ochrony. I zgodzę się z Tobą, to jest jednak znaczące usprawnienie, zastosowanie tego robota, który może tak naprawdę pracować 24 godziny na dobę, 7 dni w tygodniu, o ile tylko zadbamy o jakiegoś zmiennika na czas ładowania albo opracujemy jakiś system, który będzie pozwalał na ciągłą pracę bez zatrzymań.</span></p>
<p><b>Pozwolę sobie teraz zmienić temat. Kilka odcinków temu mówiłem o tym, że teraz w Chinach dzieją się naprawdę ciekawe rzeczy. Można się zastanawiać, dyskutować czy to jest uczciwe, nieuczciwe, jak rząd zachowuje się wobec ludzi, dostałem różne komentarze, to jest temat rzeka, ale ciężko teraz przymykać oko i udawać, że to jest taki trzeci świat, w którym prawie nic się nie dzieje. No i właśnie, pytanie do Ciebie: jak wygląda rozwój autonomicznych samochodów w Chinach?</b></p>
<p><iframe title="Baidu&#039;s Apollo Self-Driving Fleet in China&#039;s &quot;AI City&quot;" width="960" height="540" src="https://www.youtube.com/embed/a_0x5D-FQHA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Chiny obecnie fantastycznie się rozwijają, także w temacie samochodów autonomicznych. Ogromną rolę gra tutaj Baidu, którzy wprowadzili platformę Apollo. Obecnie jest to już testowane na drogach publicznych. <a href="http://apollo.auto/">Apollo</a> jest już w wersji 2.0. Platforma skupia się na otwartych danych, na udostępnianiu tych danych, i wprowadza również symulator, który pozwala na sprawdzenie swoich rozwiązań, na testowanie i na analizę zachowań samochodu oraz różnych sytuacji na drodze.</span></p>
<p><b>Microsoft również ostatnio stworzył taki projekt o nazwie <a href="https://github.com/Microsoft/AutonomousDrivingCookbook/tree/master/AirSimE2EDeepLearning">AutonomousDrivingCookbook,</a> gdzie można wytrenować model deep learningowy i jest on dostępny na GitHubie. W ten sposób można nauczyć kierować się samochodem, używając tylko jednej z kamer skierowanych do przodu jako wizualnego wejścia. O ile łatwiej jest stworzyć własny pojazd autonomiczny? Poleć proszę osobom zainteresowanym, jak najlepiej zabrać się do tego tematu?</b></p>
<p><iframe title="Autonomous car research with AirSim" width="960" height="720" src="https://www.youtube.com/embed/CauKo089zm0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">To może zacznę od polecenia, chciałbym szczególnie polecić kurs Self Driving Car Nanodegree organizowany przez Udacity, brałem w nim udział i zdecydowanie polecam każdemu, kto chce zająć się tematem samochodów autonomicznych. Symulator AirSim Microsoftu pozwala nam uzyskać dane do trenowania sieci neuronowych. Wśród tych danych mamy obrazy, jakie są widziane przez kamerę zamontowaną z przodu naszego symulowanego samochodu. Od razu mamy analizę, które piksele należą, do jakich klas obiektów oraz informację na temat głębi, czego nie mamy ze zwykłych kamer w samochodzie. Możemy więc trenować nasze sieci neuronowe, aby automatycznie na podstawie obrazu dostarczały informacje na temat głębi albo klasyfikowały obiekty, które widzimy.</span></p>
<p><b>Mówiąc o nauce autonomicznych pojazdów, warto też wspomnieć, że chodzi o coś więcej niż tylko jeżdżenie po powierzchni. Można na przykład tworzyć autonomiczne latające pojazdy. Już wspomniałeś i poleciłeś Udacity, oni też nie tak dawno uruchomili nowy kurs dla pojazdów latających. Jak myślisz, na ile jest to przyszłościowy kierunek myślenia? Być może już za jakiś czas nie będziemy się poruszać w takim 2d <span style="font-weight: 400;">–</span> w tej chwili mamy właściwie 2d, bo samochód jedzie po drodze, a w przyszłości może to będzie 3d, jak myślisz?</b></p>
<p><span style="font-weight: 400;">Jeśli chodzi o kurs, to jest on bardzo chwytliwie nazwany Flying Car Nanodegree, co sugeruje, że będziemy mieli tutaj do czynienia z samochodami, które latają, jednak są to drony i nauka jest skoncentrowana na nich, w jaki sposób drony działają, jakie algorytmy są stosowane, w jaki sposób dron utrzymuje swoją pozycję i wszystko, co związane z dronami. I jest to przygotowanie właśnie pod samochody latające.</span></p>
<p><iframe title="Dubai just tested its autonomous flying drone taxi" width="960" height="540" src="https://www.youtube.com/embed/rwyEUaID86Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Natomiast, co do latających samochodów, mieliśmy zdaje się na czerwiec zeszłego roku planowaną premierę latających taksówek w Dubaju. Jednak nic takiego nie miało miejsca. Niestety to nie działa tak jakbyśmy chcieli i w praktyce wygląda to tak, że człowiek siedzi na dronie i wokół ma wszystkie śmigła, które mogą go zabić w każdej chwili. Więc jeśli chodzi o bezpieczeństwo i jakieś takie wdrożenie w najbliższym czasie, to jest to jeszcze dość odległe.</span></p>
<p><span style="font-weight: 400;">Pozostaje także kwestia zasięgu, który będzie dość ograniczony, biorąc pod uwagę zużycie energii przez te śmigła, no i jednak udźwig takiego pojazdu.</span></p>
<p>https://www.youtube.com/watch?v=2rNWbpOsOvI</p>
<p><b>No dobra, to w takim razie latające samochody można jeszcze potraktować jako science fiction. A czy samochód autonomiczny naprawdę jest autonomiczny? I teraz mam na myśli to, czy taki samochód wymaga ciągłego łącza z kimś? Czy da się z zewnątrz, przynajmniej w teorii, sterować samochodem i jeśli tak, to na ile to jest niebezpieczne? Bo jeśli jakiś haker się włamie, a wiadomo że do każdego systemu można się włamać, to co się wtedy stanie? Powiedz, co wiesz na ten temat?</b></p>
<p><span style="font-weight: 400;">W ostatniej części filmu „Szybcy i wściekli”, mieliśmy taką wizję, jakby to wyglądało, gdyby hakerzy przejęli kontrolę nad wszystkimi samochodami, przy założeniu że wszystkie samochody mają już tę funkcję autonomii, no i to jest jednak straszna wizja. Trochę taka przerażająca i póki co nie jest to jeszcze możliwe.</span></p>
<p><span style="font-weight: 400;">Pokazane są próby, jak się włamać do Tesli czy do innych samochodów, zakończone sukcesem. Natomiast wiadomo, że jak w każdym oprogramowaniu, prędzej czy później znajdzie się jakąś furtkę, jakąś dziurę, która jest niezałatana i nikt na to nie zwrócił uwagi. Mieliśmy niedawno problemy z procesorami, więc myślę, że tutaj też trudno zadbać o takie bezpieczeństwo.</span></p>
<p><span style="font-weight: 400;">To ciągłe łącze raczej nie ułatwi bezpieczeństwa. Natomiast czy samochód musi mieć ciągłe podłączenie do internetu? Myślę, że są dwa podejścia, bo mamy problemy z infrastrukturą, jeśli chodzi o drogi, autostrady, drogi ekspresowe, czy dostęp do bezprzewodowego internetu, bo ten dostęp jest jednak ograniczony, a na pewno jego przepustowość.</span></p>
<p><span style="font-weight: 400;">Dąży się do tego, by samochody miały wszystko, co jest potrzebne: informacje na temat infrastruktury, dokładne mapy. Jest HD maps – terminal odnoszący się do bardzo dokładnych map otoczenia, z informacjami, gdzie są rozmieszczone pasy, z szerokościami tych pasów i bardzo dokładne informacje metryczne. Jeżeli mamy taką mapę w samochodzie, jeżeli mamy system, który jest w stanie lokalizować się na tej mapie, samochód może jeździć bez ciągłego połączenia z internetem, z jakimś dużym systemem.</span></p>
<p><span style="font-weight: 400;">Natomiast łącze na pewno będzie potrzebne, bo myślę, że firmy będą chciały gromadzić informacje, gdzie samochody się znajdują, a taka informacja pomoże nam później, jeśli chodzi o wzajemne poruszanie się samochodów, informacje o korkach, wybór lepszej drogi.</span></p>
<p><b>Kolejna kwestia, która mnie bardzo martwi to, jak sobie poradzić z wszystkimi wyzwaniami etycznymi, które wprowadzą samochody autonomiczne? Jest wiele przykładów książkowych i pytanie też jest takie dość wprost: czy etyka i ta cała otoczka rozwija się równolegle z aspektem technologicznym, czy jest bardzo zacofana?</b></p>
<p><span style="font-weight: 400;">Bardzo ciekawe badania zostały przeprowadzone na MIT, gdzie stworzono <a href="http://moralmachine.mit.edu/">moral maschine</a> –rozwiązanie, które pozwalało ocenić, kto powinien zostać zabity w przypadku wypadku, czy samochód powinien chronić pasażerów, czy powinien oceniać, w kogo powinien wjechać, dojeżdżając do przejścia dla pieszych, gdzie nie jest w stanie wyhamować, czy powinien wjechać w osoby na przejściu dla pieszych, czy zjechać gdzieś na bok i trafić w kogoś innego?</span></p>
<p><iframe title="The Social Dilemma Of Driverless Cars | Iyad Rahwan | TEDxCambridge" width="960" height="540" src="https://www.youtube.com/embed/nhCh1pBsS80?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">W ramach tego badania ludzie odpowiadali, wybierając jedną z dwóch sytuacji, w której zawsze ktoś ginął, tylko oni oceniali, kto powinien zginąć. Myślę, że te badania obecnie są jednak w kategoriach ciekawostki, bo są tworzone ciągle badania na temat aspektów etycznych, jeśli chodzi właśnie o samochody autonomiczne. Myślę, że w praktyce to nie będzie miało tak dużego znaczenia, jak uważamy, bo jednak nieczęsto mamy taki problem i dotyczy jednak bardzo małego odsetka czasu jazdy. Więc myślę, że to nie jest tak bardzo ważne jak ten aspekt technologiczny, można analizować, można gdybać, natomiast w praktyce to nie będzie miało tak dużego zastosowania.</span></p>
<p><iframe title="Are we ready for driverless cars? | Lauren Isaac | TEDxSacramento" width="960" height="540" src="https://www.youtube.com/embed/kSmTF6KoUb8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Myślę, że nawet z tym testem MIT, ta odpowiedź jest taka na zasadzie uczciwości albo rozsądek podpowiada jak zrobić lepiej, natomiast jeżeli wziąć tych wszystkich ludzi i przetestować na ich własnej skórze, to podejrzewam, że odpowiedź będzie zupełnie inna. Ale to jest kwestia trochę ludzkiej psychologii, że jak siedzisz w ciepłym miejscu na foteliku, to zawsze jesteś bohaterem, ale jak chodzi o twoje własne życie, to nawet nie zdajesz sobie sprawy, że decyzje podejmujesz podświadomie.</b></p>
<p><b>A jakie są największe wyzwania rozwoju pojazdów autonomicznych?</b></p>
<p><span style="font-weight: 400;">Jednym z największych wyzwań jest zmniejszenie ceny tych pojazdów, żeby były kupowane i dostępne dla ludzi. Oczywiście wyzwaniem jest również niezawodność, nad czym doskonale pracuje Waymo. Już w 2017 przejechali 4 miliony mil autonomicznie i to tempo wzrasta. </span></p>
<p><span style="font-weight: 400;">Największym wyzwaniem jest jakieś sprytne przejście z poziomu trzeciego do poziomu czwartego, gdzie usypiamy czujność pasażera, a potem, na przykład przy jakichś innych warunkach, wymuszamy, żeby on jednak prowadził. To też może być trudne.</span></p>
<p><b>Nawiązując do tego ostatniego, też nad tym często się zastanawiam, bo nawet nie korzystając z autopilota, tylko takiego zwykłego <em>cruise control</em>, gdy jedziesz trochę szybciej niż zwykle i nagle napotykasz remont drogi, a przedtem jechałeś 20 minut bez żadnej większej interakcji, to też czujesz pewne napięcie, musisz się obudzić, chociaż przez cały czas miałeś kontrolę. Myślałem nad tym, co się dzieje, jeżeli przez 20 minut niczego nie kontroluję, a potem nagle muszę przejąć kontrolę.</b></p>
<p><b> To może być dość skomplikowane, a co ciekawe, jeżeli człowiek przez dłuższy czas nie będzie kierować samochodem, to utraci tę umiejętność. Czy co jakiś czas każdy będzie musiał symulować w swoim mózgu, powiedzmy tak wirtualnie, że prowadzi samochód, to już tak zostawmy na później.</b></p>
<p><b>A teraz zadam takie pytanie jako ciekawostkę: w czasie, kiedy cały świat opowiada o Elonie Musku, który wysłał swój samochód na Marsa, no bo gdzie jeszcze można, razem z kolegą pracowałeś nad robotem, czy jego fragmentem, który właśnie został wysłany na Marsa. Powiedz coś więcej o tym projekcie?</b></p>
<p><iframe title="Falcon Heavy Animation" width="960" height="540" src="https://www.youtube.com/embed/Tk338VXcb24?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">To jest bardzo ciekawa sytuacja. Pod koniec zeszłego roku dostarczaliśmy nasz skaner laserowy do uniwersytetu w Austrii, gdzie okazało się, że oni chcą zastosować tę głowicę laserową do misji na Marsie, która odbędzie się w lutym 2018. Robot przez dwa miesiące był w transporcie, został odpakowany przez astronautów, mieli instrukcję, jak to wykonać. Z takich śmiesznych rzeczy to cała ekipa obserwowała już z Marsa, jak ta rakieta leci na Marsa, więc to była też taka ciekawa sytuacja.</span></p>
<p><b>Jaki projekt planujesz zrealizować w najbliższym czasie?</b></p>
<p><span style="font-weight: 400;">W najbliższym czasie to oczywiście Self Racing Cars 2018, czyli zawody samochodów autonomicznych na torze wyścigowym w Kalifornii. Rzecz będzie miała miejsce w marcu tego roku. Celem tych zawodów jest jak najkrótszy czas przejazdu jednego okrążenia. Drużyna, która uzyska ten czas, wygrywa, my zastosujemy sieci neuronowe do sterowania samochodem.</span></p>
<p><span style="font-weight: 400;">Z innych ciekawych projektów, cały czas czeka na mnie powrót do <a href="http://mitologiawspolczesna.pl/generator/">generatora teorii spiskowych</a>, gdzie planujemy wraz z Profesorem Marcinem Napiórkowskim stworzenie wersji 2.0, w której będą wykorzystane sieci neuronowe do tworzenia nowych teorii spiskowych na podstawie różnych nowych wydarzeń.</span></p>
<p><b>Mnie to bardzo ciekawi. Mam nadzieję, że link do tych projektów do mnie dotrze. Jeżeli chodzi o wersję pierwszą też możemy ją podlinkować. I ostatnie pytanie na dzisiaj: jak ktoś będzie chciał się z Tobą skontaktować, a myślę, że takich osób trochę będzie, bo robisz ciekawe rzeczy, to jak może to zrobić?</b></p>
<p><span style="font-weight: 400;">Można mnie znaleźć na moim kanale na <a href="https://www.youtube.com/user/karol32768">Youtube</a> Karol Majek i drugie miejsce to jest moja strona, mój <a href="https://karolmajek.pl/">blog</a>.</span></p>
<p><b>Dzięki wielkie Karol za Twój czas i za Twoją energię, którą poświęciłeś. Mam nadzieję, że dzięki tej wiedzy dużo więcej osób zrozumie, o co chodzi w autonomicznych pojazdach, jakie są wyzwania. No i też dzięki za to, że udało się porozmawiać,  mimo różnych problemów, które mieliśmy i mam nadzieję, że było warto.</b></p>
<p><span style="font-weight: 400;">Bardzo Ci dziękuję za to, że mnie zaprosiłeś do wzięcia udziału w tym podcaście. Jest mi bardzo miło, bardzo dziękuję i pozdrawiam wszystkich słuchaczy.</span></p>
<hr />
<p><span style="font-weight: 400;">Karol przygotował dla Ciebie prezent “Samochody autonomiczne”, żeby go dostać należy zapisać się na newsletter. Jeśli już tam jesteś, sprawdź proszę swoją skrzynkę, prezent już tam na Ciebie czeka.</span></p>

<p><span style="font-weight: 400;">Teraz chwila refleksji, ponieważ historia zatoczyło pierwsze koło&#8230;</span></p>
<p><span style="font-weight: 400;">Czy wiesz, że 14 marca 2017, czyli mniej więcej rok temu, pojawiły się dwa nieśmiałe odcinki na BiznesMyśli? Od tego momentu minął rok, czy to dużo czy mało? </span></p>
<p><span style="font-weight: 400;">W tym czasie udało się zrobić wiele i moje życie bardzo się zmieniło. Zazwyczaj jestem przyzwyczajony do tego, żeby trzymać swoje oczekiwania na poziomie zero (w szczególności w odniesieniu do innych). To znaczy staram się niczego nie oczekiwać od ludzi, wtedy życie jest szczęśliwsze i prostsze.</span></p>
<p><span style="font-weight: 400;">Z drugiej strony, założyłem sobie osiągnięcie pewnych progów. Jeśli je osiągnę &#8211; warto to kontynuować. Muszę przyznać, że na obecną chwilę jestem bardzo zadowolony z podjęcia decyzji o nagrywaniu BiznesMyśli. Mimo tych wszystkich lęków, z którymi musiałem się zmierzyć wewnątrz siebie (i nadal walczę, mój perfekcjonista też ciągle “czuwa”), teraz wiem, że to była jedna ze słusznych decyzji w moim życiu…</span></p>
<p><span style="font-weight: 400;">Obecnie jest ponad <strong>40 tys. pobrań</strong>. Chociaż warto tutaj wyjaśnić, że dość szybko zorientowałem się, że nie chodzi tutaj o liczbę. Więcej o tym wspomniałem na zeszłorocznej konferencji PolCaster. Człowiek dość często popełnia błędy, kiedy próbuje porównywać się z kimś innym albo nakręcać się liczbami. Wtedy nagle w głowie rodzą się demony, które przejmują nad Tobą władzę. Również tam byłem&#8230; Teraz staram się stosować porównania coraz rzadziej i jeśli jednak to robię, to ostatecznie próbuję porównywać się ze sobą.</span></p>
<p><iframe title="Od sztucznej inteligencji do podcastu | Polcaster 2017" width="960" height="540" src="https://www.youtube.com/embed/ChwLo1QqnG4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Wiem, że teraz nagrywanie podcastów staje się coraz bardziej popularne i to jest fajne. Tylko powiem szczerze, że robienie tego w sposób systematyczny jest trudne. Pamiętam różne przypadki, kiedy np. byłem na urlopie, ale wiedziałem, że i tak muszę skończyć odcinek, więc siadałem wieczorem i to robiłem. W życiu zawsze coś się dzieje, szczególnie jeśli masz małe dzieci, ale nawet wtedy zajmowałem się tym – dość często po nocach. Co jakiś czas pytam siebie: </span></p>
<blockquote>
<p><span style="font-weight: 400;">“Czy nie przesadzasz? Po co to robisz?”. </span></p>
</blockquote>
<p><span style="font-weight: 400;">Mam różne odpowiedzi i w zależności od momentu, w którym pytam, czasem nawet próbuję tłumaczyć się sam przed sobą, ale gdzieś wewnątrz czuję, że warto.</span></p>
<p><span style="font-weight: 400;">Dlaczego? Dlatego, że rzeczy dookoła mnie zaczęły się zmieniać. Wcześniej miałem wizję, ale mniej wpływu na rzeczy, które się toczą dookoła. Oczywiście nadal jestem zwykłym człowiekiem, tylko poznaję ludzi, którzy dają mi wiarę, że to zmierza w dobrym kierunku.</span></p>
<p><span style="font-weight: 400;">Oprócz czasu, którego wymaga podcast, pojawiły się również wydatki na jego </span><span style="font-weight: 400;">tworzenie</span><span style="font-weight: 400;">. Ostatnio, gdy sprawdzałem, to jego koszt wyniósł już ok. 10 tys. złotych. Część z tego poszła na sprzęt, część na różne eksperymenty, ale również na podnoszenie jakości. Mniej więcej w połowie roku zacząłem zlecać montaż. Sam proces był dla mnie ciekawy, ale zajmowało mi to zbyt wiele czasu i musiałem wybierać. Również osiągnąłem ten poziom, na którym uznałem, że mogę to zadanie delegować. Swoją drogą, jeśli potrzebujesz pomocy z montażem, to daj mi znać. Znam osobę, która jest w tym dobra :).</span></p>
<p><span style="font-weight: 400;">Druga osoba wspiera mnie z tekstami. Wszystkie treści, które słuchasz lub czytasz na biznesmysli.pl, są tworzone przeze mnie, natomiast z punktu widzenia językowego tekst, a w szczególności jego stylistyka, wymaga poprawy. &#8222;Lubię&#8221; czasem coś przekręcić <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></span></p>
<p><span style="font-weight: 400;">Również mam wsparcie przy tworzeniu grafiki i jeszcze kilku innych drobnych rzeczy. W ten sposób wokół jednego pomysłu rodzi się mały zespół. Pamiętam, że przez jakiś czas rozważałem, jak utrzymywać podcast. Entuzjazm to super sprawa, ale za rachunki trzeba płacić. Na początku myślałem o czymś w rodzaju </span><a href="https://patronite.pl/"><span style="font-weight: 400;">Patronite</span></a><span style="font-weight: 400;">. Wiem, że to może działać i jestem prawie pewny, że też mogło zadziałać u mnie, ale ciągle miałem wątpliwości, czy mogę sobie na to pozwolić. Zastanawiałem się, czy nie będę się czuł zbyt zobowiązany i czy zostanie to, co dla mnie jest ważne – czyli moja wolność. Chodzi mi o możliwość mówienia, prowadzenia i tworzenia podcastu w taki sposób, w jaki czuję, że warto to robić, bez konieczności tłumaczenia i wyjaśniania dlaczego tak…  </span></p>
<p><span style="font-weight: 400;">Natomiast fajnie udało się połączyć podcast z <a href="http://dataworkshop.eu">kursem</a>, który prowadzę. Część uczestników faktycznie poznała mnie poprzez podcast i w ten sposób stali się oni, jak czasem mówię, inwestorami BiznesMyśli. Natomiast dla mnie to jest na tyle wygodne, że nadal mam wolność. Dla Ciebie to oznacza, że podcast będzie miał duszę, dobrą energię i możliwość eksperymentowania. Chociaż od razu przepraszam, jeśli część z nich będzie mniej udana. Staram się szybko wyciągać wnioski, ale czasem trzeba coś popsuć, żeby umieć stworzyć coś lepszego.</span></p>
<p><span style="font-weight: 400;">Trochę zmieniając temat, żeby móc omówić to z innej perspektywy. Jestem typowym introwertykiem. Wiem, że to brzmi dziwnie, ponieważ ostatnio prawie co tydzień występuję publicznie dla ok. 100 osób, czasem jest ich mniej, czasem więcej. Natomiast dla mnie każde takie wystąpienie to wysiłek energetyczny i kolejne zwycięstwo nad sobą. Robię to dlatego, żeby… obudzić, zainspirować i włączyć myślenie ludzi.</span></p>
<p><span style="font-weight: 400;">W odróżnieniu od ekstrawertyków, zwykle po rozmowie z większą grupą ludzi (dla mnie grupa to więcej niż jedna osoba), muszę schować się i naładować baterię. Swoją drogą, podcast jest na tyle ciekawą formą dzielenia się wiedzą, że jestem prawie pewny, że aktualnie wiesz o mnie znacznie więcej niż większość ludzi, którzy znają mnie na żywo. Mówię na przykład o kolegach z pracy (no chyba, że właśnie słuchają podcastu). To jest taki paradoks, że jestem znacznie bliżej ludzi, którzy są znacznie “dalej” ode mnie.</span></p>
<p><span style="font-weight: 400;">Dlaczego? Tak po prostu jest, przez dłuższy czas trzymałem gdzieś w sobie różne pomysły, przemyślenia. Bałem się o tym mówić, nie widziałem, żeby ktoś interesował się tym na tej samej fali. To dlatego mało kto z moich znajomych wie o czym myślę, co rozważam i o czym marzę. Ostatnio przeprowadziłem ciekawą rozmowę z żoną, która powiedziała mądrą myśl, że dla mnie podcast stał się trochę odskocznią, bo wcześniej to głównie ona musiała mnie wysłuchiwać. <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /> </span></p>
<p><span style="font-weight: 400;">Możesz zapytać, jakie są dalsze plany strategiczne? Powiem szczerze, uznałem że w przypadku podcastu będzie lepiej ich nie mieć… Dlaczego? </span><span style="font-weight: 400;">Robię to, co się udaje i próbuję</span><span style="font-weight: 400;"> tylko tego nie zepsuć.</span></p>
<p><span style="font-weight: 400;">Natomiast na poziomie taktycznym – mogę zdradzić – że mam listę tematów, które chcę poruszyć w najbliższych miesiącach. Również zdradzę, skoro już i tak sporo rzeczy powiedziałem, że o jednym z nich, myślę co jakiś czas, ale trochę bałem się go poruszać, bo… jest dość ważny, ale to również skomplikowane. Nie wiem również, na ile jestem odpowiednią osobą, aby zajmować się tym tematem. Natomiast dostaję z różnych stron pytania na ten temat, czasem wręcz prośby i uznałem, że spróbuję… podzielę się swoimi subiektywnymi przemyśleniami w tej kwestii. Chodzi o przyszłość naszych dzieci i jakieś porady z tym związane. Już zacząłem nad tym pracować, ale ten odcinek pewnie pojawi się w okolicy maja, może nawet później.</span></p>
<p><span style="font-weight: 400;">Idąc dalej. Przyznam, że cieszy mnie to wsparcie, które dostaję. Był przypadek, jeszcze na początku, kiedy wrzuciłem część odcinka zamiast całego (pewne problemy techniczne). Bardzo ucieszyło mnie to, że dostałem prawie natychmiast informację o tym i propozycje pomocy. Nie było hejtu, który teraz jest tak bardzo popularny. Była sytuacja na Facebooku, kiedy napisałem samodzielnie post (bez korekty) i oczywiście było do czego się doczepić. Znalazł się jeden dobry człowiek, który napisał cytując: “Wypadałoby nad językiem polskim popracować&#8230;”. Najciekawsze jest to, że zgadzam się z tym i pracuję, dlatego nie próbowałem się bronić. Spodobało mi się coś innego – otrzymałem prywatną wiadomość, żeby się tym nie przejmować. Dostałem również poprawiony tekst (w tym przypadku chodziło o post na FB). To jest super. To jest bezcenne.</span></p>
<p><span style="font-weight: 400;">Już na koniec. Dla mnie jest to bardzo pokrzepiające, gdy dostaję wiadomości z informacją, że nadawca zaczął zastanawiać się nad swoim życiem, nad tym, co dzieje się dookoła i co on może zmienić. To mnie cieszy i to bardzo. Chociaż, gdy ktoś mnie zna prywatnie, to może śmiało potwierdzić, jak jest mało rzeczy, w szczególności materialnych, które mnie radują. Owszem żyję w świecie materialnym, dlatego gdy jest taka potrzeba, operuję tylko na poziomie logiki. Ale w tym samym czasie, można powiedzieć, że gdzieś w innym wymiarze – wewnątrz mnie – jest dziecko, które naiwnie wierzy, że świat może być lepszy, bardziej sprawiedliwy. Dziecko, które bardzo docenia w ludziach rozwój i myślenie. </span></p>
<p><span style="font-weight: 400;">Z całego serca życzę Ci, abyś znalazł w życiu swoją ścieżkę i mimo różnych trudności nią podążał, ponieważ gdzieś wewnątrz będziesz czuł, że idziesz w dobrym kierunku. Dziękuję za Twój czas, Twoją uwagę i chęć rozwoju. Wszystkiego najlepszego i do usłyszenia.</span></p><p>Artykuł <a href="https://biznesmysli.pl/autonomiczne-samochody/">Autonomiczne samochody</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/autonomiczne-samochody/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</title>
		<link>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/</link>
					<comments>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 28 Aug 2017 03:00:42 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[AlphaGo]]></category>
		<category><![CDATA[computer vision]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Gartner]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[test turinga]]></category>
		<category><![CDATA[visual turing test]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=547</guid>

					<description><![CDATA[<p>Gartner opublikowała tak zwany hype cycle 2017, po polsku pewnie to brzmi jako cykl szumu albo cykl dojrzałości technologii. Hype cycle został wymyślony przez Gartner w 1995 roku i składa się z pięciu faz: najpierw pierwsze informacje na temat technologii, druga faza to dużo szumu i wielkie oczekiwania, trzecia faza rozczarowania, bo wykrywają się pewne ograniczenia, czwarta faza naprawa tych ograniczeń i znów oczekiwania. Piąta i ostatnia faza stabilizacja. Mówi się, że wtedy technologia dojrzała i oczekiwania są połączone z możliwościami. Dla przykładu, na samym początku, czyli w fazie jeden jest tak zwany smartdust, po polsku to zabrzmi jako “inteligentny kurz”. W dużym uproszczeniu, wobraź sobie ziarno piasku, a teraz pomyśl, że tam jest mini-procesor, bateria i sensory. Bateria jest ładowana poprzez słońce lub inne naturalne źródła energie. Takie cząstki mogą robić wiele różnych rzeczy, obserwować otoczenia, mierzyć różne parametry i nawet szpiegować. Stanisław Lem, jeszcze w roku 1964, pisał w “Niezwyciężony” podobną wizję. Teraz o tym mało się mówi, ale wiele się robi w miejscach, o których też mało się mówi :). Dla przykładu. Pamiętasz o swoich uczuciach kilka czy kilkanaście lat temu, kiedy po raz pierwszy wyszedł w publiczność ekran dotykowy. Wtedy to zrobiło wrażenie. Natomiast jest stosunkowa stara technologia, która już była znana co najmniej w latach 70-tych. ubiegłego stulecia. Podobnie do smartdust jest 4D printing, który też jest w pierwszej fazie. Jednym słowem 4D printing można wytłumaczyć jako &#8211; “transformer”. Wyobraź sobie, że został wydrukowany jakiś obiekt, który może transformować w inny obiekt z czasem. To ma wiele obszarów zastosowań w biznesie. Ale temat rzeka, podziel się swoją opinią czy chcesz więcej dowiedzieć się na temat technologii przyszłości jak smartdust lub 4D Printing? Wracając do cyklu dojrzałości (hype cycle). Zwykle technologia przesuwa się w czasie od lewej strony do prawej, czyli od fazy numer 1 do fazy numer 5. Dla każdej technologii to potrzebuję różną ilość czasu od kilka lat do 10 (czy nawet więcej). Machine learning po raz pierwszy pojawił się w cyklu dojrzałości 3 lata temu (przed tym były tematy powiązane takie jak data science lub bigdata). Przez trzy lata (włączając rok 2017) machine learning jest cały czas jest w fazie numer 2 (czyli dużo szumu). Ciekawostką jest, że 3 lata temu machine learning był bliżej fazy trzeciej niż w roku 2017. A co to oznacza w praktyce? Kilka wniosków. To, że jesteśmy na etapie, kiedy ilość szumu rośnie. Temat jest bardzo nagrzany i zawiera sporo magii. Kolejny wniosek jest taki, że oczekiwania rosną znacznie szybciej niż biznes jest gotów je wykorzystać. Stąd płynie kolejny wniosek, że po fazie drugiej jest faza trzecia &#8211; czyli rozczarowania wynikające z błędnego rozumienia możliwości. Postaram się pomóc Ci przejść z fazy drugiej w fazę trzecią z najmniejszą stratą jak materialną tak i moralną i przygotuję na to osobny odcinek. Już mam kilka pomysłów jak to można zrobić, ale chętnie posłucham Twoje przemyślenia na ten temat. Naukowiec Computer Vision Gościem dzisiejszego odcinku jest naukowiec z DeepMind &#8211; Mateusz Malinowski. W drugim odcinku podcastu już wspomniałem o turing test, również o tym rozmawialiśmy w innych odcinkach podcastu, np. w 10-ym z Aleksandrą Przegalińską. Natomiast Mateusz kilka lat temu zdefiniował Visual Turing Test, który nabiera coraz większą popularność i ważność. DeepMind i AlphaGo Kilka słów o DeepMind. To jest brytyjska firma zajmująca się sztuczną inteligencją założona w roku 2010. Która za 4 lata została przyjęta przez Google za 500 mln. dolarów. Firma stała się bardzo znana ze swoich osiągnięć gry w Go. DeepMind zaimplementował gracza o nazwie AlphaGo i bardzo głośnie po wygranej Lee Sedola w marcu 2016. Lee Sedol w roku 2003 zwiększył swój ranking z 4 danu do 9 danu (najwyższy). Nie ma jednego rankingu gry w Go, ale zgodnie z jednym z nich na moment gry Lee Sedol zajmował 4-tą pozycję w świecie. Już w tym roku, czyli w maju 2017 odbyła się gra Ke Jie. To jest Chińczyk, który ma teraz 20 lat i który zajmuje pozycję numer 1 przez ostatnie trzy lata. Ale AlphaGo wygrało Kei Jie. Po tym wydarzeniu CEO DeepMind, Demis Hassabis powiedział, że AlphaGo może teraz wyjść na emeryturę, bo cel został osiągnięty, a zespół, który nad tym pracował będzie robił inne projekty. Wyzwania sztucznej inteligencji AlphaGo naprawdę zrobiło ogromne wrażenie i już wydaje się, że sztuczna inteligencja staje się coraz bardziej mocniejsza.  A w tym czasie nadal są problemy które dla sztucznej inteligencji są bardzo trudne. Między innymi znane jako paradoks Moraveca. Jak mówił jeszcze Marvin Minsky: Generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie. No właśnie i taki jeden z przykładów, gdzie sztuczna inteligencja wygląda albo wyglądała bardzo słabo to rozumienie relacji. Prosty przykład. Jest stół gdzie stoi szklanka wody, kubek i talerz. Każdy z nich ma położenie, materiał, z którego zbudowany i kształt. Załóżmy talerz stoi za kubkiem. Jeżeli zapytam dziecko, które ma kilka lat lub mniej: “Co jest za kubkiem?”. Odpowiedź będzie — talerz. Dla nas to zadanie brzmi absurdalnie proste, ale jest bardzo trudne dla maszyny. Rozumienie, takich rzeczy przez maszyny jest koniecznie dla zbudowanie mocnej sztucznej inteligencji i dlatego między innymi DeepMind pracuję nad tym. Mateusz to jeden z naukowców, który pracuje nad tym problem. Zapytałem go, czy nadal to jest wyzwaniem i jakie są postępy. Mateusz powiedział: Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy Relation Networks. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu. Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi. Więcej o tym i innych tematach dowiesz się w naszej rozmowie. Na samym końcu również powiem, jak możesz dostać bezpłatnie bilet na konferencję zorganizowaną przez Google. Google organizuję trzy konferencji GDD w roku, pierwsza, jak zwykle odbywa się w stanach (już była), druga w Europie (tym razem w Krakowie) i trzecia w Azji. Konferencja odbędzie się 5 i 6 września (oryginalny koszt biletu jest 250 dolarów). Zapraszam do wysłuchania… Cześć Mateusz, przedstaw się kim jesteś i co studiowałeś, gdzie pracujesz, gdzie mieszkasz? Cześć Vladimir, nazywam się Mateusz Malinowski. Obecnie jestem naukowcem w DeepMind i pracuję nad uczeniem maszynowym, a w szczególności nad tak zwanym widzeniem maszynowym (po ang. computer vision). DeepMind jest placówka nukową, która jest związana z Google i która stała się słynna między innymi za sprawę wygraną w Go. Obecnie mieszkam w Londynie, studiowałem informatykę na Uniwersytecie Wrocławskim, ukończył magisterskie studia z informatyki na Uniwersytecie Saarlandskim w Niemczech, doktorat obroniłem z widzenia maszynowego w Instytucie Maxa Plancka. Myślę że DeepMind faktycznie jest znaną firmą, o którą wiele razy wspominałem w podcaście i nie tylko. Jeszcze porozmawiamy o tym później. Co ciekawego ostatnio przeczytałeś i dlaczego to jest warte polecenia? Przyznam szczerze, że głównie czytałem fachową literaturę. Aczkolwiek z tych artykułów, które ostatnio przeczytałem i które są w miarę przystępne, zaciekawiła mnie seria artykułów na trochę prowokujący temat “Czy neuronaukowcy potrafią zrozumieć mikroprocesorów” (Could a Neuroscientist Understand a Microprocessor? oraz Neuroscience Needs Behavior: Correcting a Reductionist Bias). Zaciekawiły mnie głównie ze względu na to, że od pewnego czasu męczy mnie to, w jaki sposób powinniśmy podejść do budowania inteligentnych maszyn. Czy powinniśmy zastosować podejście redukcjonistyczne,  gdzie tworzymy zrozumiały dla nas jakiś mały element, a potem te rzeczy skalujemy. Czy może lepiej jest podejść od całkowicie odwrotnej strony, zastanowić się nad klasą problemów do rozwiązania, w pewnym sensie opisać czego oczekujemy od takiej inteligentnej maszyny w formie funkcjonalnej, a potem stworzyć metodę, która rozwiązuje tą klasę problemów. O sztucznej inteligencji jest bardzo dużo mitów, dodatkowa jeszcze dziennikarze dolewają oliwy do ognia, można wspomnieć chociaż komentarz, o tym że Facebook wyłącza AI. Jesteś naukowcem, osobą która wie jak to jest z własnego doświadczenie. Mam nadzieje, że uda się nam trochę odczarować mity i pokazać praktyczne osiągnięcie oraz wyzwania. Najpierw co to jest tak zwana sztuczna inteligencja? Czyli zaczynamy od podstaw. To prawda, że niektóre dziennikarze zamiast informować społeczeństwo, niepotrzebnie zaogniają sytuację poprzez takie interpretacje. Co do Twojego pytania, dla mnie sztuczna inteligencja jest dyscypliną, którą zadaniem jest stworzenie maszyn, będących na co najmniej ludzkim kognitywnym poziomie. Oznacza to, że takie maszyny muszą organizować oraz interpretować różne nieustrukturyzowane sygnały i takie sygnały jak, na przykład, język, wizja na co najmniej ludzkim poziomie. Następnie, mając te sygnały, maszyny powinne w jakiś tam sposób reagować na nie i podejmować decyzje, biorąc pod uwagę sygnały wizyjne oraz językowe. Teraz może będę miał trudność, jeżeli chodzi o terminologię, ale chcę zapytać o tak zwany Symbolic AI i Sub-Symbolic AI. Proszę wyjaśnij na przykładach co to jest i na czym polega różnica? Jakie mają wady i zalety? Symboliczne AI i Subsymboliczne AI, to są dwa z pozoru odmienne podejścia do tworzenia, budowania inteligentnych maszyn. Historycznie rzecz biorąc symboliczne AI dominowało. A głównym produktem symbolicznego podejścia do AI są tak zwane systemy eksperckie. Symboliczne AI bazuje na hypotezie, że inteligencja to głównie przetwarzanie symboli. W praktyce, osoba (nazwijmy tą osobę inżynierem AI) tworzy zbiór wiedzy, a także zbiór reguł, który przetwarzają tą wiedze na nową wiedzę. Tutaj dobrym przykładem jest sylogizm logiczny. Jeżeli wszyscy ludzi są śmiertelni (to jest nasza właśnie wiedza), Vladimir jest człowiekiem (to znów jest nasza wiedza), to Vladimir jest śmiertelny i to jest nasza nowa wedydukowana, albo stworzona na podstawie jakiś reguł, wiedza. Jest sporo wyzwań, które stoją przed tworzeniem takich systemów, przede wszystkim skalowalność oraz pewna tolerancja na błędy. Na przykład, ciężko jest zebrać całą wiedzę świata w postacie formalnej, w takiej postaci która byłaby zrozumiała dla maszyny, podobnie ciężko jest stworzyć wszystkie reguły na których świat się opiera. Nasza wiedza, dotycząca wszystkich reguł jakimi człowiek się posługuje w języku angielskim, jest w najlepszym wypadku nie pewna, a być może nawet troszeczkę błędna. Sytuacja jest dużo gorsza z mniej popularnymi oraz mniej zbadanymi językami, takimi jak na przykład język polski. Idąc dalej tym torem zapytajmy się czym jest kod, w jaki sposób formalnie opisać taki obiekt, jakim jest kod i tak dalej. To nie jest taka prosta sprawa. Ostatecznie, oprócz zgromadzenia oraz sformalizowania całej wiedzy, przetwarzanie symboliczne zgromadzonej wiedzy także jest ciężkim, wymagającym procesem z perspektywy obliczeń. Jeżeli chodzi o tolerancje, to te systemy mają często problemy, na przykład, jeżeli podana wiedza jest błędna. Z drugiej strony subsymboliczne AI nastawia się raczej na takie rozmowy, bym powiedział, miękkie oraz bardziej indukcyjne. Tutaj przykładem są metody statystyczne oraz coraz bardziej popularne sieci neuronowe, a szczególnie głębokie uczenie maszynowe czyli deep learning. Z grubsza, szczególnie metody uczenia maszynowego polegają na stworzeniu ogromnych danych treningowych, mogą to być obrazki z oznaczoną kategorią. Na przykład, obrazek, który przedstawia kota razem z kategorią że to jest kot, obrazek przedstawiający psa z kategorią że to jest pies. Następnie uczymy takie maszyny na podstawie takich danych treningowych. Może brzmi to trochę magicznie, ale cały ten proces ostatecznie można formalnie i ładnie opisać za pomocą matematyki. Można także myśleć, że takie systemy uczą się pewnych wzorców za pomocą których potrafią rozwiązywać problemy, które tym systemem zadaliśmy. W pewnym sensie subsymboliczne AI jest przeciwieństwem tego symbolicznego AI i wiele z tych problemów, które wcześniej wymieniłem, tutaj nie istnieją. Pojawiają się za to nowe problemy, taki jak, na przykład, potrzeba zbudowania odpowiednich zbiorów treningowych. Tę modele też ciężej się interpretuje co jest dosyć oczywiste, ponieważ w symbolicznych metodach same wymyśliliśmy reguły, wobec tego wiemy czym te reguły są, co one znaczą. Oba nurty można obrazowo podzielić ze względu na reprezentacje myśli. Symboliczne AI sądzi, że myśl ma reprezentacje symboliczną. Z drugiej strony, szczególnie nutr głębokiego uczenia maszynowego, sądzi że myśl jest wektorem aktywacji sztucznych neuronów. Jeżeli chodzi o przyszłość AI, to osobiście nie wierze, że systemy symboliczne były tu przyszłością. Pewnie w zawęrzonych i dobrze zrozumiałych dziedzinach, takich jak, na przykład, pomóc przy naprawie komputera czy pomóc w naprawie samochodu, mogą się sprawdzać, ale wątpię żeby takie systemy uogolniały &#8211; skalowały się na świat w którym żyjemy.  Widzę więcej nadziei w systemach subsymbolicznych, tak jak głębokie uczenie maszynowe, które ostatnio stało się...</p>
<p>Artykuł <a href="https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/">Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-Z2mkBd3 wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/computer-vision-z-deepmind-mateusz-malinowski" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p><a href="http://www.gartner.com" class="broken_link">Gartner</a> opublikowała tak zwany <a href="http://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-technologies-2017/" class="broken_link">hype cycle 2017</a>, po polsku pewnie to brzmi jako cykl szumu albo cykl dojrzałości technologii. <a href="https://en.wikipedia.org/wiki/Hype_cycle">Hype cycle</a> został wymyślony przez Gartner w 1995 roku i składa się z pięciu faz: najpierw pierwsze informacje na temat technologii, druga faza to dużo szumu i wielkie oczekiwania, trzecia faza rozczarowania, bo wykrywają się pewne ograniczenia, czwarta faza naprawa tych ograniczeń i znów oczekiwania. Piąta i ostatnia faza stabilizacja. Mówi się, że wtedy technologia dojrzała i oczekiwania są połączone z możliwościami.</p>
<figure id="attachment_548" aria-describedby="caption-attachment-548" style="width: 1500px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg"><img decoding="async" class="size-full wp-image-548" src="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg" alt="Cycle Hype | Gartner | 2017" width="1500" height="1269" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A.jpg 1500w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-300x254.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-768x650.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/Emerging-Technology-Hype-Cycle-for-2017_Infographic_R6A-1024x866.jpg 1024w" sizes="(max-width: 1500px) 100vw, 1500px" /></a><figcaption id="caption-attachment-548" class="wp-caption-text">Cycle Hype | Gartner | 2017</figcaption></figure>
<p>Dla przykładu, na samym początku, czyli w fazie jeden jest tak zwany <a href="https://en.wikipedia.org/wiki/Smartdust">smartdust</a>, po polsku to zabrzmi jako “inteligentny kurz”. W dużym uproszczeniu, wobraź sobie ziarno piasku, a teraz pomyśl, że tam jest mini-procesor, bateria i sensory. Bateria jest ładowana poprzez słońce lub inne naturalne źródła energie. Takie cząstki mogą robić wiele różnych rzeczy, obserwować otoczenia, mierzyć różne parametry i nawet szpiegować. Stanisław Lem, jeszcze w roku 1964, pisał w “Niezwyciężony” podobną wizję. Teraz o tym mało się mówi, ale wiele się robi w miejscach, o których też mało się mówi :).</p>
<p>Dla przykładu. Pamiętasz o swoich uczuciach kilka czy kilkanaście lat temu, kiedy po raz pierwszy wyszedł w publiczność ekran dotykowy. Wtedy to zrobiło wrażenie. Natomiast jest stosunkowa stara technologia, która już była znana co najmniej w latach 70-tych. ubiegłego stulecia. Podobnie do <i>smartdust</i> jest 4D printing, który też jest w pierwszej fazie. Jednym słowem 4D printing można wytłumaczyć jako &#8211; “transformer”. Wyobraź sobie, że został wydrukowany jakiś obiekt, który może transformować w inny obiekt z czasem. To ma wiele obszarów zastosowań w biznesie. Ale temat rzeka, podziel się swoją opinią czy chcesz więcej dowiedzieć się na temat technologii przyszłości jak <i>smartdust</i> lub <i>4D Printing</i>?</p>
<p>Wracając do cyklu dojrzałości (hype cycle). Zwykle technologia przesuwa się w czasie od lewej strony do prawej, czyli od fazy numer 1 do fazy numer 5. Dla każdej technologii to potrzebuję różną ilość czasu od kilka lat do 10 (czy nawet więcej). Machine learning po raz pierwszy pojawił się w cyklu dojrzałości 3 lata temu (przed tym były tematy powiązane takie jak data science lub bigdata). Przez trzy lata (włączając rok 2017) machine learning jest cały czas jest w fazie numer 2 (czyli dużo szumu). Ciekawostką jest, że 3 lata temu machine learning był bliżej fazy trzeciej niż w roku 2017.</p>
<p>A co to oznacza w praktyce? Kilka wniosków. To, że jesteśmy na etapie, kiedy ilość szumu rośnie. Temat jest bardzo nagrzany i zawiera sporo magii. Kolejny wniosek jest taki, że oczekiwania rosną znacznie szybciej niż biznes jest gotów je wykorzystać. Stąd płynie kolejny wniosek, że po fazie drugiej jest faza trzecia &#8211; czyli rozczarowania wynikające z błędnego rozumienia możliwości. Postaram się pomóc Ci przejść z fazy drugiej w fazę trzecią z najmniejszą stratą jak materialną tak i moralną i przygotuję na to osobny odcinek. Już mam kilka pomysłów jak to można zrobić, ale chętnie posłucham Twoje przemyślenia na ten temat.</p>
<h2>Naukowiec Computer Vision</h2>
<p>Gościem dzisiejszego odcinku jest naukowiec z DeepMind &#8211; <a href="http://mateuszmalinowski.com">Mateusz Malinowski</a>. W drugim odcinku podcastu już wspomniałem o turing test, również o tym rozmawialiśmy w innych odcinkach podcastu, np. w 10-ym z <a href="http://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandrą Przegalińską</a>. Natomiast Mateusz kilka lat temu zdefiniował Visual Turing Test, który nabiera coraz większą popularność i ważność.</p>
<figure id="attachment_549" aria-describedby="caption-attachment-549" style="width: 3540px" class="wp-caption aligncenter"><a href="http://mateuszmalinowski.com/"><img decoding="async" class="wp-image-549 size-full" title="Mateusz Malinowski | Naukowiec Computer Vision" src="https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small.jpg" alt="Mateusz Malinowski | Naukowiec Computer Vision" width="3540" height="4089" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small.jpg 3540w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-260x300.jpg 260w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-768x887.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/Mateuszek_DOKTOR_02_small-887x1024.jpg 887w" sizes="(max-width: 3540px) 100vw, 3540px" /></a><figcaption id="caption-attachment-549" class="wp-caption-text">Mateusz Malinowski</figcaption></figure>
<p><span id="more-547"></span></p>
<h2>DeepMind i AlphaGo</h2>
<p>Kilka słów o <a href="https://deepmind.com/">DeepMind</a>. To jest brytyjska firma zajmująca się sztuczną inteligencją założona w roku 2010. Która za 4 lata została przyjęta przez Google za <a href="http://www.businessinsider.com/googles-400-million-acquisition-of-deepmind-is-looking-good-2016-7">500 mln. dolarów</a>. Firma stała się bardzo znana ze swoich osiągnięć gry w Go. DeepMind zaimplementował gracza o nazwie <a href="https://deepmind.com/research/alphago/" class="broken_link">AlphaGo</a> i bardzo głośnie po wygranej <a href="https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol">Lee Sedola w marcu 2016</a>.</p>
<p>Lee Sedol w roku 2003 zwiększył swój ranking z 4 danu do 9 danu (najwyższy). Nie ma jednego rankingu gry w Go, ale zgodnie z jednym z nich na moment gry <a href="https://en.wikipedia.org/wiki/Lee_Sedol">Lee Sedol</a> zajmował <a href="https://www.goratings.org/en/history/2016-01-01.html">4-tą pozycję</a> w świecie. Już w tym roku, czyli w maju 2017 odbyła się gra <a href="https://en.wikipedia.org/wiki/Ke_Jie">Ke Jie</a>. To jest Chińczyk, który ma teraz 20 lat i który zajmuje pozycję <a href="https://www.goratings.org/en/history/2017-01-01.html">numer 1</a> przez ostatnie trzy lata. Ale AlphaGo wygrało Kei Jie. Po tym wydarzeniu CEO DeepMind, <a href="https://en.wikipedia.org/wiki/Demis_Hassabis">Demis Hassabis</a> powiedział, że AlphaGo może teraz <a href="http://kopalniawiedzy.pl/AlphaGo-go-Ke-Jie-sztuczna-inteligencja-gra-DeepMing,26490">wyjść na emeryturę</a>, bo cel został osiągnięty, a zespół, który nad tym pracował będzie robił inne projekty.</p>
<h2>Wyzwania sztucznej inteligencji</h2>
<p>AlphaGo naprawdę zrobiło ogromne wrażenie i już wydaje się, że sztuczna inteligencja staje się coraz bardziej mocniejsza.  A w tym czasie nadal są problemy które dla sztucznej inteligencji są bardzo trudne. Między innymi znane jako <a href="https://pl.wikipedia.org/wiki/Paradoks_Moraveca">paradoks Moraveca</a>. Jak mówił jeszcze <a href="https://en.wikipedia.org/wiki/Marvin_Minsky">Marvin Minsky</a>:</p>
<figure id="attachment_146" aria-describedby="caption-attachment-146" style="width: 960px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg"><img decoding="async" class="size-full wp-image-146" src="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg" alt="Marvin Minsky" width="960" height="541" srcset="https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky.jpeg 960w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-300x169.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/03/MarvinMinsky-768x433.jpeg 768w" sizes="(max-width: 960px) 100vw, 960px" /></a><figcaption id="caption-attachment-146" class="wp-caption-text">Marvin Minsky</figcaption></figure>
<blockquote>
<p>Generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie.</p>
</blockquote>
<p>No właśnie i taki jeden z przykładów, gdzie sztuczna inteligencja wygląda albo wyglądała bardzo słabo to rozumienie relacji. Prosty przykład. Jest stół gdzie stoi szklanka wody, kubek i talerz. Każdy z nich ma położenie, materiał, z którego zbudowany i kształt.</p>
<p>Załóżmy talerz stoi za kubkiem. Jeżeli zapytam dziecko, które ma kilka lat lub mniej: <span class="hiddenGrammarError">“</span>Co jest za kubkiem?<span class="hiddenGrammarError">”</span>. Odpowiedź będzie — talerz. Dla nas to zadanie brzmi absurdalnie proste, ale jest bardzo trudne dla maszyny. Rozumienie, takich rzeczy przez maszyny jest koniecznie dla zbudowanie mocnej sztucznej inteligencji i dlatego między innymi DeepMind pracuję nad tym. Mateusz to jeden z naukowców, który pracuje nad tym problem. Zapytałem go, czy nadal to jest wyzwaniem i jakie są postępy. Mateusz powiedział:</p>
<blockquote>
<p><i>Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy </i><a href="https://arxiv.org/pdf/1706.01427.pdf"><i>Relation Networks</i></a><i>. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu. Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi.</i></p>
</blockquote>
<p>Więcej o tym i innych tematach dowiesz się w naszej rozmowie.</p>
<p>Na samym końcu również powiem, jak możesz dostać bezpłatnie bilet na konferencję zorganizowaną przez Google. Google organizuję trzy konferencji GDD w roku, pierwsza, jak zwykle odbywa się w stanach (już była), druga w Europie (tym razem w Krakowie) i trzecia w Azji. Konferencja odbędzie się 5 i 6 września (oryginalny koszt biletu jest 250 dolarów).</p>
<p>Zapraszam do wysłuchania…</p>
<hr />
<p><b>Cześć Mateusz, przedstaw się kim jesteś i co studiowałeś, gdzie pracujesz, gdzie mieszkasz?</b></p>
<p>Cześć Vladimir, nazywam się Mateusz Malinowski. Obecnie jestem naukowcem w <a href="https://deepmind.com/">DeepMind</a> i pracuję nad uczeniem maszynowym, a w szczególności nad tak zwanym widzeniem maszynowym (po ang. <i>computer vision</i>). DeepMind jest placówka nukową, która jest związana z Google i która stała się słynna między innymi za sprawę wygraną w <a href="https://pl.wikipedia.org/wiki/Go">Go</a>. Obecnie mieszkam w Londynie, studiowałem informatykę na Uniwersytecie Wrocławskim, ukończył magisterskie studia z informatyki na Uniwersytecie Saarlandskim w Niemczech, doktorat obroniłem z widzenia maszynowego w Instytucie <a href="https://www.mpg.de/institutes">Maxa Plancka</a>.</p>
<figure id="attachment_550" aria-describedby="caption-attachment-550" style="width: 2592px" class="wp-caption aligncenter"><a href="http://mateuszmalinowski.com/"><img decoding="async" class="size-full wp-image-550" src="https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped.jpg" alt="Code Boy | Mateusz Malinowski" width="2592" height="2277" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped.jpg 2592w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-300x264.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-768x675.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/mateusz_codeboy_lowquality_cropped-1024x900.jpg 1024w" sizes="(max-width: 2592px) 100vw, 2592px" /></a><figcaption id="caption-attachment-550" class="wp-caption-text">Code Boy | Mateusz Malinowski</figcaption></figure>
<p><b>Myślę że <a href="https://deepmind.com/">DeepMind</a> faktycznie jest znaną firmą, o którą wiele razy wspominałem w podcaście i nie tylko. Jeszcze porozmawiamy o tym później. Co ciekawego ostatnio przeczytałeś i dlaczego to jest warte polecenia?</b></p>
<p>Przyznam szczerze, że głównie czytałem fachową literaturę. Aczkolwiek z tych artykułów, które ostatnio przeczytałem i które są w miarę przystępne, zaciekawiła mnie seria artykułów na trochę prowokujący temat “Czy neuronaukowcy potrafią zrozumieć mikroprocesorów” (<a href="http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1005268">Could a Neuroscientist Understand a Microprocessor?</a> oraz <a href="https://www.ncbi.nlm.nih.gov/pubmed/28182904">Neuroscience Needs Behavior: Correcting a Reductionist Bias</a>).</p>
<p>Zaciekawiły mnie głównie ze względu na to, że od pewnego czasu męczy mnie to, w jaki sposób powinniśmy podejść do budowania inteligentnych maszyn. Czy powinniśmy zastosować podejście <a href="https://pl.wikipedia.org/wiki/Redukcjonizm">redukcjonistyczne</a>,  gdzie tworzymy zrozumiały dla nas jakiś mały element, a potem te rzeczy skalujemy.</p>
<p>Czy może lepiej jest podejść od całkowicie odwrotnej strony, zastanowić się nad klasą problemów do rozwiązania, w pewnym sensie opisać czego oczekujemy od takiej inteligentnej maszyny w formie funkcjonalnej, a potem stworzyć metodę, która rozwiązuje tą klasę problemów.</p>
<p><b>O sztucznej inteligencji jest bardzo dużo mitów, dodatkowa jeszcze dziennikarze dolewają oliwy do ognia, można </b><a href="http://www.bbc.com/news/technology-40790258"><b>wspomnieć</b></a><b> chociaż komentarz, o tym że Facebook wyłącza AI. Jesteś naukowcem, osobą która wie jak to jest z własnego doświadczenie. Mam nadzieje, że uda się nam trochę odczarować mity i pokazać praktyczne osiągnięcie oraz wyzwania. Najpierw co to jest tak zwana sztuczna inteligencja?</b></p>
<p>Czyli zaczynamy od podstaw. To prawda, że niektóre dziennikarze zamiast informować społeczeństwo, niepotrzebnie zaogniają sytuację poprzez takie interpretacje. Co do Twojego pytania, dla mnie sztuczna inteligencja jest dyscypliną, którą zadaniem jest stworzenie maszyn, będących na co najmniej ludzkim kognitywnym poziomie.</p>
<p>Oznacza to, że takie maszyny muszą organizować oraz interpretować różne nieustrukturyzowane sygnały i takie sygnały jak, na przykład, język, wizja na co najmniej ludzkim poziomie. Następnie, mając te sygnały, maszyny powinne w jakiś tam sposób reagować na nie i podejmować decyzje, biorąc pod uwagę sygnały wizyjne oraz językowe.</p>
<p><b>Teraz może będę miał trudność, jeżeli chodzi o terminologię, ale chcę zapytać o tak zwany </b><a href="https://en.wikipedia.org/wiki/Symbolic_artificial_intelligence"><b>Symbolic AI</b></a><b> i Sub-Symbolic AI. Proszę wyjaśnij na przykładach co to jest i na czym polega różnica? Jakie mają wady i zalety?</b></p>
<p>Symboliczne AI i Subsymboliczne AI, to są dwa z pozoru odmienne podejścia do tworzenia, budowania inteligentnych maszyn. Historycznie rzecz biorąc symboliczne AI dominowało. A głównym produktem symbolicznego podejścia do AI są tak zwane <a href="https://pl.wikipedia.org/wiki/System_ekspertowy">systemy eksperckie</a>. Symboliczne AI bazuje na hypotezie, że inteligencja to głównie przetwarzanie symboli.</p>
<p>W praktyce, osoba (nazwijmy tą osobę inżynierem AI) tworzy zbiór wiedzy, a także zbiór reguł, który przetwarzają tą wiedze na nową wiedzę. Tutaj dobrym przykładem jest sylogizm logiczny. Jeżeli wszyscy ludzi są śmiertelni (to jest nasza właśnie wiedza), Vladimir jest człowiekiem (to znów jest nasza wiedza), to Vladimir jest śmiertelny i to jest nasza nowa wedydukowana, albo stworzona na podstawie jakiś reguł, wiedza.</p>
<p>Jest sporo wyzwań, które stoją przed tworzeniem takich systemów, przede wszystkim skalowalność oraz pewna tolerancja na błędy. Na przykład, ciężko jest zebrać całą wiedzę świata w postacie formalnej, w takiej postaci która byłaby zrozumiała dla maszyny, podobnie ciężko jest stworzyć wszystkie reguły na których świat się opiera. Nasza wiedza, dotycząca wszystkich reguł jakimi człowiek się posługuje w języku angielskim, jest w najlepszym wypadku nie pewna, a być może nawet troszeczkę błędna.</p>
<p>Sytuacja jest dużo gorsza z mniej popularnymi oraz mniej zbadanymi językami, takimi jak na przykład język polski. Idąc dalej tym torem zapytajmy się czym jest kod, w jaki sposób formalnie opisać taki obiekt, jakim jest kod i tak dalej. To nie jest taka prosta sprawa. Ostatecznie, oprócz zgromadzenia oraz sformalizowania całej wiedzy, przetwarzanie symboliczne zgromadzonej wiedzy także jest ciężkim, wymagającym procesem z perspektywy obliczeń. Jeżeli chodzi o tolerancje, to te systemy mają często problemy, na przykład, jeżeli podana wiedza jest błędna.</p>
<p>Z drugiej strony subsymboliczne AI nastawia się raczej na takie rozmowy, bym powiedział, miękkie oraz bardziej indukcyjne. Tutaj przykładem są metody statystyczne oraz coraz bardziej popularne sieci neuronowe, a szczególnie głębokie uczenie maszynowe czyli deep learning. Z grubsza, szczególnie metody uczenia maszynowego polegają na stworzeniu ogromnych danych treningowych, mogą to być obrazki z oznaczoną kategorią.</p>
<p>Na przykład, obrazek, który przedstawia kota razem z kategorią że to jest kot, obrazek przedstawiający psa z kategorią że to jest pies. Następnie uczymy takie maszyny na podstawie takich danych treningowych. Może brzmi to trochę magicznie, ale cały ten proces ostatecznie można formalnie i ładnie opisać za pomocą matematyki. Można także myśleć, że takie systemy uczą się pewnych wzorców za pomocą których potrafią rozwiązywać problemy, które tym systemem zadaliśmy.</p>
<p>W pewnym sensie subsymboliczne AI jest przeciwieństwem tego symbolicznego AI i wiele z tych problemów, które wcześniej wymieniłem, tutaj nie istnieją. Pojawiają się za to nowe problemy, taki jak, na przykład, potrzeba zbudowania odpowiednich zbiorów treningowych. Tę modele też ciężej się interpretuje co jest dosyć oczywiste, ponieważ w symbolicznych metodach same wymyśliliśmy reguły, wobec tego wiemy czym te reguły są, co one znaczą.</p>
<p>Oba nurty można obrazowo podzielić ze względu na reprezentacje myśli. Symboliczne AI sądzi, że myśl ma reprezentacje symboliczną. Z drugiej strony, szczególnie nutr głębokiego uczenia maszynowego, sądzi że myśl jest wektorem aktywacji sztucznych neuronów. Jeżeli chodzi o przyszłość AI, to osobiście nie wierze, że systemy symboliczne były tu przyszłością.</p>
<p>Pewnie w zawęrzonych i dobrze zrozumiałych dziedzinach, takich jak, na przykład, pomóc przy naprawie komputera czy pomóc w naprawie samochodu, mogą się sprawdzać, ale wątpię żeby takie systemy uogolniały &#8211; skalowały się na świat w którym żyjemy.  Widzę więcej nadziei w systemach subsymbolicznych, tak jak głębokie uczenie maszynowe, które ostatnio stało się bardzo popularne lub w systemach mieszanych, które łączą zalety obu podejść do AI.</p>
<p><b>Dałeś szerszą odpowiedź, fajnie. Chciałem tylko dodać o pierwszym przypadku Symbolic AI, problem który pamiętam, który jeszcze w latach 60h się pojawił &#8211; tak zwana eksplozja reguł, czyli tych reguł stało się tak dużo, i  z każdym krokiem robiło się coraz więcej, przy czym nawet dla dla bardzo prostych problemów. Ale jak powiedziałeś, przyszłość leży gdzieś na wykorzystaniu Sub-symbolic i jednak trochę Symbolic AI.<br /></b></p>
<p><b>Jesteś bardzo mocno zaangażowany w tak zwany “</b><a href="https://en.wikipedia.org/wiki/Machine_perception"><b>Machine perception</b></a><b>”, “</b><a href="https://en.wikipedia.org/wiki/Computer_vision"><b>Computer Vision</b></a><b>” i w szczególności “Visual Recognition” oraz “Visual Question Answering”? Będziemy dzisiaj zgłębiać ten temat, tylko zaczniemy od wyjaśnienia na prostych przykładach co to jest?</b></p>
<p><a href="https://en.wikipedia.org/wiki/Machine_perception"><em>Machine perception</em></a> &#8211; to jest dyscyplina, której zadaniem jest stworzenie maszyn, które interpretują i organizują docierające sygnały, jak, na przykład, dźwiękowe czy też wizyjne.</p>
<p><a href="https://en.wikipedia.org/wiki/Computer_vision"><em>Computer vision</em></a> czyli widzenie maszynowe &#8211; to jest dyscyplina, której celem jest stworzenie maszyn, które widzą świat w taki sposób jaki my widzimy, czyli trochę podobnie do machine perception, bo też chodzi o budowę maszyn które organizują i interpretują sygnały, ale są to sygnały głównie wizyjne.</p>
<p><em>Visual recognition</em> &#8211; to jest podkategoria <em>computer vision</em> i sprowadza się w zasadzie do kategoryzacji obiektów ze zdjęć, na przykład, klasyfikacja zdjęć.</p>
<figure id="attachment_552" aria-describedby="caption-attachment-552" style="width: 600px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg"><img decoding="async" class="wp-image-552 size-full" title="Computer Vision | Visual Recogniation" src="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg" alt="Computer Vision | Visual Recogniation" width="600" height="600" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image.jpg 600w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-300x300.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-150x150.jpg 150w, https://biznesmysli.pl/wp-content/uploads/2017/08/lead_image-75x75.jpg 75w" sizes="(max-width: 600px) 100vw, 600px" /></a><figcaption id="caption-attachment-552" class="wp-caption-text">Visual Recogniation</figcaption></figure>
<p><em>Visual Question Answering</em> &#8211; to jest całkiem niedawno przedstawiona pod-dziedzina <i>computer vision</i>, która została najpierw zapoczątkowana przez Visual Turing Test podczas mojej pracy doktorskiej. Celem jest zbudowanie maszyn, które odpowiadają na pytania dotyczące świata wizyjnego, jak, na przykład, o to co się znajduje na obrazku lub o to co się znajduje na video.</p>
<figure id="attachment_551" aria-describedby="caption-attachment-551" style="width: 1853px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg"><img decoding="async" class="size-full wp-image-551" src="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg" alt="Visual Question Answering" width="1853" height="950" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results.jpg 1853w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-300x154.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-768x394.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/08/sample_results-1024x525.jpg 1024w" sizes="(max-width: 1853px) 100vw, 1853px" /></a><figcaption id="caption-attachment-551" class="wp-caption-text">Visual Question Answering</figcaption></figure>
<p><b><i>Computer vision</i></b><b> nie jest tak naprawdę nowym tematem. Już w latach 60-tych na </b><a href="https://dspace.mit.edu/handle/1721.1/11589"><b>MIT</b></a><b> były pierwsze próby pracować z rozpoznawaniem obiektów na zdjęciu. To był stosunkowo prosty przypadek związany z rozpoznawaniem geometrii, a przede wszystkim krawędzi w 3D obiektach&#8230; Natomiast prawdziwy rozkwit </b><b><i>computer vision</i></b><b> nastąpił 5 lat temu. No właśnie co takiego się stało 2012 roku?</b></p>
<p>Tak, sporo się zmieniło między latami 60-mi i 2012 rokiem, jeżeli chodzi o <i>computer vision</i>. Tak jak powiedziałeś, w latach 60h eksperymenty były prowadzone na obrazach o stosunkowo małej złożoności, głównie to były idealne figury geometryczne z bardzo prostą semantyką. Przez semantykę tutaj mam na myśli że było kilka kategorii, takie jak stożki, szcześciany i tak dalej, i te kategorie są łatwe do odróżnienia.</p>
<p>Obecnie, w dzisiejszych czasach, prowadzimy eksperymenty na prawdziwych obrazach, czyli takich obrazach, które można zobaczyć na Facebooku, Flickerze i tak dalej. Tutaj złożoność takich obrazów jest znacznie większa i samo odseparowanie obiektów od tła jest większym wyzwaniem. Semantyka tych obrazów jest dużo bardziej skomplikowana, jest dużo więcej obiektów na takim obrazie, mamy dużo więcej kategorii. Samo pytanie czym jest obiekt jest także skomplikowane.</p>
<p>Na przykład, czy traktować człowieka jako całość, czy to jest kompozycja z jakichś części prostszych typu nogi, ręce i tak dalej, czy może człowiek czy ogólnie obiekty są bardziej zdefiniowane przez kontekst, przez otoczenie czy może to wszystko na raz. To jest dużo bardziej skomplikowany problem niż te problemy, które badaliśmy w latach 60h. I tak jak wspomniałeś, w latach 60h można było stworzyć systemy regułowe, które rozpoznawały to co się dzieje na obrazach, a w dzisiejszych czasach na prawdziwych obrazach to jest zajęcie bardzo ciężkie i prawdopodobnie nie możemy się zdawać na systemy regułowe.</p>
<p>A skoro pytasz o rok 2012, to w tym roku nastąpił przełom w rozpoznawaniu obiektów na obrazach. W największym ówcześnie konkursie na najlepszy system rozpoznający obiekty na obrazach tak zwane <a href="http://image-net.org/">ImageNet</a>, pewna metoda, która bazowała na konwolucyjnych sieciach neuronowych (po ang. <a href="https://en.wikipedia.org/wiki/Convolutional_neural_network"><i>convolutional networks</i></a>) zdeklasowała pozostałe systemy o jakieś 10% i wygrała. I następujące rzeczy się zmieniły, tak to można podsumować.</p>
<p>Przeszliśmy od metod symbolicznych do metod subsymbolicznych, a dokładniej przeszliśmy do metod głębokiego uczenia maszynowego. Wytrenowaliśmy wspomniane metody na dużo większych zbiorach danych treningowych. Pojawianie się takich zbiorów treningowych jak właśnie ImageNet, który zbiera bardzo dużo obrazków jest kluczowe, żeby wytrenować maszyny, które rozpoznają obiekty na obrazach.</p>
<p>Rozwój sprzętu do gier komputerowych czyli karty graficzne także się przyczyniły rozwojowi AI. W szczególności umożliwiły one wytrenowanie głębokich sieci neuronowych na dużych zbiorach treningowych o których wspomniałem.</p>
<p>Technicznie jest to spowodowane tym, że sieci neuronowe dobrze się opisuje za pomocą operacji macierzowych, a te z kolei są także bardzo ważne w grach komputerowych, a za tym te operacje zostały dobrze zoptymalizowane w karty graficzne i przez to także są wykorzystywane do trenowania głębokich sieci neuronowych.</p>
<p><b>Zapytałem już o </b><b><i>computer vision</i></b><b>. Nieco podsumowując, wracają do konkursu </b><a href="http://image-net.org/"><b>ImageNet</b></a><b>, czyli konkurs gdzie algorytm próbuje klasyfikować obiekty które są na zdjęciu. Ludzi robią to z dokładnością 95% innymi słowami błąd jest 5%. </b></p>
<p><b>Pokażę teraz </b><a href="https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/"><b>dynamikę</b></a><b> rozwoju. W roku 2010 (kiedy konkurs rozpoczął się) każdy z uczestników uzyskał wynik ponad 25% błędu, za 2 lata w słynnym roku 2012 najlepszy wynik był (AlexNet) już był 16%, trzy lata później, czyli 2015 udało się osiągnąć trochę mniej niż 5% (3.57% top 5 error) a w 2017 już 29 z 38 drużyn miał wynik mniej niż 5%. Postępy są gigantyczne. Powtórzę, że algorytm robię to lepiej niż ludzi (dla pewnych kategorii). </b></p>
<figure id="attachment_553" aria-describedby="caption-attachment-553" style="width: 640px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg"><img decoding="async" class="size-full wp-image-553" src="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg" alt="Postępy z ImageNet | Zródło: Davidy Yanofski" width="640" height="827" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006.jpg 640w, https://biznesmysli.pl/wp-content/uploads/2017/08/image_classification_006-232x300.jpg 232w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-553" class="wp-caption-text">Postępy z ImageNet | Zródło: <a href="https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/">David Yanofsky</a></figcaption></figure>
<p><b>Pytanie analogiczne, ale będzie dotyczyło innego obszaru. A jak wyglądają postępy z przetwarzaniem i rozumieniem tekstu (</b><a href="https://en.wikipedia.org/wiki/Natural_language_processing"><b>NLP</b></a><b>/</b><a href="https://en.wikipedia.org/wiki/Natural_language_understanding"><b>NLU</b></a><b>)?</b></p>
<p>Jeżeli chodzi o przetwarzanie języka naturalnego, to z tą dziedziną jestem dużo mniej zaznajomiony, więc nie mogę to tak ładnie podsumować. Ale z grubsza mogę powiedzieć , że obecnie wielu problemów z przetwarzania tekstu daje się rozwiązać za pomocą głębokiego uczenia maszynowego czyli za pomocą głębokich sieci neuronowych.</p>
<p>W pewnym sensie to jest bardzo fajne, bo, jak widzisz, podobne metody, które są stworzone do przetwarzania lub klasyfikacji obrazów także nadają się do przetwarzania lub klasyfikacji tekstu. Mamy w pewnym sensie unifikacje, czyli korzystamy z podobnych metod do rozwiązywania z pozoru odmiennych problemów.</p>
<p>Wracając do tematy, to tak zrbusza, ostatnio takie metody jak word2vec albo <a href="https://en.wikipedia.org/wiki/Recurrent_neural_network">rekurencyjne sieci neuronowe</a>, takie jak <a href="https://en.wikipedia.org/wiki/Long_short-term_memory">LSTM</a> udowodniają swoją pozycję przy rozwiązywaniu pewnych problemów z przetwarzania języka naturalnego. Działają one bardzo dobrze na poziomie słów lub krótszych zdań. Te metody, a szczególnie rekurencyjne sieci neuronowe także wykorzystywałem w swojej prace doktorskiej.</p>
<p><b>O Turing Test już wspomniałem kilka razy w poprzednich odcinkach, ale proszę wyjaśnij czym jestem </b><a href="https://en.wikipedia.org/wiki/Visual_Turing_Test"><b>Visual Turing Test</b></a><b>, jaki jest sens tego (albo inaczej, jakie jest zastosowanie, jakie potencjalnie problemy to może rozwiązać) i na koniec jaki jest postęp (zgodnie z estymacją kiedy będzie zaliczony)? </b></p>
<p>O tym mogę długo opowiadać. <a href="http://download.mpi-inf.mpg.de/d2/mmalinow-slides/visual_turing_test-beginning.pdf">Visual Turing Test</a> to jest problem, który zaproponowałem razem z moim opiekunem w czasie swojego pobytu na studiach doktorskich w Instytucie Maxa Plancka. Jest to problem, w którym maszyna dostaje zbiór pytań w języku naturalnym na temat danego obrazu. To mogą być pytania w stylu “ile jest krzeseł przy stole” albo “jaki przedmiot leży w kącie tego pokoju”.</p>
<p>Następnie maszyna, która dostaje takie pytanie, musi odpowiedzieć na nię, a my automatycznie sprawdzamy poprawność udzielonej odpowiedzi. Podsumowując można powiedzieć, że Visual Turing Test jest o tworzeniu takich maszyn, które jednocześnie rozumieją język naturalny, oraz widzenie (na przykład, rozumieją obrazy, zdjęcia, wideo). A to rozumienie mierzymy w sposób automatyczny przez porównanie otrzymanej odpowiedzi do odpowiedzi oczekiwanej.</p>
<p>Podczas pracy doktorskiej, nie tylko zaproponowałem taki test i opisałem kierunek jego rozwoju, także zaproponowałem konkretny zbiór danych <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a>, stworzyłem pierwsze metody, które odpowiadają na pytania o obrazy, jedną będącą połączeniem takiego symbolicznego AI z uczeniem maszynowym, a druga metoda, która już należy do nurtu subsymbolicznego (a dokładniej do głębokiego uczenia maszynowego).</p>
<figure id="attachment_554" aria-describedby="caption-attachment-554" style="width: 762px" class="wp-caption aligncenter"><a href="http://datasets.d2.mpi-inf.mpg.de/mateusz14visual-turing/challenges.pdf"><img decoding="async" class="size-full wp-image-554" src="https://biznesmysli.pl/wp-content/uploads/2017/08/daquar.jpg" alt="Zbiór danych DAQUAR" width="762" height="636" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/daquar.jpg 762w, https://biznesmysli.pl/wp-content/uploads/2017/08/daquar-300x250.jpg 300w" sizes="(max-width: 762px) 100vw, 762px" /></a><figcaption id="caption-attachment-554" class="wp-caption-text">Zbiór danych DAQUAR</figcaption></figure>
<p>Także zaproponowałem kilka metryk, które automatycznie sprawdzają jakość otrzymanych odpowiedzi. Problem okazał się z jednej strony bardzo trudny, a z drugiej &#8211; ciekawy, do tego stopnia, że wiele innych uniwersytetów, a także firm potwierdziły ten pomysł i kontynuują badania w tym kierunku.</p>
<p>Chciałbym opowiedzieć również o początkach Visual Turing Test, bo to jest dosyć istotne do zrozumienia. Problem ten powstał częściowo ze względu na moje niezadowolenie z postępów w tak zwanym <i>image captioningu</i>, gdzie zadaniem maszyny jest opisanie obrazu. Dużym problemem w <i>image captioningu</i> jest automatyczna ewaluacja (ocenianie jakości działania modelu) opisów wyprodukowanych przez maszynę.</p>
<p>Tutaj pojawia się problem: żeby automatycznie stwierdzić czy maszyna poprawnie opisała obraz, potrzebujemy innej maszyny, która rozumie i opis i obraz. Czyli mamy takie zapętlenie, aby sprawdzić czy maszyna rozumie problem musimy mieć maszynę, która już rozumie problem. W praktyce, oczywiście, korzysta się z jakichś tam <a href="https://pl.wikipedia.org/wiki/Heurystyka_(logika)">heurystyk</a>, ale wyniki ewaluacji nie zawsze są zgodne z naszymi intuicjami, a czasami ciężko się te metody interpretuje. A co byłoby, gdybyśmy zadawali bardziej skomplikowane pytania o to co się znajduje na obrazie, ale w taki sposób, aby dostać w miarę prostą odpowiedź.</p>
<p>Na przykład, jeżeli zadam pytanie “czy po mojej prawej stronie znajduję się szklanka”, z jednej strony wymagasz od systemu by ten zrozumiał obiekt szklanka, by zrozumiał pewne relacje w przestrzeni, by zrozumiał samo pytanie, ale sama odpowiedź jest już bardzo prosta &#8211; jest to “tak” albo “nie”. W praktyce okazało się, że ewaluacja nie jest aż taka prosta, ze względu na różne możliwości w interpretacji obrazu lub pytania, ale i tak te problemy są znacznie mniejsze niż w problemie image captioningu.</p>
<p>Kolejnym problemem tych metod, które opisują jest to, że jest im łatwiej oszukiwać, ze względu na to, że nie oczekujemy od takich metod niczego konkretnego, a jest wiele możliwych opisów tego samego obrazu (jedne są bardziej konkretne, inne &#8211; bardziej abstrakcyjne), a z dodatkowo pewną tendencją ludzi do antropomorfizacji powodują, że metody opisujące obraz, nie muszą być bardzo precyzyjne. Jeśli takie metody wykryją gdzieś żyrafy i opiszą obraz, jako żyrafa na trawie, to jest to duża szansa, że taki opis jest ostatecznie poprawny.</p>
<p>Te metody mogą opisać obraz bez głębszego rozumienia tego, co się znajduje na obrazie i stworzyłem Visual Turing Test, który podchodzi do podobnego problemu w inny sposób. Bo wiem, by maszyny zrozumiały to co się dzieje wokół w sposób znacznie głębszy niż to jest wymagane od problemów, w których metoda opisuje obrazy, i to jest robione poprzez zadawanie pytań o dane elementy tego obrazu.</p>
<p>Jeszcze z innej strony na taki test można spojrzeć jak na zbiór wielu indywidualnych problemów, nie tylko takich jak klasyfikacja obiektów na obrazie lecz tak jak klasyfikacja czynności, zrozumienie emocji czy też może atrybutowa charakteryzacja obiektów. Każdy taki problem jest sparametryzowany pytaniem. I to, uważam, jest bardzo ważna rzecz, bo wiem, jeżeli myślimy faktycznie o zbudowaniu prawdziwego AI, to musimy pójść w kierunku dywersyfikacji, czyli taka maszyna nie tylko powinna rozwiązać problem A, ale i problem B itd.</p>
<p>Jeszcze z innej strony Visual Turing Test  jest odejściem od standardowego paradygmatu widzenia maszynowego, zgodnie z którym maszyny badały zrozumienie sceny zdjęć poprzez <a href="https://en.wikipedia.org/wiki/Object_detection">detekcje objektów</a> albo <a href="https://pl.wikipedia.org/wiki/Segmentacja_obrazu">segmentację obrazów</a> i to odejście jest na rzecz prostszego w ewaluacji problemu, który nie wymaga specyficznej reprezentacji, takich jak, na przykład, opisanie obiektu prostokąt czy klasyfikacji poszczególnych pikseli. Ewaluacja jest dokonywana na podstawie ostatecznego celu jaki ma maszyna wykonać, czyli w tym wypadku &#8211; odpowiedzi na pytanie o obraz.</p>
<figure id="attachment_555" aria-describedby="caption-attachment-555" style="width: 655px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg"><img decoding="async" class="size-full wp-image-555" src="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg" alt="Object Detection" width="655" height="488" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/detection.jpg 655w, https://biznesmysli.pl/wp-content/uploads/2017/08/detection-300x224.jpg 300w" sizes="(max-width: 655px) 100vw, 655px" /></a><figcaption id="caption-attachment-555" class="wp-caption-text">Object Detection</figcaption></figure>
<p>Jeżeli chodzi o postęp &#8211; jest on bardzo duży, biorąc pod uwagę, że ten problem jest całkiem nowy. Przede wszystkim powstało wiele zbiorów danych nasz DAQUAR był pierwszy, najbardziej znaną bazą jest <a href="http://www.visualqa.org/">VQA</a>. Wielkość jest na tyle istotna, że obecne metody uczenia maszynowego do efektywnego nauczania wymagają ogromnej liczby danych. Są także inne zbiory danych, takie jak <a href="http://movieqa.cs.toronto.edu/home/" class="broken_link">MovieQA</a> gdzie pytania są na temat wideo, i jest taka baza danych syntetyczna <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>, którą ostatnio eksperymentowałem w DeepMind.</p>
<figure id="attachment_556" aria-describedby="caption-attachment-556" style="width: 658px" class="wp-caption aligncenter"><a href="https://arxiv.org/pdf/1612.00837.pdf"><img decoding="async" class="size-full wp-image-556" src="https://biznesmysli.pl/wp-content/uploads/2017/08/VQA.jpg" alt="Przykłady ze zbioru danych VQA" width="658" height="391" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/VQA.jpg 658w, https://biznesmysli.pl/wp-content/uploads/2017/08/VQA-300x178.jpg 300w" sizes="(max-width: 658px) 100vw, 658px" /></a><figcaption id="caption-attachment-556" class="wp-caption-text">Przykłady ze zbioru danych VQA</figcaption></figure>
<p>Jeżeli chodzi o estymacje, to ciężko powiedzieć kiedy rozwiążemy taki problem. Tutaj też warto odizolować sam problem Visual Turing Test od konkretnej bazy danych, która dany problem ukonkretnia. Myślę że Visual Turing Test w najszerszym znaczeniu równoważy z <a href="https://pl.wikipedia.org/wiki/Silna_sztuczna_inteligencja">General AI</a>.</p>
<p>Z kolei pewne bazy danych mogą zostać rozwiązane w najbliższej przyszłości. Na przykład, wspomniana baza <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> (baza z syntetycznymi obrazami i syntetycznymi pytaniami) została rozwiązana w DeepMind.</p>
<p><b>Zapytam jeszcze o Turing Test. </b><a href="https://en.wikipedia.org/wiki/Alan_Turing"><b>Alan Turing</b></a><b> nie zdefiniował dokładnie co ma nastąpić, żeby powiedzieć że to faktycznie się stało. Teraz jest sporo spekulacji, bo jedni uważają że już udało się osiągnąć Turing Test, drudzy mówią, że udało się przez to że nie został dobrze zdefiniowany i </b><a href="http://www.spidersweb.pl/2014/06/test-turinga-zdany.html"><b>nastolatek z Ukrainy</b></a><b> czy inne chatboty, które udają że są inteligentne. </b></p>
<p><b>Tak naprawdę tylko bardziej próbują się poruszać w bardzo ograniczonej dziedzinie. Zapytam się właśnie o Visual Turing Test, czy też prawdopodobnie będzie taka spekulacja czy jednak jest to bardziej sformalizowane, bo tego nie do końca zrozumiałem.<br /></b></p>
<p>Może nie nazwałbym to spekulacją, jest to powiedzmy odkrywanie bazy danych, która jest dobrym odzwierciedleniem tego Visual Turing Test. Może tutaj powtórzę, że na początku, jak tworzyłem test, stworzyłem go z bazą danych <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a> i można powiedzieć, że to jest pewna instancja Visual Turing Test. W jednej ze swoich publikacji określiłem mniej więcej co mam na myśli poprzez Visual Turing Test i to jest coś trochę bardziej ogólnego.</p>
<p>W pewnym sensie jasno jest to, że to zależy od innych naukowców czy też innych ludzi, jaka jest konkretna baza danych, która odzwierciedla ten Visual Turing Test, więc pod tym względem jest trochę spekulacji. To co jest dla mnie ważne w odróżnieniu od oryginalnego Turing Testu, zdefiniowanego przez Alana Turinga, jest to, że tutaj bardziej skupiamy się na wizji, na obrazach i przez to ten problem staje się bardziej konkretny od Turing Testu, bo tutaj zadaje konkretne pytania “czym jest ten obiekt” albo “ile mamy obiektów na stole” i td. I nie oczekujmy tutaj abstrakcyjnych odpowiedzi.</p>
<p>Ten problem antropomorfizacji czyli takiego nadawania ludzkiego znaczenia rzeczom, które niekoniecznie mają wiele sensu nie jest tak problematyczny, jak w Teście Turinga. Tak jak wspomniałeś że taki robot może udawać dziecko albo inną osobę i zaczynamy wierzyć w to. Tutaj to wszystko jest bardziej konkretne.</p>
<p><b>To się cieszę. Warto czasami mieć konkrety, chociaz z drugiej strony, jeżeli chodzi o Turing Test, ten test nie ma już aż tak dużo znaczenia, po prostu warto iść do przodu, niż próbować z kimś dyskutować, albo robić kolejną wojnę czy ktoś wygrał ten test czy nie. </b></p>
<p><b>Chodźmy dalej, bo jest jeszcze wiele ciekawych rzeczy. Tylko wspomnę jeszcze o </b><b><i>image caption</i></b><b> czy podpisy zdjęć. Pamiętam że kilka tygodni czy miesiąc temu czytałem artykuł o </b><a href="https://blog.keras.io/the-limitations-of-deep-learning.html"><b>ograniczeniach Deep Learning</b></a><b> i tam było między innymi zdjęcie, gdzie dziewczynka z szczoteczką stoi i algorytm rozpoznał, że to jest bejsbol. Jeżeli chodzi o geometrie, to przypomina, ale każdy człowiek zrozumie, że to była szczoteczka</b><b>. </b></p>
<figure id="attachment_557" aria-describedby="caption-attachment-557" style="width: 500px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg"><img decoding="async" class="size-full wp-image-557" src="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg" alt="Dziecko ze szczoteczką" width="500" height="382" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail.jpg 500w, https://biznesmysli.pl/wp-content/uploads/2017/08/caption_fail-300x229.jpg 300w" sizes="(max-width: 500px) 100vw, 500px" /></a><figcaption id="caption-attachment-557" class="wp-caption-text">Dziecko ze szczoteczką</figcaption></figure>
<p>Tak, to prawda, więcej jest takich sytuacji i oni są związane z tym, że sieci neuronowe nie mają głębokiego zrozumienia obrazu i raczej działają na pewnych korelacjach, na pewnych związkach statystycznych. Czasami te metody dają świetne rezultaty i możesz być zaskoczony że dany obrazek został w taki sposób opisany, ale też jest dużo wypadków gdzie opis obrazka jest zupełnie błędny.</p>
<p>To widać też na Visual Turing Test, bo wiele metod, które daje się wykorzystać do opisania obrazów także się daje trochę zmienić i wykorzystać do Visual Turing testu. Przy takich trudniejszych pytaniach, które są wcale nie aż takie trudne, te metody tak dobrze nie działają.</p>
<p><b>Zgłębię te tematy, bo jak już powiedzieliśmy na początku &#8211; pracujesz w DeepMind, ale może warto zaznaczyć, że nie reprezentujesz firmę jako taką, tylko wyrażasz swoją prywatną opinie, ale jednak porozmawiajmy o tym…</b></p>
<p><b>Zwycięstwo AlphaGo jest bardzo słynne. To było bardzo duży krok do przodu jeżeli chodzi o możliwości komputera. Ale wiem, że DeepMind robi kolejny duży krok do osiągnięcia tak zwanego General AI. </b></p>
<p><b>Algorytmy już całkiem dobrze sobie radzą z wykrywaniem kota czy psa na zdjęciu, ale algorytm nie zdaje sobie sprawę, że pies goni kota (chociaż czasem też </b><a href="https://www.youtube.com/watch?v=S7znI_Kpzbs"><b>była odwrotnie</b></a><b>). </b></p>
<p><iframe title="You Shall Not Pass, Dog" width="960" height="540" src="https://www.youtube.com/embed/S7znI_Kpzbs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Dla człowieka to jest oczywiste. Innymi słowa tak zwanej sztucznej inteligencji po prostu brakuje, jak to czasem mówi się, rozumieniu o życiu, o relacjach (po angielsku </b><a href="https://en.wikipedia.org/wiki/Commonsense_knowledge_(artificial_intelligence)"><b><i>common sense knowledge</i></b></a><b>). </b></p>
<p><b>Czyli jeszcze raz, na dzień dzisiejsze uczenie maszynowe fantastycznie sobie radzi z wykrywaniem wzorców, ale nie jest w stanie wyjaśnić dlaczego jest tak… nie ma głębszego rozumienia. W dużym uproszczeniu, możemy powiedzieć, że student też może “wykuć” na pamięć materiał i nawet zdać egzamin, ale ta wiedza jest po prostu zbiór reguł w głowie i prawie zero zrozumienia. </b></p>
<p><b>Jesteś <a href="https://arxiv.org/pdf/1706.01427.pdf">zaangażowany</a> w jeden z projektów DeepMind, gdzie właśnie próbuję się wyjść na inny poziom sztucznej inteligencji. Proszę wyjaśnij jak podchodzisz do tego tematu w DeepMind. Co już udało się osiągnąć? Również poproszę w miarę prostym, mało technicznym językiem z przykładami. </b></p>
<p>W DeepMind pracowałem nad <i>relation networks</i> i tak jak wspomniałeś, sieci neuronowe o ile dobrze potrafią rozpoznawać obiekty na obrazach, to z pewnymi rzeczami, takimi jak relacje pomiędzy różnymi obiektami to jest dużo ciężej. Głównym celem tego projektu jest zmiana tego stanu rzeczy.</p>
<p>Już jakiś czas temu chyba wspomniałem o zbiorze <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>, który jest zbiorem składającym się z trójek pytanie-odpowiedź-obraz, więc można powiedzieć że to także jest część większego projektu, który został zapoczątkowany przez Visual Turing Test czyli także do niego należy albo Vision Question Answering.</p>
<p>Ale w odróżnieniu od zbioru <a href="https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/vision-and-language/visual-turing-challenge/">DAQUAR</a> tutaj mamy syntetyczne pytania oraz syntetyczne obrazy, które się składają z kilku figur geometrycznych. Więc pod tym względem te bazy danych są trochę podobne do baz danych MIT z lat 60-yh, ale <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> jest położony głównie na takie relacyjne myślenie, czyli pytania są w stylu “ile jest innych rzeczy, które mają taki sam materiał jak żółty sześcian” itd.</p>
<p><b>Przepraszam, że Cię przerywam, ale myślę, że warto to trochę rozszerzyć i podać przykład co to znaczy w praktyce, bo mamy stół albo jakąś powierzchnię i tam są różne przedmioty, na przykład, sześcian, stożek, kula i też mają różne kolory. Pytanie jest takie &#8211; ile jest przedmiotów tego samego koloru albo czy jest ten sam materiał jak na stożku, prawda? </b></p>
<figure id="attachment_558" aria-describedby="caption-attachment-558" style="width: 773px" class="wp-caption aligncenter"><a href="https://arxiv.org/pdf/1706.01427.pdf"><img decoding="async" class="size-full wp-image-558" src="https://biznesmysli.pl/wp-content/uploads/2017/08/clevr.jpg" alt="Zbiór danych CLEVR" width="773" height="334" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/clevr.jpg 773w, https://biznesmysli.pl/wp-content/uploads/2017/08/clevr-300x130.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/clevr-768x332.jpg 768w" sizes="(max-width: 773px) 100vw, 773px" /></a><figcaption id="caption-attachment-558" class="wp-caption-text">Zbiór danych CLEVR</figcaption></figure>
<p>Tak. Aczkolwiek pytania mogą być znacznie bardziej skomplikowane. Na przykład, ile jest gumowych stożków, które stoją naprzeciwko zielonego sześcianu, który jest po lewej stronie od czerwonej rzeczy.</p>
<p><b>To jest ciekawe, bo jak mówimy o sztucznej inteligencji, deep learning, to zawsze jest takie zachwycenie, że właśnie wygrała AlphaGo, ale tak jak rozmawialiśmy na początku &#8211; jest to wyzwanie z </b><b><i>common sense knowledge,</i></b><b> albo rozumieniem ogólnym, albo powiązaniem tych relacji i to, co potrafi robić nastolatek albo 5-latek, w tej chwili dla algorytmu nadal jest wyzwaniem albo było wyzwaniem. Powiedz, jakie są postępy?</b></p>
<p>Można powiedzieć, że było wyzwaniem. W celu takiego relacyjnego wnioskowania przez maszyny, stworzyliśmy moduł, który nazwaliśmy <a href="https://arxiv.org/pdf/1706.01427.pdf">Relation Networks</a>. Jest to sieć neuronowa, która rozważa dwa obiekty na obrazie, porównuje te obiekty ze sobą za pomocą kilku warstwowej sieci neuronowej, a następnie agreguje wszystkie te reprezentacje takich par w celu stworzenia jednej reprezentacji globalnej całego obrazu.</p>
<p>Za pomocą tak zbudowanej sieci neuronowej otrzymaliśmy wyniki, które są w zasadzie lepsze niż ludzkie odpowiedzi. Tutaj muszę zaznaczyć, że wszystko jest na zbiorze danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> i ten zbiór jest wizyjnie prosty, ma skomplikowane relacje, skomplikowane pytania, ale ta percepcja jest prosta. Ale w każdym bądź razie, nasz system potrafi według metryk odpowiadać lepiej niż ludzie, na tej bazie danych. Dlatego można powiedzieć, że rozwiązaliśmy problem rozumienia relacyjnego, przynajmniej w stosunku bazy danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a>.</p>
<p>To co jeszcze jest ważne. Mimo tego, że powiedziałem, że ten moduł porównuje dwa obiekty, to te obiekty nie muszą jawnie być podane, ta sieć neuronowa sama rozstrzyga czym jest dany obiekt na podstawie danych treningowych. To jest w zasadzie taka sieć neuronowa, gdzie się podaje tylko i wyłącznie obrazy, podaje się skomplikowane pytania, podaje się odpowiedzi (w zbiorze treningowym, oczywiście), i ona na postawie tych trójek zaczyna rozumieć obiekty i zaczyna rozumieć relacje.</p>
<p><b>To my, jako ludzkość zrobiliśmy kolejny krok w kierunku tak zwanej GAI czyli ogólnej sztucznej inteligencji. Tutaj warto jeszcze dopytać Twoją opinie na temat, jakie są wyzwania na dzień dzisiejszy w uczeniu maszynowym, jakie są największe i które da się pokonać w najbliższe 5 lat? </b></p>
<p>Jest dużo wyzwań. Myślę, że bardzo ważnym jest to, aby sieci neuronowe zaczęły dobrze sobie radzić w momencie, kiedy nie ma tak dużo danych treningowych. Jak opowiadałem o tym zbiorze danych <a href="http://cs.stanford.edu/people/jcjohns/clevr/" class="broken_link">CLEVR</a> i rozumieniu relacyjnym, to to wszystko dobrze działa, bo mamy dużo zbiorów treningowych. W świecie rzeczywistym ciężko się buduje takie zbiory treningowe, szczególnie na wielką skalę.</p>
<p>Jesteśmy ograniczeni o takie naturalne rzeczy, jak zasoby pieniężne, ludzki, jak czas i tak dalej. I w takich skomplikowanych problemach, jak Visual Turing Test, ciężko jest zbudować takie bazy danych, które by zawierały wszystkie możliwe pytania ze wszystkimi możliwymi odpowiedziami. A my &#8211; ludzie, jakoś sobie radzimy, poprzez moze jakąś kompozycję, a być może mamy jakieś inne umiejętności, dzięki którym potrafimy tworzyć nowe zdania i potrafimy rozumieć zdania, albo całe zbiory zdań, które wcześniej nie słyszeliśmy.</p>
<p>I to jest, moim zdaniem, bardzo duże wyzwanie dla sieci neuronowych. Jak zbudować taką sieć neuronową, która jest bardzo silna do rozwiązywania problemów, ale jednocześnie nie wymaga się od niej takiego dużego zbioru treningowego, że ona potrafi na bazie kilku przykładów zrozumieć co się dzieje.</p>
<p><b>Mogę potwierdzić takim trochę z życia przykładem. Mam małe dziecko i zawsze się fascynuje, jak pokazuje w jednej książce krowę, czy inny obiekt, dosłownie jeden czy dwa razy, a później biorę inna książkę, gdzie ta krowa wygląda zupełnie inaczej i pytam “gdzie jest krowa?”, a on pokazuje prawidłowo. </b></p>
<p><b>I dla mnie to jest fascynujące. Jak to jest możliwe, bo pokazałem tylko jeden raz i zupełnie czegoś innego, ale od razu się nauczył.  Tutaj widać że mózg człowieka działa znacznie lepiej niż nowoczesne algorytmy, przynajmniej na dzień dzisiejszy. </b></p>
<p>Tak, dokładnie i na dzień dzisiejszy musiałbyś pokazać 100 instacji żeby sieć neuronowa zrozumiała czym jest krowa.</p>
<p><b>Teraz przejdźmy do tematów, może trochę etycznych, albo o odpowiedzialności. </b></p>
<p><b>Mówi się, że jesteśmy teraz na etapie, kiedy algorytmy rozwiązują coraz bardziej złożony zagadnienia, ale my jako ludzi nie do końca mamy kontrole nad tym co tam się dzieje. W ogólnym sensie tego słowa rozumiemy jak to działa (że jest tam sieć neuronowa i różne funkcję transformujące sygnał). W pewnym sensie, to jest podobnie jak to, że wiemy, że jest Słońca, Ziemia i inne planety. Jest grawitacja i inne prawa fizyki, ale myślę, że każdy fizyk który spędził swoje życie na naukę pod koniec życie mógł stwierdzić, że wiem sporo, ale nadal nie wiem jak to działa w całości.</b><b><br /></b><b><br /></b><b> Jak mówił Arystoteles „</b><b><i>Całość</i></b><b> jest czymś więcej niż </b><b><i>sumą części</i></b><b>”. No właśnie jest kilka pytań w tym obszarze.  </b><b><br /></b><b>Najpierw może wyjaśnię dlaczego to jest problemem w mojej opinii. Jeżeli zastanowić się na chwilę, to łatwo stwierdzić też nie mamy kontrolę nad ludźmi z każdym krokiem (i to oczywiście dobrze), czyli nie wiemy dokładnie co Jan Kowalski czy Adam Nowak chce zrobić dzisiaj czy jutro (chociaż, w większości przypadków to jest łatwo przewidzieć, bo ludzi płyną zgodnie z prądem).</b><b><br /></b><b><br /></b><b> Z drugiej strony, mamy odpowiedzialność, jeżeli zrobią coś złego, to na nich będzie czekała kara. Nie powiem, że osobiście podoba mi się taki model relacji, mam inne zasady wewnętrzne. Ale mniejsza o to… chodzi o to, że jest to jakiś mechanizm który reguluję działania innych. W przypadku sztucznej inteligencji. Jaka może być dla niej kara? Brzmi trochę bez sensu :). Dlatego jest potrzebna kontrola, żeby rozumieć każdy jej krok.  Czy potrzebna jest taka kontrola wg Ciebie? Bo to brzmi fajnie, że możemy kontrolować, ale to pewnie bardzo ogranicza rozwój. Jaka jest Twoja opinia najpierw jako naukowca?</b></p>
<p>Tutaj zdecydowanie będzie moja prywatna opinia. Jeżeli chodzi o kwestie rozumienia, szczególnie głębokich modeli uczenia maszynowego, jak głębokie sieci neuronowe, to warto jednak podkreślić dwie rzeczy. Do pewnego stopnia my, jako środowisko, rozumiemy te modele, które tworzymy.</p>
<p>Są oczywiście rzeczy, które słabo rozumiemy i często oni są natury technicznej. Na przykład, intuicyjnie mogłoby się wydawać że taka głęboka sieć neuronowa, która ma ok. 60 mln parametrów, która jest trenowana za pomocą <a href="https://en.wikipedia.org/wiki/Stochastic_gradient_descent">stochastic gradient descent</a> nie powinna dobrze działać, ale praktyka pokazuje na odwrót. Ten mechanizm nie jest do końca całkowicie poznany, brakuje szerszej teorii, która mogłaby zasugerować w jaki sposób budować kolejne modele. W konsekwencji czego, budowanie sieci neuronowych jest zajęciem często empirycznym.</p>
<p>Mamy także do czynienia z innym poziomem rozumienia sieci neuronowych, że nie do konca jestesmy w stanie w jednożnaczy sposób ustalić dlaczego dana konkretna sieć neuronowa podjęła takie a takie decyzje. Jak to się stało, że z obrazka, który przedstawia kolor zielony, ma jeszcze inne kolory i jakieś proste kształty, sieć neuronowa doszła do tego, że to jest obraz przedstawiający kwiat. I w tej ostatniej kwestii pojawia się wiele badań jak akademickich tak i badań, które w jakiś tam sposób związane z firmą. I tutaj jest kilka takich nurtów. Jeden nurt, to wizualizacja.</p>
<p>Sieć neuronowa uczy się rozpoznawać obiekty na obrazie poprzez filtry, które wykrywają pewne wzorce i te filtry do pewnego stopnia można zwizualizować, zinterpretować za wykrycie jakiego wzorca ten filtr odpowiada. I w taki sposób można się dowiedzieć, że w dolnej warstwie sieci neuronowej realizują <a href="https://en.wikipedia.org/wiki/Gabor_filter">filtry Gabora</a> i są odpowiedzialne za znajdowanie prostych kształtów. Innym ciekawym nurtem jest zapożyczenie narzędzi z <a href="https://deepmind.com/blog/cognitive-psychology/">psychologii kognitywnej</a> do tego by badać sieci neuronowej.</p>
<figure id="attachment_559" aria-describedby="caption-attachment-559" style="width: 771px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg"><img decoding="async" class="size-full wp-image-559" src="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg" alt="Przykłady co wpływa na decyzji DeeNetwork" width="771" height="241" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna.jpg 771w, https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna-300x94.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/08/psychologia_kognitywna-768x240.jpg 768w" sizes="(max-width: 771px) 100vw, 771px" /></a><figcaption id="caption-attachment-559" class="wp-caption-text">Przykłady co wpływa na decyzji DeepNetwork</figcaption></figure>
<p>I w ten sposób można określić pewne tendencje, która ma sieć neuronowa. Czyli, na przykład, sieć neuronowa kieruje się bardziej kształtem obiektu niż kolorem obiektu do tego żeby rozpoznać dany obiekt.</p>
<p>Są także inne metody które próbują w języku naturalnym wyjaśnić taką sieć neuronową. Żeby to zilustrować, wróćmy do Visual Question Sign zadaje pytanie “co się znajduje po prawej stronie od mojego laptopa”, i taka sieć neuronowa patrzy na obrazek, patrzy czy to pytanie i mi odpowiada na to pytanie, i wtedy się pyta “dlaczego doszła do takich a takich wniosków ” i wówczas ta sieć neuronowa próbuję się wytłumaczyć, tak jak człowiek to robi.</p>
<p>Jak ty mnie zapytasz, dlaczego podjełem taką decyzje, to próbuje ten cały proces decyzyjny Ci przedstawić w postaci języka naturalnego. Tak samo tutaj jest kierunek badań, który próbuje stworzyć sieci neuronowe, które same się wyjaśniają dlaczego doszło do takiego a takiego rozwiązania.</p>
<p><b>Zapytam Cię jeszcze o jedną poradę, tym razem dla młodszego pokolenia. Którzy teraz są na studiach, albo skończyły je i zastanawiają się co robić dalej. Co możesz im doradzić? Ewentualnie zdradź kilka wskazówek, jak taki młody człowiek może zacząć pracować w DeepMind?</b></p>
<p>W mojej historii studia doktoranckie były bardzo ważnym okresem w życiu, ogólnie studia były bardzo ważnym okresem w życiu. Myślę, że w czasie studiów warto jest chłonąć wiedzę z wielu różnych dziedzin. Na kierunkach ścisłych także warto nabrać pewnych umiejętności, są to rzeczy, które stają się później ważne, aby móc inspirować, przekonywać inne osoby do pewnych projektów, do pewnych idei.</p>
<p>Myślę, że bardzo ważne jest także aby balansować teorie z praktyką. Z jednej strony teoria jest bardzo istotna, nie zmienia się ona tak często jak inne rzeczy i poprzez nią budujemy pewny warsztat kognitywny, dzięki któremu jesteśmy w stanie zrozumieć inne bardziej konkretne rzeczy.</p>
<p>Z drugiej strony warto wzmacniać tą wiedzę teoretyczną jakąś praktyką lub różnymi eksperymentami w taki sposób, aby ta teoria była bardziej namacalna. Szczególnie jeżeli chodzi o uczenie maszynowe, starałbym każdą wiedzę teoretyczną wzmocnić jakimś argumentem empirycznym, czyli po prostu stworzenie implementacji pewnej rzeczy, która nas interesuje.</p>
<p>Jeżeli chodzi o firmę, to nie skusiłabym się na budowaniu swojego CV pod konkretną firmę. Jak ktoś teraz zaczyna studia, to prawdopodobnie je skończy za jakieś 5 lat, może później, jeżeli zdecyduje się na studia doktoranckie i ten rynek może się zmienić. Ale wydaje mi się że jest ważne by w pewnym okresie swojego życia stać się osobą, która ma unikalne umiejętności, które są także cenione na rynku pracy, i jeżeli tak się stanie, to firmy same zaczną się zgłaszać po taką osobę.</p>
<p>Osobiście polecam wyjazdy na dobre uczelnie zagraniczne lub do dobrych firm, często zagranicznych, na praktyki. I takie wyjazdy otworzyły mi oczy na pewne dziedziny wiedzy, które wcześniej były mi obce, a stały się kluczowe w mojej karierze.</p>
<p>Także warto uczestniczyć w programach mentorskich, jeżeli takie programy są dla studenta dostępne.</p>
<p><b>Czyli tak nieco w skrócie mieć otwarte oczy, umysł, być przygotowanym na wyzwania i iść do przodu.</b></p>
<p>Dokładnie, trzeba być dzielnym, odważnym.</p>
<p><b>Czego mogę Tobie życzyć? </b></p>
<p>Zbudowania AI <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<p><b>W takim razie życzę Ci zbudowania AI. A na jakim poziomie, porównywalnym do ludzi czy wyższym?</b></p>
<p>A myślę, że niekoniecznie musimy myśleć w takich kategoriach. Być może zbudowanie AI, które w jakiś tam sposób jest komplementarne do ludzi czyli uzupełnia nas w jakiś tam sposób.</p>
<p><b>Czyli taki pomocnik, który robi za nas te rzeczy, które niekoniecznie ludzie lubią robić, a my skupiamy się na najbardziej ciekawych elementach tego życia.</b></p>
<p>Tak, ale to także pomaga w rzeczach które lubimy robić. Pomaga nam w badaniach naukowych albo w eksploracji kosmosu.</p>
<p><b>Tam gdzie faktycznie mózg ludzki nie jest najlepszym jak liczenie.</b></p>
<p>Na przykład. Albo dostęp do wiedzy. To jest tak, że teraz wiedzy jest bardzo dużo, teoretycznie mamy do niej dostęp, ale nie mamy dostępu do tej wiedzy naraz, w jednym momencie. Więc taka sztuczna inteligencja, która ma ten dostęp i potrafi odfiltrować te rzeczy, które dla nas są istotne i w odpowiedni sposób wnioskować. Może nam pozostawić ostateczną decyzje, ale zasugerować pewne rzeczy.</p>
<p><b>Rozmawialiśmy z Tobą prawie godzinę, ale nadal widać, że sztuczna inteligencja ukrywa w sobie bardzo dużo różnych wątków. Życzę Tobie żeby udało się zrealizować to co planujesz. A jak można z Tobą skontaktować w razie zainteresowania?</b></p>
<p>Można się ze mną skontaktować tradycyjnie, czyli mailem. Można wysłać maila obecnie na mateuszmalinowskiai [małpka] gmail.com. Jeżeli ktoś jest zainteresowany moimi publikacjami, to można je znaleźć albo na <a href="http://mateuszmalinowski.com/">mojej stronie internetowej</a>, albo na <a href="https://scholar.google.co.uk/citations?user=IqJ3zskAAAAJ&amp;hl=en">Google Scholar</a> czy <a href="https://www.linkedin.com/in/mateuszmalinowski/">Linkedin</a>.</p>
<p><b>Dziękuję, Mateusz bardzo za Twój czas i chęć podzielenia się swoim doświadczeniem. </b></p>
<p>Także dziękuję za rozmowę.</p>
<hr />
<p>Duża dawka wiedzy? Być może część poruszonych tematów dla Ciebie była trochę trudna i zawierała skróty czy inne nieznana terminologia.</p>
<p>Mateusz jest pasjonatem swego dzieła, dlatego myślę, że jeszcze wiele dokonań jest jeszcze przed nim. Po naszej rozmowie zastanawiałem się nad tym, o ile my jesteśmy architektami swego losu. Czasem może się wydawać, że pracować w firmie jak DeepMind jest kosmicznie trudno. <span class="hiddenSuggestion">N</span>a przykładzie z Mateuszem, można zobaczyć, że wystarczy konsekwentnie robić swoje. Dlatego życzę Ci, osiągać swoje cele również skutecznie, jak to robi Mateusz.</p>
<p>Dziękuję za wszystkie informację zwrotne. Przypominam, że możesz kontaktować się ze mną przez dowolny wygodny kanał dla Ciebie: <a href="https://twitter.com/biznes_mysli">twitter</a>, <a href="https://www.facebook.com/biznesmysli/">facebook</a>, <a href="https://www.linkedin.com/in/vladimiralekseichenko">linkedin</a>, strona kontaktu na <a href="http://biznesmysli.pl/kontakt/">biznesmysli.pl</a>.</p>
<p>Mam dobrą nowość dla Ciebie. W tym roku <a href="https://developers.google.com/events/gdd-europe/">Google Developers Day Europe</a> będzie zorganizowany w Krakowie 5-6 września. To jest ciekawe wydarzenie dla osób które interesują się technologiami rozwijanymi przez Google. Osobiście bilet kupiłem już kilka misięcy temu (mówię dlatego, żeby pokazać ważność dla mnie tego wydarzenia), ale dzięki współpracy z Google mam do rozdania trzy bilety dla najbardziej chętnych.  Przypomnę, że wartość takiego biletu jest 250 dolarów.</p>
<figure id="attachment_560" aria-describedby="caption-attachment-560" style="width: 800px" class="wp-caption aligncenter"><a href="https://www.facebook.com/groups/dataworkshop"><img decoding="async" class="size-full wp-image-560" src="https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02.png" alt="Google Developers Day Europe" width="800" height="829" srcset="https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02.png 800w, https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02-290x300.png 290w, https://biznesmysli.pl/wp-content/uploads/2017/08/GDD02-768x796.png 768w" sizes="(max-width: 800px) 100vw, 800px" /></a><figcaption id="caption-attachment-560" class="wp-caption-text">Google Developers Day Europe</figcaption></figure>
<p>Chcesz dostać takie bilet za darmo? A może chcesz się spotkać z ludźmi z Google, które rozwijają innowacyjne produkty (będzie również sporo osób z Doliny Krzemowej)? A możliwie chcesz ze mną porozmawiać osobiście?</p>
<ol>
<li>Dołącz się do grupy <a href="https://www.facebook.com/groups/dataworkshop/">DataWorkshop</a> na Facebook.</li>
<li>Udostępnij baner <a href="https://developers.google.com/events/gdd-europe/">GDD Europe</a> ze swoim komentarzem, dlaczego chcesz pójść na konferencje.</li>
<li>Zaangażuj również swoich znajomych i może się okażę, że pójdziecie razem.</li>
</ol>
<p>Masz na to 3 dni. Następnie, w czwartek z rano (31 sierpnia), wybiorę 3 najbardziej wartościowe powody (wg. mojej skromnej opinii) i skontaktuję się z tymi osobami przez wiadomość prywatną i do końca czwartku będę oczekiwał na informację zwrotną od wybranych osób.</p>
<p>Również będę na tym wydarzeniu, więc jeżeli wybierasz się, proszę daj mi o tym znać.</p>
<p>Dziękuję Ci bardzo za Twój czas, Twoją energię i chęć do rozwoju.</p>
<p>Życzę wszystkiego dobrego i do usłyszenia.</p><p>Artykuł <a href="https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/">Naukowiec Computer Vision z DeepMind &#8211; Mateusz Malinowski</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/naukowiec-computer-vision-deepmind-mateusz-malinowski/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
	</channel>
</rss>
