<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Google &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/tag/google/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/tag/google/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Fri, 30 Apr 2021 07:23:57 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>Google &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/tag/google/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Chmura Krajowa &#8211; sztuczna inteligencja i wykorzystanie danych w biznesie</title>
		<link>https://biznesmysli.pl/chmura-krajowa-sztuczna-inteligencja-w-biznesie/</link>
					<comments>https://biznesmysli.pl/chmura-krajowa-sztuczna-inteligencja-w-biznesie/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 19 Apr 2021 10:17:14 +0000</pubDate>
				<category><![CDATA[Biznes]]></category>
		<category><![CDATA[Podcast]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[biznes]]></category>
		<category><![CDATA[Chmura]]></category>
		<category><![CDATA[cloud]]></category>
		<category><![CDATA[DataScience]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Google Cloud]]></category>
		<category><![CDATA[MachineLearning]]></category>
		<category><![CDATA[UczenieMaszynowe]]></category>
		<guid isPermaLink="false">https://biznesmysli.pl/?p=5442</guid>

					<description><![CDATA[<p>Zaczynamy drugi sezon podcastu o sztucznej inteligencji i wykorzystaniu danych w biznesie! 2 sezon zaczął się trochę później, m.in. dlatego, że uruchomiliśmy w ramach DataWorkshop taką inicjatywę jak DWthon &#8211; hack outside the box, która pochłonęła więcej czasu. Zaraz Ci opowiem, o co chodzi, bo w tej inicjatywie też może być wartość dodana dla Ciebie.&#160; DWthon to jest taka 5-dniowa inicjatywa, która pozwoliła osobom początkującym w ML lub nawet osobom, które wcześniej nie programowały, zobaczyć na własne oczy moc narzędzia o nazwie uczenie maszynowe. W praktyce to oznacza, że możesz przeżyć &#8222;na własnej skórze&#8221; co to oznacza osiągać 80% wartości przy 20% wysiłku, czyli robić mniej, a dostawać więcej. To nie jest żadne oszustwo, tylko tzw. smart working (inteligentna praca). Ponad 1500 osób wzięło udział w tej inicjatywie.&#160; Taka krótka historia. Podczas urlopu przyszła świadomość, że warto wchodzić już na zupełnie inny poziom działania niż dotychczas, bo człowiek musi się rozwijać i pewne etapy już udało się osiągnąć.&#160; Wytłumaczę, o co mi chodzi w tym zdaniu. W pierwszych naszych bezpłatnych inicjatywach próbowaliśmy pokazać jak skonfigurować środowisko lokalne i to jest wiedza przydatna, ale skończyło się na czymś innym. Bardziej zajmowaliśmy się tym, jak zainstalować biblioteczkę A czy B na laptopie niż ML. Generalnie rzecz biorąc to nie jest taka trywialna rzecz i tego można się nauczyć, ale to jest bardziej na temat tzw. DevOps niż ML.&#160; Rozważaliśmy na ten temat i zaczęliśmy przechodzić w kierunku Google Colab. To jest takie środowisko, które udostępnia Google bezpłatnie. To środowisko ma wiele zalet, ale praktyka też pokazała, że nie gwarantuje, że środowisko będzie identyczne, tzn. przynajmniej w naszym przypadku. Jak uruchomiliśmy to przy większej liczbie uczestników (około 5000 testów mniej więcej było zrobione), to okazało się, że człowiek mógł zgubić się w którymś momencie, a Ty nie masz tam dostępu, nie możesz mu pomóc i to podejście też nie było najlepsze. Rozważałem sobie, co możemy zrobić dalej i też porównywaliśmy jak to robimy w naszych płatnych kursach, które robimy w ramach DataWorkshop. Tam mamy gotowe środowisko z góry zainstalowane i cała konfiguracja nie jest taka trywialna. Ona potrzebuje dużo energii, żeby to zrobić, ale bardzo fajnie się sprawdza i tam przynajmniej pod kątem konfiguracji bibliotek w ogóle nie ma żadnych kłopotów, bo wszyscy mają w 100% identyczne środowisko. Pomyśleliśmy sobie &#8211; a co jeżeli zrobić właśnie tak dla inicjatyw, które teraz robimy na większą skalę? Tylko tutaj pojawia się takie wyzwanie, bo co to oznacza? To oznacza, że np. tysiąc albo kilka tysięcy osób jednocześnie będzie zalogowanych. To już brzmi jako całkiem fajne wyzwanie, nad którym warto byłoby się pochylić, tym bardziej, że po urlopie jest troszkę więcej energii na bardziej szalone pomysły. W końcu weszliśmy w to, żeby to zrobić. Dużo eksperymentowaliśmy i udało się to zrobić. Wynikiem tego działania było to, że równolegle mogło się zalogować tyle osób ile było dostępnych (czyli ponad tysiąc). Każdy miał swój własny serwerek, na którym mógł takie rzeczy wykonywać.&#160; Więc bardzo się cieszę, że udało się ten pułap przeskoczyć, wykonać kolejny krok. Myślę, że kolejną poprzeczkę trzeba teraz podnieść, np. 100 tys. lub 1 mln osób równolegle, które się zalogują. Nie wiem gdzie tyle osób znajdziemy, ale nad tym też pracujemy.&#160; Zastosowanie chmury Dlaczego w ogóle o tym wszystkim mówię? Tak się składa, że mimo tego, że słowo &#8222;chmura&#8221; raczej jest znanym słowem. Myślę, że dla Ciebie też jest znanym, bo skoro słuchasz Biznes Myśli, to raczej obiło Ci się to o uszy. Natomiast pytanie: czy ja to stosuję, to jednak jest duża różnica, prawda? Osobiście z chmurą jestem związany ponad 7 lat. Najpierw to był Amazon przez dobrych kilka lat, a potem przeszedł na Google Cloud i to mi bardzo się spodobało. Google Cloud akurat daje takie możliwości, kiedy więcej czasu masz na to, aby zająć się tzw. biznesem, a zdecydowanie mniej czasu potrzebujesz na różne konfiguracje. Jest takie poczucie, że kiedy to wszystko konfigurujesz to te klocki są fajnie zgrane ze sobą, że one się łączą. Podchodzisz do tego jak do klocków lego, np. wkładasz, dostajesz itd. Kubernetes Kolejna rzecz, ta inicjatywa o której wspomniałem &#8211; my tam pod spodem używamy tzw. Kubernetes. To z jednej strony open source, ale z drugiej strony, żeby go odpowiednio administrować (sam Kubernetes, nie mówię o konfiguracji na wyższym poziomie), to trzeba się postarać. Z jednej strony możesz zainstalować to nawet na serwer pod biurkiem, tylko wtedy potrzebujesz armii ludzi o odpowiednich kwalifikacjach (zwykle są w dużym deficycie) i koszty, które to generują. Więc to sprawia, że w tej chwili, jeżeli masz wybór, aby robić wszystko samodzielnie albo skorzystać z skonfigurowanych środowisk w chmurach to odpowiedź staje się oczywista. Na temat chmury wprost nie było jeszcze ani jednego odcinka na Biznes Myśli, bo dla mnie jest to już taka oczywistość. Po prostu to działa, my to używamy i właściwie człowiek się zastanawia o czym tutaj można mówić. Natomiast jak robiłem sobie retrospekcję to uświadomiłem, że zwykle takie oczywiste rzeczy, czasem lepiej omówić dodatkowo, bo to może mieć znacznie większą wartość dodaną dla Ciebie niż tylko mówienie o tematach bardziej złożonych, czasem nawet bardziej abstrakcyjnych, które wykonuje np. DeepMind, bo też nie zawsze możesz to zastosować. Stąd taka decyzja, żeby w drugim sezonie przejść przez pewne tematy, które dotkną to co możesz wykorzystać wprost i dostać tego wartość dodaną.&#160; Kolejna rzecz jest taka, że od 14 kwietnia w roku 2021 r. Google Cloud będzie również Data Center w Polsce. Dotychczas najbliższe to była Finlandia albo Niemcy. Teraz uruchamia się Data Center w Polsce i nie można było przegapić tego wydarzenia, bo to jest dość ważne dla firm, które prowadzą biznes z Polski. Dlatego też zaprosiłem człowieka z firmy, który jest mocno związany z tym co się dzieje teraz, żeby więcej się dowiedzieć. Ale również to jest człowiek, który zajmuje się nie tylko serwerami chmurą, ale bardziej wykorzystuje te serwery, aby rozpędzać AI albo ML. O chmurze i wykorzystaniu danych w biznesie z Jakubem Kułakiem Dzisiejszym gościem jest Jakub Kułak, AI Head w Chmurze Krajowej. Dzisiejszy odcinek będzie właśnie na temat chmury, o tym co to oznacza na dzień dzisiejszy. Jak może pomóc Ci w zbieraniu danych, w obróbce danych i też oczywiście użycie ML, AI w łatwiejszy sposób. Na końcu też będą bardzo fajne przykłady, które pokażą Ci, jak w łatwy sposób możesz zacząć używać już AI, ML już dzisiaj. Cześć Kuba! Przedstaw się kim jesteś, czym się zajmujesz i gdzie mieszkasz. Cześć Vladimir. Dzięki za zaproszenie do podcastu. Jestem Kuba. Z branżą IT jestem związany od prawie 20 lat. Kiedyś jako programista, architekt, teraz jako menedżer dbający o dobór odpowiednich technologii w projektach, o klientów i przede wszystkim specjalistów z moich zespołów. Aktualnie pracuję jako szef zespołu kompetencyjnego Data AI w Chmurze Krajowej, a co do mieszkania to po kilku latach w różnych miejscach na świecie, mieszkam aktualnie w Warszawie i póki co nie planuję żadnych zmian. Czym jest chmura i jaką niesie wartość dla biznesu? Dzisiaj będziemy mówić o chmurze i żeby lepiej to było zrozumiałe dla wszystkich, najpierw spróbujmy to zdefiniować: czym jest chmura? Uważam, że nazwa &#8222;chmura&#8221; nie jest zbyt wdzięczna, ponieważ mimo, że rozwiązania chmurowe istnieją już prawie dwie dekady, to cały czas trzeba te definicje tłumaczyć i rozwijać. Natomiast spodziewając się takiego pytania po raz kolejny, postanowiłem tym razem poszukać trochę i zaskoczyć Ciebie oraz słuchaczy małym rysem historycznym &#8211; jednym spośród wielu,&#160; który chociaż trochę mnie przekonał. Historia technologii cloud Otóż dekady temu, jeszcze w XX w. (podejrzewam, że lata 80-te, 90-te) rysunki techniczne, diagramy (np. schematy sieciowe) wykorzystywały taki kształt dymku (nieregularny, przypominający chmurkę) do przedstawienia sieci zewnętrznej do której łączył się użytkownik, co było reprezentowane przez osobę przed monitorem &#8211; i taki piorun między użytkownikiem, a dymkiem. Z biegiem czasu ten dymek coraz bardziej przypominał chmurkę i w ten oto taki naturalny sposób, usługi zdalne spoza naszej sieci stały się usługami w chmurze. Czym jest chmura? Natomiast wracając do pytania i definicji, chmura to zestaw serwerów, infrastruktura, zestaw specjalnego oprogramowania i różnych usług dostępnych z serwerowni, zlokalizowanych gdzieś poza naszą własną siecią. Jeżeli jest to chmura publiczna tzn., że korzystać z niej może każdy kto jest zainteresowany i może za nią zapłacić. Na początku (mniej więcej 15 lat temu) usługi te ograniczały się najpierw do hostingu, ewentualnie udostępniania mocy obliczeniowej. Dzisiaj (zwłaszcza w przypadku chmur publicznych) to już setki różnych usług, dzięki którym można korzystać z najnowszych technologii (w tym sztucznej inteligencji) i superkomputerów do obróbki danych, bez konieczności martwienia się o serwery aplikacyjne, hardware, który to wszystko obsługuje, poprawki bezpieczeństwa, aktualizacje, backupy, powodzie itd. Na pewno o tych szczegółach jeszcze będziemy sobie dzisiaj rozmawiać. Tak, dokładnie. Właśnie mówi się, że pojęcie technologiczne, firma, już nie dotyczy tylko sektora IT, ale przenika właściwie w różnych kierunkach. Taki przykład można na szybko znaleźć &#8211; np. w Rosji jest taka franczyza pizzeria Dodo i oni mają 250 pracowników IT &#8211; developerów, programistów.&#160; Dość mocna jest w tym wypadku wykorzystywana chmura także. Część osób pyta: ale po co, przecież jesteście pizzerią? Po co Wam tyle programistów? Oni odpowiadają, że oni nie są pizzerią, tylko firmą technologiczną.&#160; Teraz IT przenika w różne kierunku (przemysł, rolnictwo). Pytanie do Ciebie jest takie: czy Twoje doświadczenie potwierdza ten trend? Być może też masz pod ręką jakiś takie fajny, nieoczywisty, przykład jako dowód tego trendu? Z pizzerią bardzo fajny przykład. Z mojej perspektywy biznes to biznes. Jest wiele cech, które łączą praktycznie wszystkie sektory, branże. Wszystko zawsze można zrobić z głową. Zresztą wydaje mi się, że do tego trochę nawiązuje trochę też nazwa Twojego podcastu Biznes Myśli. Wszędzie, gdzie wymagane są decyzje, najpierw trzeba zdefiniować problem, a dopiero później można próbować podejmować decyzje. Takie próby zawsze można wspierać za pomocą danych, które są odpowiednio zbierane, przetwarzane i prezentowane.&#160; Wszędzie gdzie zadania są powtarzalne, bez względu na branżę, można je optymalizować za pomocą lepszej technologii czy algorytmów. Wszędzie, gdzie polegamy na ludzkich zmysłach, możemy zaprząc do pracy usługi tzw. kognitywne, które zastępują oczy kamerami, uszy mikrofonami i najczęściej wykazują się wielokrotnie większą precyzją niż my sami. Nieoczywiste zastosowanie chmury i uczenia maszynowego Gdybyś w pytaniu nie wspomniał o rolnictwie i przemyśle to pewnie szybko nie przyszłyby mi do głowy, bo Chmura Krajowa współpracuje z firmami z obydwu sektorów. Niejako naturalne jest już dla mnie to jak bardzo zaawansowane rozwiązania wykorzystuje się tam już od naprawdę wielu lat. Przykładowo, w kontekście rolnictwa, na podstawie analizy zdjęć satelitarnych, modele sztucznej inteligencji, machine learning są w stanie precyzyjnie określić miejsca i czas potencjalnego zalania przez wylewającą rzekę, topniejący lód czy kilka innych, mniej oczywistych powodów. Algorytmy są w stanie rozpoznawać uprawy na polach (łącznie z ich chorobami) i tym samym przyspieszyć wprowadzenie środków zapobiegawczych, ratując zbiory i często zmniejszając straty rolników. Kolejny przykład już nie z naszego rodzimego podwórka akurat (chociaż z drugiej strony nie wykluczam też) to samobieżne maszyny rolnicze, które prawie jak nowoczesne odkurzacze w naszych domach, same planują sobie trasę sadzenia, wycinki, kopania czy nawożenia pola). Produkcja &#8211; przede wszystkim kontrola jakości w produkcji. Tam się wykorzystuje algorytmy sztucznej inteligencji, np. do super szybkiego identyfikowania usterek i braków w produktach czy półproduktach. Dzięki różnym czujnikom chemicznym, akustycznym, naprężeniowym i wielu innych, w zależności od tego co się produkuje &#8211; i oczywiście kamerom, bo taka inspekcja wizyjna jest dużym działem tej sztucznej inteligencji w produkcji.&#160; Bankowość i inne instytucje finansowe korzystają już teraz z bardzo zaawansowanych technologii do badania ryzyka kredytowego oraz wyszukiwania anomalii w logach z operacji wskazujących na potencjalne nadużycia przez swoich nieuczciwych klientów.&#160; Widzimy, że każdą branżę da się usprawnić, przede wszystkim trafnie definiując problem i wdrażając później odpowiednie rozwiązania oparte o dane lub odpowiednio dopasowane algorytmy. Cyfrowa transformacja biznesu Porozmawiajmy teraz właśnie o takim procesie przejścia. Mówi się, że właśnie ten proces przechodzenia od świata rzeczywistego do cyfrowego jest nazywany digitalizacją (ang. digitalisation) albo cyfryzacją. Tutaj taka krótka historia, która wydarzyła się niedawno. Miesiąc temu, w Krakowie palił się budynek Archiwum. Sporo dokumentów zostało zniszczonych i w sumie nie do końca jeszcze wiadomo, ile dokładnie. Niestety były to dość często dokumenty w jednej kopii. Owszem, czasem gdzieś można je odzyskać. Też niestety nie ma w większości przypadków ich cyfrowej wersji. To jest dość dziwny przypadek,...</p>
<p>Artykuł <a href="https://biznesmysli.pl/chmura-krajowa-sztuczna-inteligencja-w-biznesie/">Chmura Krajowa &#8211; sztuczna inteligencja i wykorzystanie danych w biznesie</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-ZA9a5M wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-98-chmura-krajowa-sztuczna-inteligenc" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/0CbTEvD8HyRYtVDSd95qxL" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p><strong>Zaczynamy drugi sezon podcastu o sztucznej inteligencji i wykorzystaniu danych w biznesie! </strong></p>



<p></p>



<span id="more-5442"></span>



<p><strong><br />2 sezon zaczął się  trochę później, m.in. dlatego, że uruchomiliśmy w ramach <a href="https://dataworkshop.eu/">DataWorkshop</a> taką inicjatywę jak <em><a href="https://dataworkshop.eu/dwthon">DWthon &#8211; hack outside the box</a></em>, która pochłonęła więcej czasu. Zaraz Ci opowiem, o co chodzi, bo w tej inicjatywie też może być wartość dodana dla Ciebie.&nbsp;</strong></p>



<p><strong>DWthon to jest taka 5-dniowa inicjatywa, która pozwoliła osobom początkującym w ML lub nawet osobom, które wcześniej nie programowały, zobaczyć na własne oczy moc narzędzia o nazwie uczenie maszynowe. W praktyce to oznacza, że możesz przeżyć &#8222;na własnej skórze&#8221; co to oznacza osiągać 80% wartości przy 20% wysiłku, czyli robić mniej, a dostawać więcej. To nie jest żadne oszustwo, tylko tzw. <em>smart working </em>(inteligentna praca). Ponad 1500 osób wzięło udział w tej inicjatywie.&nbsp;</strong></p>



<p></p>



<p><strong>Taka krótka historia. Podczas urlopu przyszła świadomość, że warto wchodzić już na zupełnie inny poziom działania niż dotychczas, bo człowiek musi się rozwijać i pewne etapy już udało się osiągnąć.&nbsp;</strong></p>



<p></p>



<p><strong>Wytłumaczę, o co mi chodzi w tym zdaniu. W pierwszych naszych bezpłatnych inicjatywach próbowaliśmy pokazać jak skonfigurować środowisko lokalne i to jest wiedza przydatna, ale skończyło się na czymś innym. Bardziej zajmowaliśmy się tym, jak zainstalować biblioteczkę A czy B na laptopie niż ML. Generalnie rzecz biorąc to nie jest taka trywialna rzecz i tego można się nauczyć, ale to jest bardziej na temat tzw. DevOps niż ML.&nbsp;</strong></p>



<p></p>



<p><strong>Rozważaliśmy na ten temat i zaczęliśmy przechodzić w kierunku Google Colab. To jest takie środowisko, które udostępnia Google bezpłatnie. To środowisko ma wiele zalet, ale praktyka też pokazała, że nie gwarantuje, że środowisko będzie identyczne, tzn. przynajmniej w naszym przypadku. Jak uruchomiliśmy to przy większej liczbie uczestników (około 5000 testów mniej więcej było zrobione), to okazało się, że człowiek mógł zgubić się w którymś momencie, a Ty nie masz tam dostępu, nie możesz mu pomóc i to podejście też nie było najlepsze.</strong> </p>



<p><br /><br /></p>



<p><strong>Rozważałem sobie, co możemy zrobić dalej i też porównywaliśmy jak to robimy w naszych płatnych kursach, które robimy w ramach <a href="https://dataworkshop.eu/">DataWorkshop</a>. Tam mamy gotowe środowisko z góry zainstalowane i cała konfiguracja nie jest taka trywialna. Ona potrzebuje dużo energii, żeby to zrobić, ale bardzo fajnie się sprawdza i tam przynajmniej pod kątem konfiguracji bibliotek w ogóle nie ma żadnych kłopotów, bo wszyscy mają w 100% identyczne środowisko.</strong></p>



<p></p>



<p><strong> </strong></p>



<p><strong>Pomyśleliśmy sobie &#8211; a co jeżeli zrobić właśnie tak dla inicjatyw, które teraz robimy na większą skalę? Tylko tutaj pojawia się takie wyzwanie, bo co to oznacza? To oznacza, że np. tysiąc albo kilka tysięcy osób jednocześnie będzie zalogowanych. To już brzmi jako całkiem fajne wyzwanie, nad którym warto byłoby się pochylić, tym bardziej, że po urlopie jest troszkę więcej energii na bardziej szalone pomysły. W końcu weszliśmy w to, żeby to zrobić. Dużo eksperymentowaliśmy i udało się to zrobić. Wynikiem tego działania było to, że równolegle mogło się zalogować tyle osób ile było dostępnych (czyli ponad tysiąc). Każdy miał swój własny serwerek, na którym mógł takie rzeczy wykonywać.&nbsp;</strong></p>



<p></p>



<p><strong>Więc bardzo się cieszę, że udało się ten pułap przeskoczyć, wykonać kolejny krok. Myślę, że kolejną poprzeczkę trzeba teraz podnieść, np. 100 tys. lub 1 mln osób równolegle, które się zalogują. Nie wiem gdzie tyle osób znajdziemy, ale nad tym też pracujemy.&nbsp;</strong></p>



<p></p>



<h2 class="wp-block-heading" id="Zastosowanie-chmury">Zastosowanie chmury</h2>



<p></p>



<p>Dlaczego w ogóle o tym wszystkim mówię? Tak się składa, że mimo tego, że słowo &#8222;chmura&#8221; raczej jest znanym słowem. Myślę, że dla Ciebie też jest znanym, bo skoro słuchasz Biznes Myśli, to raczej obiło Ci się to o uszy. Natomiast pytanie: czy ja to stosuję, to jednak jest duża różnica, prawda? Osobiście z chmurą jestem związany ponad 7 lat. Najpierw to był Amazon przez dobrych kilka lat, a potem przeszedł na Google Cloud i to mi bardzo się spodobało. Google Cloud akurat daje takie możliwości, kiedy więcej czasu masz na to, aby zająć się tzw. biznesem, a zdecydowanie mniej czasu potrzebujesz na różne konfiguracje. Jest takie poczucie, że kiedy to wszystko konfigurujesz to te klocki są fajnie zgrane ze sobą, że one się łączą. Podchodzisz do tego jak do klocków lego, np. wkładasz, dostajesz itd. </p>



<p></p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img decoding="async" fetchpriority="high" src="https://media.giphy.com/media/n6mEMqAuYOQ8l8qcEE/giphy.gif" alt="" width="265" height="265"/><figcaption><a href="https://giphy.com/gifs/n6mEMqAuYOQ8l8qcEE">źródło:</a> giphy.com</figcaption></figure></div>



<h3 class="wp-block-heading">Kubernetes</h3>



<p></p>



<p><strong>Kolejna rzecz, ta inicjatywa o której wspomniałem &#8211; my tam pod spodem używamy tzw. Kubernetes. To z jednej strony <em>open source, </em>ale z drugiej strony, żeby go odpowiednio administrować (sam Kubernetes, nie mówię o konfiguracji na wyższym poziomie), to trzeba się postarać. Z jednej strony możesz zainstalować to nawet na serwer pod biurkiem, tylko wtedy potrzebujesz armii ludzi o odpowiednich kwalifikacjach (zwykle są w dużym deficycie) i koszty, które to generują. Więc to sprawia, że w tej chwili, jeżeli masz wybór, aby robić wszystko samodzielnie albo skorzystać z skonfigurowanych środowisk w chmurach to odpowiedź staje się oczywista.</strong></p>



<p></p>



<p><strong>Na temat chmury wprost nie było jeszcze ani jednego odcinka na Biznes Myśli, bo dla mnie jest to już taka oczywistość. Po prostu to działa, my to używamy i właściwie człowiek się zastanawia o czym tutaj można mówić. Natomiast jak robiłem sobie retrospekcję to uświadomiłem, że zwykle takie oczywiste rzeczy, czasem lepiej omówić dodatkowo, bo to może mieć znacznie większą wartość dodaną dla Ciebie niż tylko mówienie o tematach bardziej złożonych, czasem nawet bardziej abstrakcyjnych, <a href="https://biznesmysli.pl/deepmind-janusz-marecki/">które wykonuje np. <em>DeepMind</em></a><em>, </em>bo też nie zawsze możesz to zastosować. Stąd taka decyzja, żeby w drugim sezonie przejść przez pewne tematy, które dotkną to co możesz wykorzystać wprost i dostać tego wartość dodaną.&nbsp;</strong><br /></p>



<p><br /><strong>Kolejna rzecz jest taka, że od 14 kwietnia w roku 2021 r. Google Cloud będzie również Data Center w Polsce. Dotychczas najbliższe to była Finlandia albo Niemcy. Teraz uruchamia się Data Center w Polsce i nie można było przegapić tego wydarzenia, bo to jest dość ważne dla firm, które prowadzą biznes z Polski. Dlatego też zaprosiłem człowieka z firmy, który jest mocno związany z tym co się dzieje teraz, żeby więcej się dowiedzieć. Ale również to jest człowiek, który zajmuje się nie tylko serwerami chmurą, ale bardziej wykorzystuje te serwery, aby rozpędzać AI albo ML.</strong> </p>



<p><br /></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="What is Google Kubernetes Engine (GKE)?" width="960" height="540" src="https://www.youtube.com/embed/Rl5M1CzgEH4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p></p>



<h2 class="wp-block-heading"><br />O chmurze i wykorzystaniu danych w biznesie z Jakubem Kułakiem </h2>



<p></p>



<p><strong>Dzisiejszym gościem jest <a href="https://www.linkedin.com/in/jakubkulak/">Jakub Kułak</a>, AI Head w <a href="https://chmurakrajowa.pl/">Chmurze Krajowej</a>. Dzisiejszy odcinek będzie właśnie na temat chmury, o tym co to oznacza na dzień dzisiejszy. Jak może pomóc Ci w zbieraniu danych, w obróbce danych i też oczywiście użycie ML, AI w łatwiejszy sposób. Na końcu też będą bardzo fajne przykłady, które pokażą Ci, jak w łatwy sposób możesz zacząć używać już AI, ML już dzisiaj.</strong> </p>



<p></p>



<div class="wp-block-media-text alignwide is-stacked-on-mobile"><figure class="wp-block-media-text__media"></figure><div class="wp-block-media-text__content">
<p class="has-large-font-size"></p>
</div></div>



<p><strong>Cześć Kuba! Przedstaw się kim jesteś, czym się zajmujesz i gdzie mieszkasz.</strong></p>



<p>Cześć Vladimir. Dzięki za zaproszenie do podcastu. Jestem Kuba. Z branżą IT jestem związany od prawie 20 lat. Kiedyś jako programista, architekt, teraz jako menedżer dbający o dobór odpowiednich technologii w projektach, o klientów i przede wszystkim specjalistów z moich zespołów. Aktualnie pracuję jako szef zespołu kompetencyjnego Data AI w Chmurze Krajowej, a co do mieszkania to po kilku latach w różnych miejscach na świecie, mieszkam aktualnie w Warszawie i póki co nie planuję żadnych zmian.</p>



<p></p>



<h2 class="wp-block-heading">Czym jest chmura i jaką niesie wartość dla biznesu?</h2>



<p></p>



<p><strong>Dzisiaj będziemy mówić o chmurze i żeby lepiej to było zrozumiałe dla wszystkich, najpierw spróbujmy to zdefiniować: czym jest chmura?</strong></p>



<p>Uważam, że nazwa &#8222;chmura&#8221; nie jest zbyt wdzięczna, ponieważ mimo, że rozwiązania chmurowe istnieją już prawie dwie dekady, to cały czas trzeba te definicje tłumaczyć i rozwijać. Natomiast spodziewając się takiego pytania po raz kolejny, postanowiłem tym razem poszukać trochę i zaskoczyć Ciebie oraz słuchaczy małym rysem historycznym &#8211; jednym spośród wielu,&nbsp; który chociaż trochę mnie przekonał. </p>



<p></p>



<h3 class="wp-block-heading">Historia technologii cloud</h3>



<p></p>



<p>Otóż dekady temu, jeszcze w XX w. (podejrzewam, że lata 80-te, 90-te) rysunki techniczne, diagramy (np. schematy sieciowe) wykorzystywały taki kształt dymku (nieregularny, przypominający chmurkę) do przedstawienia sieci zewnętrznej do której łączył się użytkownik, co było reprezentowane przez osobę przed monitorem &#8211; i taki piorun między użytkownikiem, a dymkiem. Z biegiem czasu ten dymek coraz bardziej przypominał chmurkę i w ten oto taki naturalny sposób, usługi zdalne spoza naszej sieci stały się usługami w chmurze. </p>



<p></p>



<h3 class="wp-block-heading">Czym jest chmura?</h3>



<p></p>



<p>Natomiast wracając do pytania i definicji, chmura to zestaw serwerów, infrastruktura, zestaw specjalnego oprogramowania i różnych usług dostępnych z serwerowni, zlokalizowanych gdzieś poza naszą własną siecią. Jeżeli jest to chmura publiczna tzn., że korzystać z niej może każdy kto jest zainteresowany i może za nią zapłacić. Na początku (mniej więcej 15 lat temu) usługi te ograniczały się najpierw do hostingu, ewentualnie udostępniania mocy obliczeniowej. Dzisiaj (zwłaszcza w przypadku chmur publicznych) to już setki różnych usług, dzięki którym można korzystać z najnowszych technologii (w tym sztucznej inteligencji) i superkomputerów do obróbki danych, bez konieczności martwienia się o serwery aplikacyjne, hardware, który to wszystko obsługuje, poprawki bezpieczeństwa, aktualizacje, backupy, powodzie itd. Na pewno o tych szczegółach jeszcze będziemy sobie dzisiaj rozmawiać.</p>



<p></p>



<p><strong>Tak, dokładnie. Właśnie mówi się, że pojęcie technologiczne, firma, już nie dotyczy tylko sektora IT, ale przenika właściwie w różnych kierunkach. Taki przykład można na szybko znaleźć &#8211; np. w Rosji jest taka franczyza pizzeria Dodo i oni mają 250 pracowników IT &#8211; developerów, programistów.&nbsp;</strong></p>



<p></p>



<p><strong>Dość mocna jest w tym wypadku wykorzystywana chmura także. Część osób pyta: ale po co, przecież jesteście pizzerią? Po co Wam tyle programistów? Oni odpowiadają, że oni nie są pizzerią, tylko firmą technologiczną.&nbsp;</strong></p>



<p></p>



<p><strong>Teraz IT przenika w różne kierunku (przemysł, rolnictwo). Pytanie do Ciebie jest takie: czy Twoje doświadczenie potwierdza ten trend? Być może też masz pod ręką jakiś takie fajny, nieoczywisty, przykład jako dowód tego trendu?</strong></p>



<p></p>



<p>Z pizzerią bardzo fajny przykład. Z mojej perspektywy biznes to biznes. Jest wiele cech, które łączą praktycznie wszystkie sektory, branże. Wszystko zawsze można zrobić z głową. Zresztą wydaje mi się, że do tego trochę nawiązuje trochę też nazwa Twojego podcastu Biznes Myśli. Wszędzie, gdzie wymagane są decyzje, najpierw trzeba zdefiniować problem, a dopiero później można próbować podejmować decyzje. Takie próby zawsze można wspierać za pomocą danych, które są odpowiednio zbierane, przetwarzane i prezentowane.&nbsp;</p>



<p></p>



<p>Wszędzie gdzie zadania są powtarzalne, bez względu na branżę, można je optymalizować za pomocą lepszej technologii czy algorytmów. Wszędzie, gdzie polegamy na ludzkich zmysłach, możemy zaprząc do pracy usługi tzw. kognitywne, które zastępują oczy kamerami, uszy mikrofonami i najczęściej wykazują się wielokrotnie większą precyzją niż my sami. </p>



<p></p>



<h3 class="wp-block-heading">Nieoczywiste zastosowanie chmury i uczenia maszynowego</h3>



<p></p>



<p>Gdybyś w pytaniu nie wspomniał o rolnictwie i przemyśle to pewnie szybko nie przyszłyby mi do głowy, bo Chmura Krajowa współpracuje z firmami z obydwu sektorów. Niejako naturalne jest już dla mnie to jak bardzo zaawansowane rozwiązania wykorzystuje się tam już od naprawdę wielu lat. Przykładowo, w kontekście rolnictwa, na podstawie analizy zdjęć satelitarnych, modele sztucznej inteligencji, <em>machine learning </em>są w stanie precyzyjnie określić miejsca i czas potencjalnego zalania przez wylewającą rzekę, topniejący lód czy kilka innych, mniej oczywistych powodów. </p>



<p></p>



<p>Algorytmy są w stanie rozpoznawać uprawy na polach (łącznie z ich chorobami) i tym samym przyspieszyć wprowadzenie środków zapobiegawczych, ratując zbiory i często zmniejszając straty rolników. </p>



<p></p>



<p>Kolejny przykład już nie z naszego rodzimego podwórka akurat (chociaż z drugiej strony nie wykluczam też) to samobieżne maszyny rolnicze, które prawie jak nowoczesne odkurzacze w naszych domach, same planują sobie trasę sadzenia, wycinki, kopania czy nawożenia pola). Produkcja &#8211; przede wszystkim kontrola jakości w produkcji. Tam się wykorzystuje algorytmy sztucznej inteligencji, np. do super szybkiego identyfikowania usterek i braków w produktach czy półproduktach. Dzięki różnym czujnikom chemicznym, akustycznym, naprężeniowym i wielu innych, w zależności od tego co się produkuje &#8211; i oczywiście kamerom, bo taka inspekcja wizyjna jest dużym działem tej sztucznej inteligencji w produkcji.&nbsp;</p>



<p></p>



<p>Bankowość i inne instytucje finansowe korzystają już teraz z bardzo zaawansowanych technologii do badania ryzyka kredytowego oraz wyszukiwania anomalii w logach z operacji wskazujących na potencjalne nadużycia przez swoich nieuczciwych klientów.&nbsp;</p>



<p></p>



<p>Widzimy, że każdą branżę da się usprawnić, przede wszystkim trafnie definiując problem i wdrażając później odpowiednie rozwiązania oparte o dane lub odpowiednio dopasowane algorytmy.</p>



<p></p>



<h3 class="wp-block-heading">Cyfrowa transformacja biznesu </h3>



<p></p>



<p><strong>Porozmawiajmy teraz właśnie o takim procesie przejścia. Mówi się, że właśnie ten proces przechodzenia od świata rzeczywistego do cyfrowego jest nazywany digitalizacją (ang. digitalisation) albo cyfryzacją. </strong></p>



<p><strong><br /><br />Tutaj taka krótka historia, która wydarzyła się niedawno. Miesiąc temu, w Krakowie palił się budynek Archiwum. Sporo dokumentów zostało zniszczonych i w sumie nie do końca jeszcze wiadomo, ile dokładnie. Niestety były to dość często dokumenty w jednej kopii. Owszem, czasem gdzieś można je odzyskać. Też niestety nie ma w większości przypadków ich cyfrowej wersji. To jest dość dziwny przypadek, bo wydaje się, że akurat jeżeli chodzi o archiwum to cyfryzacja powinna być rzeczą numer jeden, powinna być wręcz standardem.&nbsp;</strong></p>



<p></p>



<p><strong>Czy w innych branżach też to już staje się na tyle oczywiste, że przejście w kierunku cyfryzacji, to jest ogromna wartość dodana? Nie tylko jak w tym przykładzie z Archiwum, bo w tym przypadku wydaje się, że nawet nie ma o czym dyskutować, ale też dla innych branż, które niekoniecznie mają taką oczywistą wartość dodaną tej cyfryzacji. Co o tym myślisz?</strong> </p>



<p></p>



<p>Myślę, że dla nas &#8211; osób związanych z technologią już od dawna, takie Archiwum jest tak oczywiste i to nawet niekoniecznie przy wykorzystaniu nowoczesnych technologii, tylko zwykłego skanera i zapisania tego gdzieś na dysku, ale niestety w wielu przypadkach się to cały czas nie dzieje. Co do tej wartości dodanej i pytania to chyba padnie tu po raz pierwszy najbardziej popularna odpowiedź w IT czyli: &#8222;to zależy&#8221;. </p>



<p></p>



<h3 class="wp-block-heading">Korzyści wynikające z cyfryzacji biznesu </h3>



<p></p>



<p><strong>Cyfryzacja biznesu</strong> może dawać wiele różnych korzyści, w zależności od branży, o której rozmawiamy. Różne zastosowanie nowoczesnych technologii w zależności od branży, specyfiki biznesu. Co innego znaczy cyfryzacja firmy produkcyjnej, a co innego placówki pocztowej czy sądu, ze względu na specyfikę.&nbsp;</p>



<p></p>



<p>Gdybym jednak miał wyciągnąć taki wspólny mianownik to pewnie byłaby to możliwość odciążenia ludzi z realizacji najbardziej monotonnych, nudnych, może bardzo ciężkich fizycznie zadań, poprzez ich automatyzację. Tak, żeby pracownicy mogli skupić się na innych, często ważniejszych zadaniach, do których np. wcześniej brakowało personelu lub wymagają specjalistycznej wiedzy, której zakodowanie w algorytmach jest póki co trudne lub nawet niemożliwe.</p>



<p>&nbsp;</p>



<p>Dzięki cyfryzacji możemy korzystać z zaawansowanych narzędzi do analizy naszych dokumentów, danych, produktów, klientów, decyzji itd. Jak czegoś nie badamy, nie zbieramy danych to trudno wiarygodnie zmierzyć postęp. Część z nas to zna na pewno z testowania aplikacji, gdzie wprowadzając zmiany musimy wiedzieć jaki był stan przed, żeby wiedzieć potem jaki wpływ nasze poprawki miały na ogólną sytuację.&nbsp;</p>



<p></p>



<p>Natomiast cyfryzacja to bardzo szeroki termin, obejmujący wiele aspektów działania samej organizacji. Począwszy od uświadomienia sobie, jakie dane możemy zbierać i co nam mogą dać, aż po zmianę świadomości na taką, gdzie ludzie, pracownicy, zdają sobie sprawę czemu i jak powinny korzystać z tych danych. Swoje decyzje kierują lub w dużej mierze wspierają właśnie zbieraniem danych.</p>



<p></p>



<p>To wszystko aż do momentu powstania w firmie kultury, gdzie każdy myśli i kieruje się danymi czyli tzw. <em>data-driven organization &#8211; </em>najpierw osoby, potem zespoły, działy, aż do najbardziej zaawansowanej postaci, kiedy dostęp do danych (odpowiednio przygotowanych) mają już wszyscy i ma to pozytywny wpływ na działanie całej firmy. Natomiast temat tej dojrzałości był bardzo fajnie przedyskutowany w jednym z poprzednich odcinków Twojego podcastu, także to polecam.</p>



<p></p>



<p><strong>Tak, dzięki. Również <a href="https://biznesmysli.pl/data-driven-organisation/">polecam wrócić do data-driven</a> i jeszcze kilku innych odcinków na ten temat, bo o tym długo mówiliśmy.</strong> </p>



<p></p>



<h2 class="wp-block-heading">Czym jest Chmura Krajowa?</h2>



<p></p>



<p><strong>Cyfryzacja, chmura i to całe podejście to jest raczej taka rzecz, która już nie staje się opcją, tylko jest w pewnym sensie koniecznością w większości przypadków, bo po prostu ciężko będzie konkurować i być bardziej efektywnym nie wykorzystując nowej technologii. To jak kiedyś 100 lat wcześniej nie było mechanizacji i rolnictwo było głównie pracą ręczna w 100% , w tej chwili to już jest normalne, że jest traktor, który wykonuje większość rzeczy. Jest jedynie kilka osób lub nawet jedna, która to obsługuje, a czasem nawet już ta jedna osoba nie będzie potrzebna. To rozpędza się bardzo szybko.</strong></p>



<p></p>



<p><strong>Już wspomniałeś, że pracujesz w Chmurze Krajowej i sama fraza Chmura Krajowa brzmi patriotycznie. Co to oznacza w praktyce? Powiedz kilka słów o tym, czym jest Chmura Krajowa?&nbsp;</strong></p>



<p></p>



<p>To, że brzmi patriotycznie to oznacza tyle, że zostaliśmy założeni przez dwa podmioty krajowe i świadczymy usługi przede wszystkim na rynku polskim. Głównym celem naszych założycieli i pomysłodawców było stworzenie takiej platformy, która ułatwi i będzie stymulować rozwój polskich firm oraz administracji publicznej. Od początku istnienia trwały rozmowy i dyskusje Chmury Krajowej z największymi dostawcami chmur publicznych, żeby ich dostępność była jeszcze większa w naszym kraju, dzięki czemu wkrótce otwiera się region Google Cloud w Polsce.</p>



<p></p>



<p>Ważnym aspektem i celem od początku było też stworzenie organizacji, której usługi są w pełni zgodne i dostosowane do lokalnych regulacji, których w Polsce mamy bardzo dużo (zwłaszcza w sektorze finansowym), przez co nasze portfolio składa się z kompletu usług, dzięki którym klienci nie muszą zastanawiać się jak dostosować się do tych regulacji, a dostają odpowiednio dopasowany do nich produkt zgodny z tymi regulacjami, w tym nawet wsparcie w obsłudze prawnej. Zatrudniamy wiele osób, które mają doświadczenie biznesowe i techniczne zarówno na rynku prywatnym, jak i publicznym. Dzięki czemu znamy procedury i procesy na poszczególnych rynkach i możemy bardzo sprawnie wspierać te firmy i instytucje, zarówno z sektora prywatnego jak i publicznego.&nbsp;</p>



<p></p>



<p>Teraz po ponad dwóch latach istnienia widzimy, że jest coraz więcej klientów, którzy zastanawiają się bardziej kiedy i jak przechodzi się do chmury niż dopiero rozważających w ogóle taką drogę. </p>



<p></p>



<p><strong>Czyli nie ma już pytań &#8222;czy&#8221;, tylko &#8222;kiedy” i “jak&#8221;.</strong></p>



<p>Dokładnie tak. </p>



<p></p>



<h2 class="wp-block-heading">Bezpieczeństwo danych w Chmurze Krajowej</h2>



<p></p>



<p><strong>Przygotowując się do tego odcinka, też badałem, co się dzieje w Internecie ale też tak przy okazji pytałem znajomych, przedsiębiorców, prezesów, czy wiedzą coś na temat Chmury Krajowej. Padło pytanie na temat dostępu do danych.&nbsp;</strong></p>



<p></p>



<p><strong>Biorąc pod uwagę, że założycielem, udziałowcami w tym przypadku jest PKO BP i Polski Fundusz Rozwoju, co to znaczy w praktyce? Czy to oznacza dla firma X wchodzącej w tę współpracę, zapisującej wszystkie dane w chmurze? Kto ma wgląd w moje dane?&nbsp;</strong></p>



<p></p>



<p>Cieszę się, że się uśmiechamy obydwaj słysząc i wypowiadając te słowa. Jak już wspomniałem, Chmura Krajowa została stworzona z myślą o pełnej zgodności z regulacjami na naszym rynku. Już z tego w dużej mierze wynika, że dane firm, które przechowywane są na naszych serwerach są dostępne tylko i wyłącznie dla tych firm. Tutaj na poparcie tej tezy, nasze własne usługi, infrastruktura zostały zbudowane w oparciu o <em>Cloud Control Matrix</em> czyli frameworku budowania usług chmurowych od CSA czyli <em>Cloud Security Alliance</em>. </p>



<p></p>



<p>Nie będę wchodził tutaj w szczegóły, natomiast jest to framework, który wyróżnia wszystkie aspekty technologiczne, procesowe takich właśnie rozwiązań. Wszyscy najwięksi dostawcy usług chmurowych chwalą się posiadaniem takiego certyfikatu, który potwierdza zgodność (<em>CSA Star).</em>&nbsp;</p>



<p><br /><a href="https://www.google.com/url?q=https://chmurakrajowa.pl/uslugi-bezpieczenstwa/&amp;sa=D&amp;source=editors&amp;ust=1618823393547000&amp;usg=AOvVaw1Xd0EIyYj9pI-b1Unm7f7O">Na bezpieczeństwo w Chmurze Krajowej</a> (w tym danych) składa się także zespół <em>Security Operation Center, </em>który czuwa nad usługami 24 godziny na dobę, 7 dni w tygodniu. Oraz ponad 30 osób w samym zespole <em>Security</em>, które łącznie mają setki lat doświadczeń w pracy z wrażliwymi danymi i budowaniem bezpiecznych środowisk przechowywania i przetwarzania danych.</p>



<p></p>



<h2 class="wp-block-heading">Google Cloud Data Center w Warszawie</h2>



<p></p>



<p><strong>14 kwietnia Google Cloud otwiera Data Center również w Polsce, w Warszawie. Fizycznie nie do końca wiadomo gdzie, ale gdzieś w Warszawie lub w okolicach. Nawet dobrze, że nie wiadomo, będzie bardziej bezpieczne. </strong></p>



<p><strong><br /><br />Dlaczego to jest dobra wiadomość? Tak się składa, że my jako <a href="https://dataworkshop.eu/">DataWorkshop</a> też używamy Google Cloud już od dawna. Właśnie był taki dylemat, gdzie jest najbliżej Polski. Przez moment byliśmy bardziej w Belgii, teraz bardziej Finlandia i teraz jak będzie w Polsce to brzmi, że pewnie będziemy robić niedługo przeprowadzkę, albo przynajmniej część serwerów będzie stała tutaj. Ciekaw jestem, jak te wszystkie rzeczy się połączyły? Rozumiem, że Chmura Krajowa i współpraca, która się wytoczyła, przyspieszyła pewne procesy, prawda? I Google Cloud się tu pojawia, tak?</strong></p>



<p></p>



<p>Tak jest. To bardzo bliska współpraca naszego zarządu, zarządu Google Cloud też miała tutaj duży, kluczowy wpływ na to, że ten region został stworzony i się otwiera rzeczywiście wkrótce. Będzie się nazywał <em>europe-central2</em>, to też już nie jest tajemnicą. Można to sobie zobaczyć w kalkulatorze cen Google Cloud, gdzie on już się od jakiegoś czasu pojawia. Do tej pory najbliżej były regiony Oslo, Frankfurt.&nbsp;</p>



<p></p>



<p>Na to, że jest to bardzo dobra wiadomość, składa się wiele aspektów. Po pierwsze, te najbardziej techniczne, najpierw liczymy przede wszystkim zagadnienie regionalizacji danych czyli możliwość takiego skonfigurowania wybranych usług, żeby nasze dane były przetwarzane i przechowywane tylko na terenie wybranego regionu. Dla wielu przedsiębiorstw jest to ważne zagadnienie, że dane nie opuszczają granic naszego kraju, chociaż w większości przypadków myślę, że wynika to bardziej z preferencji, może nawet sentymentu, ponieważ nie ma w Polsce przepisów, które wskazują, że dane muszą być przetwarzane na terenie kraju. Nawet RODO definiuje, że można przetwarzać dane osobowe poza granicami, ale oczywiście na terenie Europejskiego Obszaru Gospodarczego. To jeszcze nie ma oczywiście zastosowania do infrastruktury krytycznej kraju, ale to już zupełnie inna działka.</p>



<p></p>



<p>Kolejnym zagadnieniem technicznym jest czas połączeń, bo dla prawie 75% naszego kraju, każde pojedyncze połączenie z systemami Google Cloud, przyspieszy o około 15 ms. W przypadku jednej, hostowanej w chmurze strony, może nie ma to dużego znaczenia, ale w przypadku przetwarzania dużych wolumenów danych i systemów czasu rzeczywistego np. modeli machine learning, które bieżąco analizują setki tysięcy rekordów danych na sekundę i szybciej, taka zmiana jest już bardzo znacząca.&nbsp;</p>



<p></p>



<p>Są tam jeszcze aspekty rozwoju biznesu w Polsce, poprzez wzrost świadomości naszych przedsiębiorców, która na pewno spowoduje znaczny wzrost miejsc pracy w technologii i całym IT, ponieważ mamy w Polsce świetnych specjalistów, zarówno z kraju jak i zagranicy, choć już teraz jest ich za mało. Pojawiają się takie głosy, że Polska ma szansę stać się takim lokalnym <em>cloud value</em>, który będzie &#8222;ściągać&#8221; do siebie dodatkowo specjalistów od naszych sąsiadów z każdej strony. Ściągać w cudzysłowiu, bo teraz praca zdalna głównie (zwłaszcza w tej branży) &#8211; myślę, że pozostanie z nami już na bardzo długo.&nbsp;</p>



<p></p>



<p>Pozostałe powody to już te stricte, standardowe zalety po prostu przejścia do rozwiązań chmurowych. <br /><br /><br /> </p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="What is a Data Center?" width="960" height="540" src="https://www.youtube.com/embed/Amow8BJm5Go?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading"><br /><br />Jakie usługi Google Cloud będą dostępne już w regionie Polska?</h2>



<p></p>



<p><strong>Wiemy, że w zależności od tego, jaki jest region to czasem nie wszystko jest dostępne. Jako przykład &#8211; w Finlandii nie ma TPU dostępnego i trzeba tutaj bardziej w kierunku zachodnim (jeżeli chodzi o Europę) szukać. Natomiast takie podstawowe zwykle są jak <em>Kubernetes, CVM </em>itd. Jak to będzie na starcie w regionie Polska i czy są takie jakieś usługi albo limity, o których warto już wiedzieć teraz?</strong></p>



<p></p>



<p>Mogę powiedzieć, że będzie to taki pełnoprawny, regularny region Google Cloud. Nie różniący się znacznie w stosunku do tych, które są ostatnio uruchamiane. Najważniejsze usługi do uruchamiania aplikacji, przetwarzania analizy danych będą na pewno dostępne. Wspomniane TPU póki co nie będzie. Także jeżeli jest to niezbędne to trzeba będzie wybrać sobie narazie inny, konkretny region w którym te możliwości mamy. Natomiast nie jest to nic dziwnego, bo tak jak mówisz właśnie, tego typu jednostki pojawiają się tylko w wybranych regionach. A poza tym dostajemy w pełni wyposażony, standardowy region Google Cloud. </p>



<p></p>



<h2 class="wp-block-heading">Jakie usługi Google Cloud usprawnią naszą pracę z danymi?</h2>



<p></p>



<p><strong>Fajnie, przejdźmy teraz do takich konkretnych <em>use case&#8217;ów, </em>bo tak rozmawialiśmy przed nagraniem, że czasem, jak człowiek siedzi w swoim “pudle technologicznym”, to nie zawsze zdaje sobie sprawę, że pewne rzeczy nie są aż tak oczywiste. </strong></p>



<p><strong><br /><br />Ja na przykład na dzień dzisiejszy ciężko mogę sobie wyobrazić życie bez chmur. Można sobie wyobrazić, ale to będzie tak naprawdę robienie wszystkiego, aby utrzymać to rozwiązanie niż dawanie wartości ludziom. Chciałem to pytanie zadać w taki sposób, że w Google Cloud jest w tej chwili mnóstwo różnych usług, rozwiązań. Jeżeli ktoś tam wchodzi po raz pierwszy to prawdopodobnie nie wie od czego zacząć. Więc fajnie byłoby wykorzystać Twoje doświadczenie, które masz, a masz duże i zastosować taki filtr, na co warto byłoby zwrócić uwagę i o jakich usługach na pewno warto pomyśleć, jeżeli mówimy w kontekście danych. Czyli nie chodzi o sam machine learning jako tako, tylko dane.</strong></p>



<p></p>



<p>W pierwszym zdaniu wymienię kilka usług i potem opowiem kilka zdań o każdej z nich. Najważniejsze to <em>Cloud Data Storage</em> czyli przechowywanie danych, <em>Pop/Sub </em>(system do zarządzania kolejką), <em>BigQuery</em> (flagowa hurtownia danych), <em>Cloud Data Fusion</em> (narzędzie do budowania <em>pipeline)</em>.&nbsp;</p>



<p></p>



<p>To są te, które tak powinny zostać na początek w głowie, natomiast szacuję, że takich komponentów jest prawdopodobnie około 50, które są wykorzystywane do pracy z danymi i w zależności od tego, co z tymi danymi robimy, wykorzystujemy inne narzędzie.&nbsp;</p>



<p></p>



<p><em>Cloud Data Storage </em>(tzw. CDS) to jest miejsce przechowywanie danych. To jest w chmurze, w której możemy tworzyć zbiory danych, plików o dowolnej zawartości, w których korzystamy również ze struktury folderów. Dane są oczywiście szyfrowane na kilku poziomach. W zależności od tego, jak często chcemy korzystać z tych danych, możemy dobrać odpowiedni model przechowywania, który pozwala nam na mniejsze koszty przechowywania plików, z których np. mniej korzystamy.&nbsp;</p>



<p></p>



<p></p>



<p>Konfiguracja pozwala nam zdecydować, w którym regionie nasze dane mają być składowane oraz to kto i w jaki sposób może mieć do nich dostęp. Przechowując dane w postaci plików csv lub innych popularnych formatów do przechowywania danych (tj. json) mamy w chmurze ogromne możliwości integracji z innymi narzędziami. To jest w ogóle przewaga rozwiązań chmurowych, że te komponenty, które są niesamowite same w sobie, mają też świetne możliwości integracji między sobą. Także podłączenie takiego <em>Cloud Storage</em> jako źródła danych do innego systemu, najczęściej ogranicza się po prostu do wyklikania tego i da się to zrobić dosłownie w kilka minut.&nbsp;</p>



<p></p>



<p><em>Pop/Sub</em>, o którym to serwer kolejki komunikatów czyli w uproszczeniu &#8211; alternatywa np. do <em>RabbitMQ</em>. Rozwiązanie typu serwer less, co znaczy, że jest w pełni utrzymywane przez Google. Nie musimy się martwić ani o warstwę serwera aplikacyjnego ani sprzętowego. Ani o to, żeby ten serwer miał backupy czy wgrane najnowsze poprawki bezpieczeństwa. Po prostu tworzymy instancję takiej usługi i z niej korzystamy.</p>



<p></p>



<p><em>BigQuery</em>, o którym mógłbym opowiadać naprawdę długo to flagowy komponent Google Cloud, właśnie do pracy z danymi. Myślisz dane w GSP, widzisz <em>BigQuery</em> &#8211; takie często widzę konotacje. W streszczeniu potęgę i najważniejsze cechy <em>BigQuery &#8211; </em>jest to skalowalna hurtownia danych. Pozwala na pracę z ogromnymi zbiorami (mowa tutaj o petabajtach i setkach petabajtów), korzystając z języka SQL.&nbsp;</p>



<p></p>



<p>Złożone zapytania sql-owe na tak dużych danych, wykonują się błyskawicznie. Rzędy wielkości szybciej niż w typowych rozwiązaniach, np. relacyjnych baz danych. Ogromną zaletą <em>BigQuery</em> jak i większości komponentów jest model w jakim rozliczamy się za korzystanie, czyli <em>pay-per-use</em>, w którym płacimy tylko za dane, które przechowujemy i czas kiedy je przetwarzamy. Co daje możliwości na naprawdę spore optymalizacje kosztowe wykorzystania naszej hurtowni danych.&nbsp;<br />Wiele rozwiązań do pracy z <em>IoT</em> to też bardzo popularny temat. </p>



<p></p>



<p>Jest to rozwiązanie, które się nazywa <em>IoT Core, </em>które pozwala na podłączanie, zarządzanie dziesiątkami tysięcy różnych rozwiązań. To są wszystko łatwe i fajne rozwiązania, natomiast to też nie jest tak, że nie znając Google Cloud w ogóle, otworzymy stronę i po 30 minutach będziemy mieli gotowe rozwiązanie. Tego też trzeba się oczywiście nauczyć, jednak czas poświęcony na zrozumienie tych komponentów, które mają przyjemny, graficzny interfejs, w porównaniu do czasu i lat doświadczenia, które musielibyśmy mieć stawiając odpowiednie serwery, zagłębiając się w protokoły komunikacji urządzeń <em>IoT,</em> musieli zadbać o skalowanie takich rozwiązań jest po prostu nieporównywalnie. I to jest właśnie ogromna moc tych rozwiązań chmurach. </p>



<p></p>



<p><strong>Zgadzam się w 100% z tym, co powiedziałeś. W Data Workshop też używamy wszystkich tych komponentów, które były i właściwie dzięki temu bardzo szybko się skalujemy w różnych naszych, wewnętrznych produktach. Tu np. jeżeli chodzi też o <em>BigQuery </em>to tak naprawdę może mieć normalną bazę danych (np. <em>MySQL), </em>ale <em>BigQuery</em> jest bardzo mocno zoptymalizowana pod ten <em>Big</em> czyli terabajty albo nawet znacznie więcej.&nbsp;</strong></p>



<p></p>



<p><strong>To jest takie normalne, <em>BigQuery </em>jest bardzo fajnie zoptymalizowane i wyniki widzimy bardzo szybko. Też fajna jest ta możliwość podpinania <em>BigQuery</em> w różnych miejscach, chociażby robienie dashboardów. Sprawna, fajna rzecz, którą aż chce się użyć. Właśnie kontynuując tą myśl dalej, bo przed ML zwykle mówimy o tym, żeby dane odpowiednio przygotować i to jest taka rola <em>data engineering </em>i jest taki słynny skrót w tej branży ETL czyli <em>Extract, Transform, Load. </em>Co to jest? Dlaczego to jest ważne i właśnie na ile chmura ułatwia życie, kiedy chcemy wykonać takie procesy przygotowawcze danych?</strong></p>



<p></p>



<p>Super, ponieważ czuję, że w poprzednim pytaniu tam jeszcze zabrakło miejsca na naprawdę wiele fajnych komponentów, z których można korzystać. ETL podejrzewam, że większość słuchaczy dobrze kojarzy skrót tak jak rozwinąłeś. Proces pobierania danych z jednego lub więcej źródeł danych, przygotowanie lub raczej dostosowanie tych danych do naszych potrzeb i załadowanie ich później do np. hurtowni danych w celu dalej analizy lub raportowania. Jest to część standardowej terminologii procesów, systemów i osób zajmujących się danymi.&nbsp;<br />Takie przygotowanie czy dostosowanie, składać może się z wielu kroków, różnych transformacji, od oczyszczenia danych z błędnych wpisów, poprawieniu ich, o bogaceniu, o inne dane, sprowadzeniu do wspólnego formatu, który jest później akceptowany przez naszą hurtownię i kolejne narzędzia, z których korzystamy. </p>



<p></p>



<p>Google Cloud dostarcza wiele komponentów do budowania takich <em>pipeline&#8217;ów, </em>które adresują kolejne kroki ETL-a. Tu chyba skupię się przede wszystkim na Cloud Data Fusion, które pozwala dokładnie na budowanie takich <em>pipeline&#8217;ów, </em>nawet za pomocą interfejsu graficznego <em>Drag&amp;Drop &#8211; </em>także niekoniecznie pisania kodu. </p>



<p></p>



<p>Oczywiście są też zwolennicy budowania takich rozwiązań za pomocą kodu, co oczywiście ma też swoje zalety i dla takich zastosowań Google Cloud posiada też rozwiązanie tj. <em>Dataflow</em>, które pod spodem ma <em>Apache Beam </em>co dla doświadczonych inżynierów danych jest już wystarczającą informacją.</p>



<p></p>



<p><em>Cloud Data Fusion </em>posiada setki, a na pewno dziesiątki gotowych integracji z popularnymi systemami zewnętrznymi, które pozwalają na szybką integrację i szybkie pobranie danych. Oprócz tego setki wbudowanych, najpopularniejszych danych &#8211; usuwanie duplikatów, usuwanie anomalii, dzięki czemu w bardzo krótkim czasie jesteśmy w stanie zbudowanie <em>pipeline</em>, który na bieżąco będzie przetwarzał gigabajty danych z różnych systemów.&nbsp;</p>



<p></p>



<p>Pod maską <em>Cloud Data Fusion</em> uruchamiane <em>pipeline</em> są na klastrach <em>Dataproc </em>(to jest inny komponent). Jest to serwerowa wersja <em>Hadoopa</em> w Chmurze. <em>Data Fusion </em>automatycznie zmienia przepływy zaprojektowane w interfejsie graficznym na tzw. job&#8217;y <em>Dataproca, </em>które są potem uruchamiane. Istnieje oczywiście możliwość skorzystania z <em>MapReduce</em> lub <em>Apache Spark </em>&#8211; to już takie szczegóły, nie wiem czy warto w tym momencie wchodzić w to.</p>



<p></p>



<p>Kolejnym narzędziem jest np. <em>Dataprep.</em> Bardzo wygodny interfejs graficzny do takiego &#8222;przygotowywania&#8221; danych, ponieważ to narzędzie pozwala też na eksplorację wizualną każdego rodzaju danych, czy to posiadających zdefiniowaną strukturę i relację czy też nie. Dane są albo mogą być przygotowane do dalszych etapów ETL lub po prostu eksplorowane przez analityków w poszukiwaniu zależności i innych ciekawostek.&nbsp;</p>



<p></p>



<p>Google Cloud w swoim portfolio posiada również w pełni darmowe narzędzie do budowania raportów i dashboardów. Mowa tutaj o <em>Data Studio</em>, o którym też wspomniałeś, które jest połączeniem możliwości arkusza kalkulacyjnego z programem do budowania prezentacji. Jeżeli ktoś porusza się w miarę biegle w takich dwóch narzędziach to bez problemu zbuduje ładne raporty i dashboardy korzystając z <em>Data Studio, </em>które swoją drogą też ma setki konektorów do zewnętrznych źródeł, m.in. oczywiście <em>BigQuery</em>, pliki z Google Cloud Storage, Google Analytics ale też naturalnie do MySQL, PostgreSQL, Kaggle, różnych API facebookowych, Twitter itd. Dla zaawansowanych zastosowań <em>business intelligence, </em>Google posiada od ponad roku w portfolio <em>Looker&#8217;a</em>. </p>



<p></p>



<p>Jest to rozwiązanie klasy <em>enterprise business intelligence </em>i o jego możliwościach można by zrobić całą serię odcinków.&nbsp;<br />Także podsumowując, Google posiada rozwiązania na każde zagadnienie. Na każdą część ETL&#8217;a, na każdą część systemu pracy z danymi. Od momentu pobrania przez przechowanie, archiwizację, przetwarzanie, eksplorację i analizę, aż po raportowanie i najczęściej dodatkowo wykorzystanie elementów machine learning<em> </em>w analizie i predykcjach. </p>



<p></p>



<h2 class="wp-block-heading">Jak wykorzystując dostępne usługi Machine Learning, można osiągnąć dużo, robiąc niewiele? </h2>



<p></p>



<p><strong>No właśnie, machine learning teraz możemy o tym porozmawiać, już jako kolejny krok taki logiczny, bo wspomnieliśmy o tym, że bardzo łatwo można dane przechowywać, potem odczytywać, przetwarzać i potem już jak je przetworzymy to aż się prosi, aby zastosować ML albo tzw. AI. Tutaj też warto powiedzieć, że jak zarówno Google albo inni więksi gracze chmurowi np. Microsoft, robią duże zaangażowanie albo takie mocne postępy w kierunku tzw. after ML czyli kiedy robiąc małym wysiłkiem, można osiągnąć fajne rzeczy. </strong></p>



<p></p>



<p><strong>Co prawda też warto zrozumieć jak do tego podejść i żeby to było nie teoretyczne to fajnie jakbyś podał tak z 3 albo więcej przykładów, żeby to brzmiało tak bardziej praktycznie. Jak wykorzystując dostępne usługi ML&#8217;owe, można osiągnąć dużo, robiąc niewiele?</strong></p>



<p></p>



<p>Zacznę od tego, że na Google Cloud składają się w tym momencie dziesiątki różnych rozwiązań związanych z ML czy sztuczną inteligencją. To jest właśnie moim zdaniem jedna z największych zalet korzystania z rozwiązań chmur publicznych. Dostajemy dostęp do gotowych, budowanych miesiącami i latami rozwiązań modeli uczenia maszynowego, uczonych w odpowiedni sposób przez osoby z bardzo dużym doświadczeniem, które są już wgrane na serwer produkcyjny, mają wystawione restowe API, mają skonfigurowane logowanie błędów. </p>



<p></p>



<p>Wyskalują się nam do takich rozmiarów, jakich tylko będziemy potrzebować w ciągu minut, a nawet sekund. Sam dobrze wiesz ile pracy jest potrzeba, żeby przygotować odpowiednie modele, zbudować system do ich testowanie, wdrażania kolejnych wersji, zaimplementować do tego API, logowanie, skalowanie itd. To jest wiele złożonych tematów, a w chmurze mamy możliwość podjęcia karty kredytowej, stworzenia projektu i w ciągu kilka minut możemy z takiego rozwiązania zacząć korzystać.&nbsp;</p>



<p></p>



<p>Te rozwiązania sztucznej inteligencji są w Google dostępne na trzech poziomach. Powiedzmy takiej samodzielności albo gotowości do użycia. Nawiązując do pytania, skupię się do tych takich gdzie wiedza dotycząca znajomości algorytmów, wiedza dotycząca ML, niekoniecznie jest wręcz wymagana. Także ten pierwszy poziom to są takie gotowe modele, które dostajemy już razem z API. Tu nie potrzebujemy praktycznie żadnej wiedzy na temat machine learning, żeby zacząć korzystać z takich rozwiązań. </p>



<p></p>



<p>Przykładem jest tutaj np. <em>Cloud Vision API</em>, które po wgraniu zdjęcia, taguje je nam odpowiednimi etykietami. Szacuję, że tych etykiet jest około 40-50 tysięcy różnych, tj. niebo, samochód, komputer, osoba, krawat, książka, ulica, pies itd. Każde zdjęcie może być otagowane wieloma etykietami i przy każdej takiej etykiecie dostajemy procentową pewność algorytmu co do tej etykiety, czyli wgrywamy zdjęcie samochodu, dostajemy informacje &#8211; samochód z pewnością 99,5%. Z <em>Cloud Vision API </em>możemy korzystać albo przez stronę www, albo przez API z dowolnej aplikacji, którą tworzymy, albo z linii poleceń, jeżeli np. potrzebujemy jednorazowo otagować sobie zdjęcia. <em>Cloud Vision API </em>rozpoznaje też znane miejsca na świecie, budynki i inne popularne lokalizacje. </p>



<p></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Image recognition and classification with Cloud Vision" width="960" height="540" src="https://www.youtube.com/embed/BN8aO0LULyw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p></p>



<p>Rozpoznaje logotypy marek, rozpoznaje ludzkie twarze tzn. opisując je około 30 parametrami i starając się zdefiniować jakie uczucia, miny widać na tych zdjęciach. Naprawdę niesamowite. Każdy może teraz od ręki pobawić się wpisując w wyszukiwarce <em>Cloud Vision API Demo. </em>Tam pojawia się strona, gdzie można przeciągnąć zdjęcie i zobaczymy jakie są wyniki. Odpowiedź można obejrzeć sobie też w JSON na potrzeby późniejszej budowania aplikacji. Wgrywając zdjęcie samochodu, dostaniemy pewnie około 50 etykiet, czasem nawet z marką. Z takimi szczegółowymi elementami jak wydech, lusterko, hak itd. Naprawdę bardzo polecam sprawdzić jak to działa.&nbsp;</p>



<p></p>



<p>Dla branży <em>retail</em> interesujące może być to, że korzystając z tego rozwiązania można wybierać produkty podobne do siebie wizualnie. Tego typu zastosowania widziałem.&nbsp;</p>



<p></p>



<p>Innymi przykładami takich rozwiązań gotowych do użycia od ręki, są rozwiązania <em>speech-to-text</em> i <em>text-to-speach, </em>bazujące na modelach googlowych. Rozwiązania pozwalają na syntezę tekstu, również w języku polskim oraz w drugą stronę, na transkrypcję audio co może mieć bardzo szerokie zastosowania np. w biurach obsługi klienta, gdzie mamy nagrania rozmów z naszymi klientami i chcemy potem zrobić transkrypcję, żeby np. badać albo szukać różnych fraz, zwrotów w tych transkrypcjach. Użytkownicy telefonów z androidem oraz użytkownicy Google Home korzystają z tych rozwiązań praktycznie codziennie.&nbsp;</p>



<p></p>



<p>Bardzo ważnym, często badanym przez naszych klientów rozwiązaniem jest <em>Dialogflow. </em>Jest to narzędzie do budowania chatbotów i voicebotów. Rozwiązań, które możemy podpiąć pod numer telefonu lub do okienka czatu na naszej stronie internetowej i naprawdę w bardzo prosty sposób zaprogramować scenariusz rozmowy takiego chatbota. Pod maską <em>Dialogflow</em> działa wiele googlowych rozwiązań machine learning, w tym rozpoznawania mowy, intencji użytkownika, odpowiednie dopasowanie odpowiedzi i jeszcze kilka.&nbsp;</p>



<p></p>



<p>Ciekawe jest tutaj to, że nie tworzymy drzewiastych struktur rozmowy tylko definiujemy intencje i konteksty. Podczas rozmowy istnieje możliwość przepinania się między intencjami i nawet powrotu do wcześniejszych wątków, o których była mowa, dzięki czemu taka rozmowa jest bardziej naturalna. </p>



<p>Konfiguracja takiego chatbota to dosłownie opisanie, wypisanie pytań, zwrotów, którymi może posługiwać się użytkownik oraz odpowiednia liczba parafraz. Na jedno pytanie jak stworzymy 5-10 parafraz to jest już naprawdę bardzo dużo, wystarczająco, żeby później <em>Dialogflow</em> poradził sobie z kolejnymi parafrazami, nawet jeżeli użytkownik zmienia kolejność wyrazów w zdaniu. W takich wypowiedziach użytkownika można zaznaczyć, że oczekujemy np. liczby lub daty, albo nazwy, albo jakiegoś innego ciągu znaków zdefiniowanej listy.&nbsp;</p>



<p></p>



<p>Oczywiście istnieje możliwość integracji <em>Dialogflow </em>z bazą danych tak, żeby <em>Dialogflow</em> mógł odpowiedzieć nam np. informacją o cenie naszego produkty czy czasach odjazdu autobusów, w zależności od tego po co budujemy takiego chatbota. Do zbudowania takiego inteligentnego chatbota, korzystając z <em>Dialogflow</em>, naprawdę niepotrzebna jest żadna wiedza dotycząca sztucznej inteligencji, a w godzinę, dwie można zrobić bardzo fajne demo, które robi wrażenie na większości klientów.</p>



<p></p>



<p>Oprócz tego typu rozwiązań, istnieją też już rozwiązania typu <em>custom</em>, to już konkretnie dla inżynierów ML, specjalistów, którzy mają dużo bardziej sprecyzowane wymagania i potrzeby. Tam znajdziemy m.in. te wirtualne maszyny z GPU czy TPU, o których mówiliśmy wcześniej. </p>



<p></p>



<h2 class="wp-block-heading">Jak rozpocząć pracę w chmurze?</h2>



<p></p>



<p><strong>Właśnie tak słucham tego, co opowiadasz i przypominam, że celem tego odcinka było to, żeby powiedzieć, jakie możliwości mamy w tej chwili w zasięgu ręki i tak naprawdę niewiele trzeba byłoby zrobić, żeby zacząć tego używać. Z drugiej strony, jednak nie jest to jeszcze takie powszechne. Stąd pojawia się takie dość naturalne pytanie: jak myślisz, co hamuje polskie przedsiębiorstwa, żeby zacząć używać w pełni chmury? Czy to chodzi o brak wiedzy, śmiałości, kompetencji czy jeszcze coś? Czy da się to jakoś zmienić?&nbsp;</strong><br /></p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2021/04/start.gif" alt="" class="wp-image-5479" width="346" height="251"/><figcaption>źródło: giphy.com</figcaption></figure></div>



<p><br />Na podstawie wielu ankiet, jeszcze większej liczby spotkań z klientami bezpośrednio, z naszą firmą, ale też na większych wydarzeniach, przejawiają się zawsze te same zagadnienia w kontekście blokerów, hamulców przejścia do chmury. Wszystkie oscylują wokół braku wiedzy, braku edukacji, doświadczenia. Także po pierwsze nieznajomość rozwiązań, bo firmy po prostu nie wiedzą co można znaleźć w chmurze, oprócz magazynu do przechowywania danych i przykładowo jednostek mocy obliczeniowej. Google Cloud od kilku lat, regularnie dokłada kolejne, coraz bardziej sprofilowane, konkretne usługi do swojego portfolio.&nbsp;</p>



<p></p>



<p>W tym momencie znajomość tych wszystkich usług, nawet dla osób pracujących bezpośrednio z chmurą jest sporym wyzwaniem. Także przedsiębiorstwa nie wiedząc co jest chmurze albo nie zdając sobie nawet sprawy co może być w chmurze, nie wyciągają rąk, często nie wykazują chęci, nie mają czasu na rozpoznawanie samodzielne takich rozwiązań. Nieznajomość przepisów, trochę strach przed nowym, często firmy zadają takie pytania dotyczące właśnie bezpieczeństwa, o którym rozmawialiśmy: czy to jest na pewno bezpieczne, dlaczego jest bezpieczne, jakie mechanizmy powodują i kto będzie miał dostęp do tych danych?&nbsp;</p>



<p></p>



<p>Ważnym zagadnieniem jest często strach przed kosztami, natomiast który znowu wynika z niewiedzy, nieznajomości modeli rozliczeniowych w chmurze. Ludzi nie wiedzą dokładnie jak sprawdzić jakie będą koszty utrzymania ich systemów tym bardziej, że po pierwsze nie wiedzą jak te systemy będą mogły wyglądać w chmurze. Nie zawsze przeniesienie tej infrastruktury, którą mamy u siebie 1:1 do chmury jest dobrym rozwiązaniem. Także często warto skorzystać z konkretnych komponentów, tylko trzeba o nich dobrze wiedzieć.</p>



<p></p>



<p>Kolejny powód, znów dotyczący bezpośrednio edukacji to brak kompetencji technicznych pracowników firm. Nawet jeżeli w firmie istnieją chęci migracji lub przynajmniej rozpoznania technologii chmurowych na szczeblach menedżerskich to często jest niwelowane, blokowane lub negowane przez osoby, do których takie pytania trafiają, które przy natłoku prac codziennych nie są w stanie poświęcić wystarczająco czasu na rozpoznanie, poczytanie i taką obiektywną opinię na temat takich rozwiązań.&nbsp;</p>



<p></p>



<p>Blokerem często (już nie bezpośrednio związanym z edukacją i wiedzą) są koszty poniesione na aktualną infrastrukturę. Słyszymy od CEO czy CTO: &#8222;Ale ja wydałam rok temu X zł na to rozwiązane i nie dostanę teraz więcej pieniędzy na kolejne migracje i zmiany&#8221;.&nbsp;</p>



<p></p>



<p>To takie główne powody, które przychodzą mi do głowy i rzeczywiście pojawiają się regularnie w rozmowach z naszymi klientami. Zresztą wiesz, w wielu kwestiach i tutaj rozwiązaniem jest po prostu edukacja, edukacja, edukacja. A to, że Google otwiera region w Polsce spowoduje, że wszystkie powyższe tematy zostaną dobrze zaadresowane. </p>



<p></p>



<h2 class="wp-block-heading">Rozwój technologii chmury w Polsce</h2>



<p></p>



<p><strong>Właśnie, to może doprecyzujmy. Jak Google Cloud, tak i Microsoft inwestuje duże środki, aby wybudować Data Center w Polsce. Tak jak wspomnieliśmy, Google właśnie otwiera się w kwietniu. Pewnie następny będzie Microsoft. Co to oznacza dla Polski? Czy te rzeczy się dzieją? Na co to może dokładnie wpłynąć i jakie my możemy zaobserwować zmiany po tych działaniach?</strong></p>



<p></p>



<p>Duże środki, o których mówisz to oczywiście nie są tylko pieniądze na budowanie fizycznej infrastruktury, ale również na działania marketingowe oraz na szkolenia i zachęcanie przedsiębiorstw do korzystania z chmury. W dużej mierze właśnie na adresowanie tych hamulców, o których mówiłem przed chwilą. Działania te mają na celu znaczne podniesienie świadomości i wiedzy na temat rozwiązań i przede wszystkim samego bezpieczeństwo chmur publicznych. Zarówno dla osób technicznych, jak i tych bardziej odpowiedzialnych za decyzje biznesowe.&nbsp;</p>



<p></p>



<p>Część tych środków będzie przeznaczona na kredyty, które pozwolą na nieodpłatne albo mocno sponsorowane korzystanie z usług chmurowych, np. na czas budowy <em>Proof of Concept </em>albo przy zobowiązaniu się klienta na przeniesienie części workload&#8217;ów do chmury na jakieś inne benefity. To na pewno zwiększy liczbę chętnych do skorzystania, spróbowania i zapoznania się z możliwościami rozwiązań chmurowych.&nbsp;</p>



<p></p>



<p>Szkolenia z rozwiązań chmurowych, które będą i są już w sumie realizowane, również przez Chmurę Krajową, dla odbiorców na różnym poziomie zaangażowania technologicznego, czyli tych osób, które będą bezpośrednio pracować z chmurą i tych, które będą znały jej potencjał, żeby odpowiednio dopasować produkt czy strategię. Na pewno wpłyną bardzo pozytywnie na wiedzę i rozpoznawalność tych usług chmurowych wśród firm.</p>



<p></p>



<p>Regiony i akcje marketingowe Google i Microsoft będą miały również znaczący wpływ na wzrost liczby interesujących miejsc pracy w polskich firmach &#8211; ale na pewno też w samym Google i Microsoft. Więcej ludzi pracujących w chmurach i z chmurami to na pewno więce ciekawych pomysłów i dalej kolejne biznesy oparte o nowoczesne, fajne technologie i rozwiązania chmurowe.&nbsp;</p>



<p></p>



<p>Także podsumowując, widzimy dużo plusów na wielu różnych płaszczyznach i już nie możemy się doczekać. </p>



<p></p>



<p><strong>Czyli brzmi to w tej chwili tak, że część osób wie, że chmura jest, ale z drugiej strony brakuje takich argumentów przekonujących, że w miarę łatwym sposobem można osiągnąć więcej. To oznacza, że to myślenie trochę musi się zmienić i nie chodzi tylko o wirtualną instancję, tylko masz tam szereg usług, które bardzo pięknie ze sobą się integrują. Tutaj mogę potwierdzić, że Google Cloud pod tym względem jest bardzo fajnie przemyślane, dlatego też używamy od dobrych kilku lat w <a href="https://dataworkshop.eu/">DataWorkshop</a>, bo pięknie to się integruje. Tam czuć, że ktoś dba o to i pięknie zszywa te wszystkie usługi, które są dostępne.</strong></p>



<p><strong><br /></strong></p>



<p>Zdecydowanie, ja nie mogę się nie zgodzić. Sam jestem użytkownikiem i polecam wszystkim. Natomiast trzeba na początku zdefiniować cały problem, który chcemy rozwiązać i potem znaleźć odpowiednie rozwiązanie między naprawdę wieloma fajnymi komponentami Google Cloud.</p>



<p><br /></p>



<p><br />N<strong>asz odcinek dobiega końca. Dzięki wielkie, że udało się znaleźć chwilę czasu, aby porozmawiać i podzielić się swoim doświadczeniem, które jest duże. Jak wymieniłeś te wszystkie komponenty, które też dają możliwości to aż sprawia wrażenie, że się chce po odcinku usiąść i je zobaczyć, chociażby odpalić <em>Cloud Vision Demo. </em>Bo to naprawdę w tej chwili kwestia minut czy pół godziny, aby zobaczyć pierwsze wyniki. Więc dzięki wielkie, że udało się porozmawiać i do usłyszenia przy następnej okazji.</strong></p>



<p></p>



<p>Super, dziękuję bardzo, było mi bardzo miło. Pozdrawiam.</p>



<p><br /></p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm-1024x576.png" alt="" class="wp-image-5482" width="591" height="332" srcset="https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm-1024x576.png 1024w, https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm-300x169.png 300w, https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm-768x432.png 768w, https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm-1140x641.png 1140w, https://biznesmysli.pl/wp-content/uploads/2021/04/ctabm.png 1280w" sizes="(max-width: 591px) 100vw, 591px" /></figure></div>
<p>Artykuł <a href="https://biznesmysli.pl/chmura-krajowa-sztuczna-inteligencja-w-biznesie/">Chmura Krajowa &#8211; sztuczna inteligencja i wykorzystanie danych w biznesie</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/chmura-krajowa-sztuczna-inteligencja-w-biznesie/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Jak Google i DeepMind wspierają służbę zdrowia?</title>
		<link>https://biznesmysli.pl/jak-google-i-deepmind-wspieraja-sluzbe-zdrowia/</link>
					<comments>https://biznesmysli.pl/jak-google-i-deepmind-wspieraja-sluzbe-zdrowia/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 08 Jun 2020 02:57:14 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Google Healthcare]]></category>
		<category><![CDATA[Healthcare]]></category>
		<category><![CDATA[lekarz]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[ochrona zdrowia]]></category>
		<category><![CDATA[szpital]]></category>
		<category><![CDATA[sztuczna intelgencja]]></category>
		<category><![CDATA[uczenie maszynowe]]></category>
		<category><![CDATA[zdrowie]]></category>
		<guid isPermaLink="false">https://biznesmysli.pl/?p=3663</guid>

					<description><![CDATA[<p>Innowacja nieodłącznie wiąże się z licznymi wyzwaniami, bo wymaga pokonywania nierzadko bardzo wielu barier, zmiany utartych tematów i sposobu myślenia. O tym i nie tylko miałem okazję porozmawiać z Joanną Chwastowską z Google, która przedtem pracowała w DeepMind, jeszcze wcześniej w startupie i znów w Google. Joanna ma bardzo ciekawe doświadczenie w różnych obszarach. Dzisiaj m.in. opowiemy o tym, jak wygląda służba zdrowia w Wielkiej Brytanii, jakie tam są podstawowe problemy związane z komunikacją pomiędzy lekarzami, pielęgniarkami i innymi osobami, które np. robią badania. Jak przekazywane są między nimi informacje? Dość często nadal są używane pagery lub fax. Ciekawe, że to nadal jeszcze funkcjonuje. Wyobraź sobie taką sytuację, że lekarz np. chirurg pracował przez kilka godzin, jest po zabiegu i bardzo zmęczony, wychodzi i na pagerze czeka na niego 5, 10, 20, 50 różnych wiadomości, które nie są w żaden sposób spriorytetyzowane i musi je wszystkie przeglądnąć, by zweryfikować, czy któraś z nich jest bardzo ważna i wymaga natychmiastowej reakcji. Tego typu problemy są do rozwiązania m.in. poprzez aplikację Streams tworzoną w DeepMind.&#160; Jak mówimy o DeepMind, to od razu na myśl przychodzi nam sztuczna inteligencja. Z DeepMind kojarzy się również AlphaGo, więc od razu widzimy jakieś zaawansowane algorytmy. Prawda jest taka, że najpierw trzeba pewne rzeczy ustabilizować i dopiero później można wprowadzać kolejne elementy związane z automatyzacją pewnych procesów, prognozowaniem i sugerowaniem pewnych rzeczy, które można zrobić lub nawet podejmowaniem odpowiednich decyzji. To jest ciekawa historia, bo wiele firm ma przekonanie, że wprowadzanie innowacji to np. użycie uczenie maszynowego. Problem zwykle jest szerszy i m.in. chodzi o: infrastrukturę, którą firma posiada,&#160; ludzi, którzy pracują w tej firmie (na ile ten zespół jest przygotowany na to, żeby takie rozwiązania wdrożyć),&#160; kulturę firmy, na ile ta firma jest otwarta na nowe rzeczy, na ile tam jest hierarchia bardziej czerwona (czyli hierarchia kiedy z góry pewne decyzje propagują się na dół i tego kierunku nie da się zmienić).&#160; Cześć Asia. Przedstaw się: jak się nazywasz, skąd jesteś, czym się zajmujesz? Witaj Vladimir. Nazywam się Joanna Chwastowska. Pochodzę z Tarnowa, a teraz mieszkam w Londynie. Zajmuję się budowaniem rozwiązań technologicznych, jestem inżynierem i prowadzę zespół inżynierów w Google w Londynie. Podziel się proszę, jaką książkę ostatnio przeczytałaś i dlaczego warto ją polecić? Jedną z ciekawszych pozycji, które czytałam ostatnio, jest &#8222;Essentialism: The Disciplined Pursuit of Less&#8221; Grega McKeowna. O tyle jest to ciekawa lektura, że skupia się właśnie na tym, na czym powinniśmy się skupiać w swoim życiu. Pomaga odpowiedzieć na pytanie, co jest tak naprawdę dla nas ważne i którym rzeczom w życiu powinniśmy mówić &#8222;tak&#8221;, a które rzeczy priorytetyzować i odrzucać. Wydaje mi się, że w kontekście np. dużych projektów informatycznych często się zdarza, że próbujemy zrobić na raz za dużo, a w tej książce znajdziemy podpowiedź, jak zrobić jedną rzecz dobrze, z całą naszą uwagą. Zdecydowanie polecam. Podoba mi się cytat z tej książki: &#8222;Jeżeli nie jest na pewno na tak, to jest na pewno na nie&#8221;. Właśnie tak. Dużo bardziej agresywnie niż do tego podchodzimy w codziennym życiu, prawda? Tak, bardzo przydatne. Porozmawiajmy na początek o Twojej karierze zawodowej. Jak wyglądała ta ewolucja? Jak znalazłaś się w tym miejscu, w którym jesteś teraz? Zaczęłam od studiowania informatyki na Akademii Górniczo-Hutniczej w Krakowie. W 2007 r. Google otworzył się w Krakowie i moja najlepsza przyjaciółka Ilona zaproponowała, żebyśmy tam zaaplikowały. Oczywiście na tamtym etapie, będąc praktycznie świeżo po studiach, nie bardzo zakładałyśmy, że się dostaniemy, ale sam proces rekrutacji był wtedy wystarczająco interesujący dla nas, aby warto było spróbować. Po wielu etapach różnych pytań i zadań okazało się na końcu, że spełniamy wymagania i zostałyśmy przyjęte. W związku z tym budowałyśmy biuro krakowskiego Google&#8217;a od samego początku. To był okres w historii informatyki, w którym dużo firm zaczęło eksplorować różne obszary, którymi można by się było zajmować. W związku z tym miałyśmy okazję pracować nad bardzo szeroką gamą różnych projektów na przestrzeni lat, aż dochodzimy do 2015 r., kiedy to Google zdecydował, że krakowskie biuro zostaje połączone z biurem w Warszawie. Ja, z powodów osobistych, zdecydowałam się nie przenosić i zostałam w Krakowie. To jest kolejny ciekawy okres, kiedy w Krakowie otworzyliśmy razem z grupą innych osób, które odchodziły wtedy z Google&#8217;a, biuro startupu Spring. Zajmował się budowaniem rozwiązań commerce. Główna siedziba firmy znajdowała się w Nowym Jorku, a my w Krakowie otworzyliśmy biuro inżynieryjne i budowaliśmy dla nich rozwiązania. To był też bardzo ciekawy okres, bo startup to zupełnie inny świat w porównaniu do Google. Duża firma z całym zapleczem, podejściem do projektów, dużo szybsze warunki pracy, dużo więcej skupienia na wypuszczaniu poprawek do systemu, udogodnień dla użytkowników, nowych funkcjonalności. Bardzo fajne doświadczenie. Po dwóch latach zdarzyło się tak, że DeepMind odezwał się do mnie z pytaniem, czy nie chciałabym dołączyć do zespołu w Londynie, a ponieważ w pierwszych 5 minutach rozmowy rekruter wspomniał to, że pracują nad projektami w obszarze służby zdrowia, to skradł moje serce i tak spakowałam się razem z rodziną i przenieśliśmy się do Londynu. Tak jesteśmy tu do dziś. Od dziecka interesowała Cię dziedzina zdrowia, czy były inne motywacje do podjęcia pracy właśnie w tym obszarze? To jest bardzo dobre pytanie. Wydaje mi się, że powodów jest wiele i to jest tak, że na przestrzeni lat we wszystkich tych firmach i projektach, gdzie pracowałam, zawsze był jakiś powód albo kilka powodów, dla których to było właściwe miejsce i czas. Tutaj się tak złożyło, że obszar healthcare i DeepMind zakreśliły dużo checkboxów. Z jednej strony jak chodzi o impact tego, nad czym można pracować, to wydaje się, że budowanie rozwiązań, które pomagają ludziom albo powrócić do zdrowia, albo uniknąć problemów, jest jednym z takich obszarów, w których można mieć największy wpływ na świat. Z drugiej strony to zawsze był dla mnie niezwykle ciekawy obszar. Jak pewnie większość ludzi, będąc dzieckiem, bawiliśmy się w lekarzy, dawaliśmy zastrzyki lalkom i na pewno jakbym miała wybierać jakąś inną karierę (nie informatyka), to ten lekarz gdzieś byłby tam na liście. Z trzeciej strony jest jeszcze aspekt ograniczeń i wyzwań związanych z wprowadzaniem bardzo innowacyjnych rozwiązań. Wydaje się, że w obszarze służby zdrowia tych wyzwań jest ciągle bardzo dużo. To jest niesamowite, że mamy tyle rozwiązań technologicznych, a nasze szpitale i systemy diagnostyczne często jeszcze są tak bardzo do tyłu. Wynika to też z tego, że żeby móc wprowadzać dużo bardziej nowoczesne rozwiązania, to cały otaczający te rozwiązania prawny krajobraz i regulacje odnoszące się do wprowadzania tych rozwiązań, też muszą być gotowe na technologie. Teraz jest właśnie taki okres, że zaczynamy dopiero rozmawiać o tym, co by było wymagane, żeby można było te rozwiązania wprowadzać bezpiecznie. Sądzę, że to jest taki trzeci aspekt, gdzie można przez pracę (wydaje mi się, że takie większe firmy mają dużo większą szansę) wpływać na te regulacje tak, żeby one wspierały cały ekosystem, w którym te rozwiązania będą budowane i żeby to były rozwiązania bezpieczne, sprawdzone i potwierdzone. Żebyśmy wiedzieli tak naprawdę, co robimy. W przypadku wdrażania innowacyjnych projektów często widzi się tylko jego skutki, natomiast ludzie nie zdają sobie sprawy, jakie tak naprawdę bariery trzeba pokonać, żeby dotrzeć do mety. Powiedz dokładniej, czym się zajmuje dział Google poświęcony ochronie zdrowia. Co już udało się osiągnąć? Czym Twój zespół albo zespoły pokrewne się zajmują?&#160; Dział poświęcony zdrowiu w Google powstał stosunkowo niedawno. Powiedziałabym, że to jest na przestrzeni ostatnich 12-18 miesięcy jako byt formalny. Natomiast te projekty, które wchodzą w jego skład, one oczywiście były rozwijane na przestrzeni 3-5 lat co najmniej. To jest też troszeczkę nawiązanie do tego, co mówiłam na początku, jaka jest motywacja, dlaczego ludzie chcą pracować nad zdrowiem. Ludzie są zmotywowani często swoimi wcześniejszymi historiami, przeżyciami, tym że ktoś w rodzinie miał problem, którego nie udało się rozwiązać. Dlatego też ludzie, którzy pracują w technologii teraz, bardzo często myślą o tym, jak te tworzone rozwiązania, mogłyby być zastosowane do tego obszaru. Stworzenie działu Google Health wynikało z tego, że te projekty już się toczyły i tak naprawdę, żeby mogły się toczyć lepiej i lepiej ze sobą współpracować, to zostały wciągnięte pod jeden parasol.&#160; To są bardzo różnorodne projekty. Mamy bardzo duży dział research, który skupia się na tym, w jaki sposób można np. poprawić diagnostykę, w jaki sposób można lepiej klasyfikować poszczególne problemy do takich rozwiązań jak te projekty, które my prowadziliśmy wcześniej w ramach DeepMind Health. Byliśmy wtedy nastawieni na budowanie rozwiązań bezpośrednio dla lekarzy, które pozwalają im każdego dnia poprawiać standard opieki dostarczanej pacjentom. Teraz one wszystkie znajdują się pod jednym dachem. W środku jest prawdopodobnie ten największy obszar, w którym Google ma doświadczenie, tzn. to, co robimy bezpośrednio dla naszych użytkowników, czyli np. w obecnej sytuacji pandemii i COVID-19 to, że użytkownicy są w stanie znaleźć rzetelną informację. Informację nie tylko, która sieje panikę albo jest niezweryfikowana, ale właśnie informację, która pochodzi bezpośrednio z systemu opieki zdrowotnej, dużych jednostek naukowych. Wtedy te rozwiązania budujemy we współpracy z innymi działami Google, np. YouTube, Search. One są wbudowane w te produkty, ale my wnosimy jako zespół zrozumienie obszaru ochrony zdrowia, doświadczenie medyczne tak, żeby te produkty były lepsze.&#160; Jednym z takich przykładowych produktów, który jest budowany przez ten zespół, jest wykrywanie retinopatii towarzyszącej cukrzycy. To jest projekt, który zaczął się w obszarze badawczym naszej firmy od tego, że zaczęto budować modele do tego, żeby ze skanu oka być w stanie wykryć, że u pacjenta występuje retinopatia towarzysząca cukrzycy. To jest schorzenie, które z jednej strony może prowadzić do ślepoty, z drugiej strony np. 18% ludzi z cukrzycą obecnie w Indiach ma już to zagrożenie wzroku spowodowane cukrzycą. Jest to bardzo duży problem &#8211; mówimy o powyżej 400 mln ludzi na świecie zagrożonych ślepotą z powodu retinopatii. Od tego projektu badawczego i od tego, czy da się tę chorobę wykrywać ze skanu, przechodzimy do planu działania, czyli do tego, w jaki sposób jesteśmy w stanie ten model dostarczyć tam, gdzie jest w stanie zmieniać sytuację pacjentów. Tutaj jest zbudowane urządzenie, które nazywa się ARDA: Automated Retinal Disease Assessment. W tym momencie, jest testowane bezpośrednio w klinikach w Indiach w celu lepszego wykrywania tych schorzeń i pomocy ludziom. Interesujące jest to, że jeżeli wystarczająco wcześnie wykryjemy, że pojawia się problem, to jesteśmy tym pacjentom w stanie pomóc. Tak naprawdę impact tego projektu będzie mierzony w tym, że duża część z tych osób ma szansę nie stracić wzroku, co wydaje się być dość istotne.&#160; Bardzo fajny przykład, można więcej przeczytać o tym na blogu Google. Tam między innymi było też wspomniane o 415 mln, czyli prawie 0,5 mld potencjalnych pacjentów, którzy mają to ryzyko. Ta skala daje do myślenia i robi wrażenie, jeżeli chodzi o możliwości tego rozwiązania. W innym miejscu czytałem, że tam było coś więcej niż tylko wykrywanie retinopatii, bo w oczach można znaleźć różnego rodzaju choroby albo pewne objawy tych chorób. Tak, tam tak naprawdę są dwa obszary, tzn. jest jeden projekt badawczy, który wykrywał 50 najczęściej występujących chorób oczu ze skanów. Natomiast ten pojedynczy projekt skupia się konkretnie na wykrywaniu retinopatii i byciu w stanie wykorzystania tego modelu bezpośrednio już w klinikach. Także jest to zawężony obszar wykrywania, ale potencjalnie dużo większy zasięg, jak chodzi o dostępność projektu i rozwiązania w klinikach. To jest też praktyczne, tzn. jeżeli chcemy rozwiązać pewien problem, to warto na nim jednym się skupić, bo pewnie pojawi się mnóstwo wyzwań, niekoniecznie technologicznych, ale jeżeli ich nie pokonamy, to inaczej to się po prostu nie będzie nadawać.&#160; Aplikacja Streams powstała najpierw w DeepMind, w tej chwili ten projekt jest już pod parasolką Google. Czym ona jest i jak to się stało, że ta aplikacja w ogóle się pojawiła? Jaki problem ma na celu rozwiązać? Streams to jest aplikacja, która pomaga lekarzom i pielęgniarkom podejmować decyzje o opiece nad pacjentami, o tym, że wymagają oni opieki wcześniej, tzn. próbujemy sprawić, żeby pomoc mogła nastąpić wcześniej niż następuje w tym momencie i żeby dzięki temu rezultaty leczenia były lepsze. Streams na samym początku skupił się na bardzo konkretnym schorzeniu &#8211; ostrym uszkodzeniu nerek. Schorzenie to polega na tym, że nerki pacjenta przestają działać poprawnie. Często występuje jako dodatkowy problem, który pojawia się, gdy pacjent jest już w szpitalu. Oznacza to, że często to nie jest jego główny...</p>
<p>Artykuł <a href="https://biznesmysli.pl/jak-google-i-deepmind-wspieraja-sluzbe-zdrowia/">Jak Google i DeepMind wspierają służbę zdrowia?</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-2p0wTc wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-83-jak-google-i-deepmind-wspieraja-sl" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/2OjsasavAr47iklUefnEk3" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p><br /></p>



<p></p>



<p><br /><br /><br /><strong>Innowacja nieodłącznie wiąże się z licznymi wyzwaniami, bo wymaga pokonywania nierzadko bardzo wielu barier, zmiany utartych tematów i sposobu myślenia. O tym i nie tylko miałem okazję porozmawiać z Joanną Chwastowską z Google, która przedtem pracowała w DeepMind, jeszcze wcześniej w startupie i znów w Google. </strong></p>



<p><br /><br /><strong>Joanna ma bardzo ciekawe doświadczenie w różnych obszarach. Dzisiaj m.in. opowiemy o tym, jak wygląda służba zdrowia w Wielkiej Brytanii, jakie tam są podstawowe problemy związane z komunikacją pomiędzy lekarzami, pielęgniarkami i innymi osobami, które np. robią badania. Jak przekazywane są między nimi informacje? </strong></p>



<span id="more-3663"></span>



<p><br /><br /><strong>Dość często nadal są używane pagery lub fax. Ciekawe, że to nadal jeszcze funkcjonuje. Wyobraź sobie taką sytuację, że lekarz np. chirurg pracował przez kilka godzin, jest po zabiegu i bardzo zmęczony, wychodzi i na pagerze czeka na niego 5, 10, 20, 50 różnych wiadomości, które nie są w żaden sposób spriorytetyzowane i musi je wszystkie przeglądnąć, by zweryfikować, czy któraś z nich jest bardzo ważna i wymaga natychmiastowej reakcji. Tego typu problemy są do rozwiązania m.in. poprzez aplikację Streams tworzoną w DeepMind.&nbsp;</strong></p>



<p><br /><br /><strong>Jak mówimy o DeepMind, to od razu na myśl przychodzi nam sztuczna inteligencja. Z DeepMind kojarzy się również <a href="https://en.wikipedia.org/wiki/AlphaGo" target="_blank" rel="noreferrer noopener">AlphaGo</a>, więc od razu widzimy jakieś zaawansowane algorytmy. Prawda jest taka, że najpierw trzeba pewne rzeczy ustabilizować i dopiero później można wprowadzać kolejne elementy związane z automatyzacją pewnych procesów, prognozowaniem i sugerowaniem pewnych rzeczy, które można zrobić lub nawet podejmowaniem odpowiednich decyzji. </strong></p>



<p><br /><br /><strong>To jest ciekawa historia, bo wiele firm ma przekonanie, że wprowadzanie innowacji to np. użycie uczenie maszynowego. Problem zwykle jest szerszy i m.in. chodzi o:</strong><br /><br /></p>



<ul><li><strong>infrastrukturę, którą firma posiada,&nbsp;</strong></li><li><strong>ludzi, którzy pracują w tej firmie (na ile ten zespół jest przygotowany na to, żeby takie rozwiązania wdrożyć),&nbsp;</strong></li><li><strong>kulturę firmy, na ile ta firma jest otwarta na nowe rzeczy, na ile tam jest hierarchia bardziej czerwona (czyli hierarchia kiedy z góry pewne decyzje propagują się na dół i tego kierunku nie da się zmienić).&nbsp;</strong><br /><br /><br /></li></ul>


<fieldset style="border: 2px solid; padding: 4; padding-left: 5%; padding-right: 5%; padding-top: 3%">
<strong>Z tej rozmowy dowiesz się:</strong></p>
<p><img src="https://s.w.org/images/core/emoji/14.0.0/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> czym zajmuje się Google Health,<br />
<img src="https://s.w.org/images/core/emoji/14.0.0/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> jak dzięki technologii można przewidywać występowanie uszkodzenia nerek,<br />
<img src="https://s.w.org/images/core/emoji/14.0.0/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> jak aplikacja Streams zrewolucjonizowała brytyjską medycynę,<br />
<img src="https://s.w.org/images/core/emoji/14.0.0/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> z jakimi wyzwaniami wiąże się rozwijanie innowacji,<br />
<img src="https://s.w.org/images/core/emoji/14.0.0/72x72/2705.png" alt="✅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> jakich zmian w służbie zdrowia możemy się spodziewać w najbliższych 10 latach.</p>
</fieldset>



<p><br /><br /><strong>Cześć Asia. Przedstaw się: jak się nazywasz, skąd jesteś, czym się zajmujesz?</strong><br /><br /></p>



<p>Witaj Vladimir. Nazywam się <a href="https://www.linkedin.com/in/joannachwastowska/" target="_blank" rel="noreferrer noopener">Joanna Chwastowska</a>. Pochodzę z Tarnowa, a teraz mieszkam w Londynie. Zajmuję się budowaniem rozwiązań technologicznych, jestem inżynierem i prowadzę zespół inżynierów w Google w Londynie.<br /><br /><br /></p>



<p><strong>Podziel się proszę, jaką książkę ostatnio przeczytałaś i dlaczego warto ją polecić?</strong><br /><br /></p>



<div class="wp-block-media-text alignwide is-stacked-on-mobile" style="grid-template-columns:33% auto"><figure class="wp-block-media-text__media"><img decoding="async" width="680" height="1024" src="https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-680x1024.jpg" alt="" class="wp-image-3684" srcset="https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-680x1024.jpg 680w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-199x300.jpg 199w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-768x1157.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-1019x1536.jpg 1019w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-1359x2048.jpg 1359w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism-1140x1718.jpg 1140w, https://biznesmysli.pl/wp-content/uploads/2020/06/essentialism.jpg 1693w" sizes="(max-width: 680px) 100vw, 680px" /></figure><div class="wp-block-media-text__content">
<p class="has-normal-font-size">Jedną z ciekawszych pozycji, które czytałam ostatnio, jest &#8222;Essentialism: The Disciplined Pursuit of Less&#8221; Grega McKeowna. O tyle jest to ciekawa lektura, że skupia się właśnie na tym, na czym powinniśmy się skupiać w swoim życiu. Pomaga odpowiedzieć na pytanie, co jest tak naprawdę dla nas ważne i którym rzeczom w życiu powinniśmy mówić &#8222;tak&#8221;, a które rzeczy priorytetyzować i odrzucać. Wydaje mi się, że w kontekście np. dużych projektów informatycznych często się zdarza, że próbujemy zrobić na raz za dużo, a w tej książce znajdziemy podpowiedź, jak zrobić jedną rzecz dobrze, z całą naszą uwagą. Zdecydowanie polecam.</p>
</div></div>



<p></p>



<p><br /><br /><strong>Podoba mi się cytat z tej książki:</strong><br /></p>



<blockquote class="wp-block-quote"><p><strong>&#8222;Jeżeli nie jest na pewno na tak, to jest na pewno na nie&#8221;.</strong></p></blockquote>



<p><br /><br />Właśnie tak. Dużo bardziej agresywnie niż do tego podchodzimy w codziennym życiu, prawda?<br /><br /><br /></p>



<p><strong>Tak, bardzo przydatne. Porozmawiajmy na początek o Twojej karierze zawodowej. Jak wyglądała ta ewolucja? Jak znalazłaś się w tym miejscu, w którym jesteś teraz?</strong><br /><br /></p>



<p>Zaczęłam od studiowania informatyki na Akademii Górniczo-Hutniczej w Krakowie. W 2007 r. Google otworzył się w Krakowie i moja najlepsza przyjaciółka Ilona zaproponowała, żebyśmy tam zaaplikowały. Oczywiście na tamtym etapie, będąc praktycznie świeżo po studiach, nie bardzo zakładałyśmy, że się dostaniemy, ale sam proces rekrutacji był wtedy wystarczająco interesujący dla nas, aby warto było spróbować. </p>



<p><br /><br />Po wielu etapach różnych pytań i zadań okazało się na końcu, że spełniamy wymagania i zostałyśmy przyjęte. W związku z tym budowałyśmy biuro krakowskiego Google&#8217;a od samego początku. To był okres w historii informatyki, w którym dużo firm zaczęło eksplorować różne obszary, którymi można by się było zajmować. W związku z tym miałyśmy okazję pracować nad bardzo szeroką gamą różnych projektów na przestrzeni lat, aż dochodzimy do 2015 r., kiedy to Google zdecydował, że krakowskie biuro zostaje połączone z biurem w Warszawie. </p>



<p><br /><br />Ja, z powodów osobistych, zdecydowałam się nie przenosić i zostałam w Krakowie. To jest kolejny ciekawy okres, kiedy w Krakowie otworzyliśmy razem z grupą innych osób, które odchodziły wtedy z Google&#8217;a, biuro startupu Spring. Zajmował się budowaniem rozwiązań commerce. Główna siedziba firmy znajdowała się w Nowym Jorku, a my w Krakowie otworzyliśmy biuro inżynieryjne i budowaliśmy dla nich rozwiązania. </p>



<p><br /><br />To był też bardzo ciekawy okres, bo startup to zupełnie inny świat w porównaniu do Google. Duża firma z całym zapleczem, podejściem do projektów, dużo szybsze warunki pracy, dużo więcej skupienia na wypuszczaniu poprawek do systemu, udogodnień dla użytkowników, nowych funkcjonalności. Bardzo fajne doświadczenie. <br /><br />Po dwóch latach zdarzyło się tak, że DeepMind odezwał się do mnie z pytaniem, czy nie chciałabym dołączyć do zespołu w Londynie, a ponieważ w pierwszych 5 minutach rozmowy rekruter wspomniał to, że pracują nad projektami w obszarze służby zdrowia, to skradł moje serce i tak spakowałam się razem z rodziną i przenieśliśmy się do Londynu. Tak jesteśmy tu do dziś.<br /><br /><br /></p>



<p><strong>Od dziecka interesowała Cię dziedzina zdrowia, czy były inne motywacje do podjęcia pracy właśnie w tym obszarze?</strong><br /><br /></p>



<p>To jest bardzo dobre pytanie. Wydaje mi się, że powodów jest wiele i to jest tak, że na przestrzeni lat we wszystkich tych firmach i projektach, gdzie pracowałam, zawsze był jakiś powód albo kilka powodów, dla których to było właściwe miejsce i czas. Tutaj się tak złożyło, że obszar <em>healthcare</em> i DeepMind zakreśliły dużo <em>checkboxów</em>. </p>



<p><br /><br />Z jednej strony jak chodzi o <em>impact</em> tego, nad czym można pracować, to wydaje się, że budowanie rozwiązań, które pomagają ludziom albo powrócić do zdrowia, albo uniknąć problemów, jest jednym z takich obszarów, w których można mieć największy wpływ na świat. Z drugiej strony to zawsze był dla mnie niezwykle ciekawy obszar. </p>



<p><br /><br />Jak pewnie większość ludzi, będąc dzieckiem, bawiliśmy się w lekarzy, dawaliśmy zastrzyki lalkom i na pewno jakbym miała wybierać jakąś inną karierę (nie informatyka), to ten lekarz gdzieś byłby tam na liście. Z trzeciej strony jest jeszcze aspekt ograniczeń i wyzwań związanych z wprowadzaniem bardzo innowacyjnych rozwiązań. Wydaje się, że w obszarze służby zdrowia tych wyzwań jest ciągle bardzo dużo. To jest niesamowite, że mamy tyle rozwiązań technologicznych, a nasze szpitale i systemy diagnostyczne często jeszcze są tak bardzo do tyłu. <br /><br /><br />Wynika to też z tego, że żeby móc wprowadzać dużo bardziej nowoczesne rozwiązania, to cały otaczający te rozwiązania prawny krajobraz i regulacje odnoszące się do wprowadzania tych rozwiązań, też muszą być gotowe na technologie. Teraz jest właśnie taki okres, że zaczynamy dopiero rozmawiać o tym, co by było wymagane, żeby można było te rozwiązania wprowadzać bezpiecznie. </p>



<p><br /><br />Sądzę, że to jest taki trzeci aspekt, gdzie można przez pracę (wydaje mi się, że takie większe firmy mają dużo większą szansę) wpływać na te regulacje tak, żeby one wspierały cały ekosystem, w którym te rozwiązania będą budowane i żeby to były rozwiązania bezpieczne, sprawdzone i potwierdzone. Żebyśmy wiedzieli tak naprawdę, co robimy.<br /><br /><br /><br /></p>



<p><strong>W przypadku wdrażania innowacyjnych projektów często widzi się tylko jego skutki, natomiast ludzie nie zdają sobie sprawy, jakie tak naprawdę bariery trzeba pokonać, żeby dotrzeć do mety. Powiedz dokładniej, czym się zajmuje dział Google poświęcony ochronie zdrowia. Co już udało się osiągnąć? Czym Twój zespół albo zespoły pokrewne się zajmują?&nbsp;</strong><br /><br /><br /></p>



<p>Dział poświęcony zdrowiu w Google powstał stosunkowo niedawno. Powiedziałabym, że to jest na przestrzeni ostatnich 12-18 miesięcy jako byt formalny. Natomiast te projekty, które wchodzą w jego skład, one oczywiście były rozwijane na przestrzeni 3-5 lat co najmniej. </p>



<p><br /><br />To jest też troszeczkę nawiązanie do tego, co mówiłam na początku, jaka jest motywacja, dlaczego ludzie chcą pracować nad zdrowiem. Ludzie są zmotywowani często swoimi wcześniejszymi historiami, przeżyciami, tym że ktoś w rodzinie miał problem, którego nie udało się rozwiązać. Dlatego też ludzie, którzy pracują w technologii teraz, bardzo często myślą o tym, jak te tworzone rozwiązania, mogłyby być zastosowane do tego obszaru. </p>



<p><br /><br />Stworzenie działu <a href="https://health.google/" target="_blank" rel="noreferrer noopener">Google Health</a> wynikało z tego, że te projekty już się toczyły i tak naprawdę, żeby mogły się toczyć lepiej i lepiej ze sobą współpracować, to zostały wciągnięte pod jeden parasol.&nbsp;<br /><br /></p>



<p>To są bardzo różnorodne projekty. Mamy bardzo duży dział <em>research</em>, który skupia się na tym, w jaki sposób można np. poprawić diagnostykę, w jaki sposób można lepiej klasyfikować poszczególne problemy do takich rozwiązań jak te projekty, które my prowadziliśmy wcześniej w ramach DeepMind Health. <br /><br /></p>



<p>Byliśmy wtedy nastawieni na budowanie rozwiązań bezpośrednio dla lekarzy, które pozwalają im każdego dnia poprawiać standard opieki dostarczanej pacjentom. Teraz one wszystkie znajdują się pod jednym dachem. W środku jest prawdopodobnie ten największy obszar, w którym Google ma doświadczenie, tzn. to, co robimy bezpośrednio dla naszych użytkowników, czyli np. w obecnej sytuacji pandemii i COVID-19 to, że użytkownicy są w stanie znaleźć rzetelną informację. <br /><br /></p>



<p>Informację nie tylko, która sieje panikę albo jest niezweryfikowana, ale właśnie informację, która pochodzi bezpośrednio z systemu opieki zdrowotnej, dużych jednostek naukowych. Wtedy te rozwiązania budujemy we współpracy z innymi działami Google, np. YouTube, Search. One są wbudowane w te produkty, ale my wnosimy jako zespół zrozumienie obszaru ochrony zdrowia, doświadczenie medyczne tak, żeby te produkty były lepsze.&nbsp;</p>



<p><br /><br />Jednym z takich przykładowych produktów, który jest budowany przez ten zespół, jest wykrywanie retinopatii towarzyszącej cukrzycy. To jest projekt, który zaczął się w obszarze badawczym naszej firmy od tego, że zaczęto budować modele do tego, żeby ze skanu oka być w stanie wykryć, że u pacjenta występuje retinopatia towarzysząca cukrzycy. <br /><br /></p>



<p>To jest schorzenie, które z jednej strony może prowadzić do ślepoty, z drugiej strony np. 18% ludzi z cukrzycą obecnie w Indiach ma już to zagrożenie wzroku spowodowane cukrzycą. Jest to bardzo duży problem &#8211; mówimy o powyżej 400 mln ludzi na świecie zagrożonych ślepotą z powodu retinopatii. Od tego projektu badawczego i od tego, czy da się tę chorobę wykrywać ze skanu, przechodzimy do planu działania, czyli do tego, w jaki sposób jesteśmy w stanie ten model dostarczyć tam, gdzie jest w stanie zmieniać sytuację pacjentów. Tutaj jest zbudowane urządzenie, które nazywa się <a rel="noreferrer noopener" href="https://about.google/stories/seeingpotential/" target="_blank">ARDA:</a><a href="https://about.google/stories/seeingpotential/" target="_blank" rel="noreferrer noopener"> </a><a rel="noreferrer noopener" href="https://about.google/stories/seeingpotential/" target="_blank"><em>Automated Retinal Disease Assessment.</em></a> <br /><br /></p>



<p>W tym momencie, jest testowane bezpośrednio w klinikach w Indiach w celu lepszego wykrywania tych schorzeń i pomocy ludziom. Interesujące jest to, że jeżeli wystarczająco wcześnie wykryjemy, że pojawia się problem, to jesteśmy tym pacjentom w stanie pomóc. Tak naprawdę <em>impact </em>tego projektu będzie mierzony w tym, że duża część z tych osób ma szansę nie stracić wzroku, co wydaje się być dość istotne.&nbsp;<br /><br /><br /><br /></p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Camels, Code &amp; Lab Coats: How AI Is Advancing Science and Medicine" width="960" height="540" src="https://www.youtube.com/embed/AbdVsi1VjQY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><strong>Bardzo fajny przykład, można więcej przeczytać o tym na <a href="https://health.google/health-research/" target="_blank" rel="noreferrer noopener">blogu Google. </a>Tam między innymi było też wspomniane o 415 mln, czyli prawie 0,5 mld potencjalnych pacjentów, którzy mają to ryzyko. </strong></p>



<p><br /><br /><strong>Ta skala daje do myślenia i robi wrażenie, jeżeli chodzi o możliwości tego rozwiązania. W innym miejscu czytałem, że tam było coś więcej niż tylko wykrywanie retinopatii, bo w oczach można znaleźć różnego rodzaju choroby albo pewne objawy tych chorób.</strong><br /><br /></p>



<p>Tak, tam tak naprawdę są dwa obszary, tzn. jest jeden projekt badawczy, który wykrywał 50 najczęściej występujących chorób oczu ze skanów. Natomiast ten pojedynczy projekt skupia się konkretnie na wykrywaniu retinopatii i byciu w stanie wykorzystania tego modelu bezpośrednio już w klinikach. Także jest to zawężony obszar wykrywania, ale potencjalnie dużo większy zasięg, jak chodzi o dostępność projektu i rozwiązania w klinikach.<br /><br /><br /></p>



<p><strong>To jest też praktyczne, tzn. jeżeli chcemy rozwiązać pewien problem, to warto na nim jednym się skupić, bo pewnie pojawi się mnóstwo wyzwań, niekoniecznie technologicznych, ale jeżeli ich nie pokonamy, to inaczej to się po prostu nie będzie nadawać.&nbsp;</strong><br /><br /></p>



<p><strong>Aplikacja Streams powstała najpierw w <a href="https://deepmind.com/blog/announcements/deepmind-health-joins-google-health" target="_blank" rel="noreferrer noopener">DeepMind, w tej chwili ten projekt jest już pod parasolką Google</a>. Czym ona jest i jak to się stało, że ta aplikacja w ogóle się pojawiła? Jaki problem ma na celu rozwiązać?</strong><br /><br /><br /></p>



<p>Streams to jest aplikacja, która pomaga lekarzom i pielęgniarkom podejmować decyzje o opiece nad pacjentami, o tym, że wymagają oni opieki wcześniej, tzn. próbujemy sprawić, żeby pomoc mogła nastąpić wcześniej niż następuje w tym momencie i żeby dzięki temu rezultaty leczenia były lepsze. <br /><br /></p>



<p>Streams na samym początku skupił się na bardzo konkretnym schorzeniu &#8211; ostrym uszkodzeniu nerek. Schorzenie to polega na tym, że nerki pacjenta przestają działać poprawnie. Często występuje jako dodatkowy problem, który pojawia się, gdy pacjent jest już w szpitalu. <br /><br /></p>



<p>Oznacza to, że często to nie jest jego główny symptom, tylko np. przeszedł operację i w konsekwencji operacji, w trakcie powracania do zdrowia po operacji, zaczynają się problemy z nerkami. To jest bardzo częste schorzenie. Szacuje się, że dotyka 1/5 pacjentów szpitali w Stanach Zjednoczonych i w Wielkiej Brytanii. <br /><br /></p>



<p>Ono znowu jest takim ciekawym schorzeniem, ponieważ nawet 30% przypadków można by było zapobiec, jeżeli lekarz wystarczająco wcześnie wiedziałby, że jest problem i na niego zareagował. Niestety często zdarza się tak, że ponieważ pacjent np. jest już ciężko chory albo pooperacyjny, bardzo późno lekarz zauważa, że występuje ten problem i przez to pacjent kończy np. na dializie nerek. <br /><br /></p>



<p>Może się to zakończyć również śmiercią pacjenta. Aplikacja Streams zajęła się wykrywaniem tego uszkodzenia nerek (ono może mieć 3 poziomy, od lekkiego do bardzo poważnego) i informowaniem lekarzy o tym, że po wykonaniu ostatniego badania krwi istnieje zagrożenie dla nerek. Jednocześnie skupiając się na tym, co możemy zrobić tu i teraz, czyli informowaniu lekarza o tym, że ten problem jest i należy podjąć działanie, zaczęliśmy przyglądać się projektem badawczym na to, czy bylibyśmy w stanie poinformować lekarza wcześniej, tzn. nie w sytuacji, w której już nastąpiło uszkodzenie nerek, ale np. z wyprzedzeniem, mówiąc że ten pacjent jest w grupie podwyższonego ryzyka. <br /><br /></p>



<p>Wcześniejsza interwencja jest możliwa i bezpieczna. Ona np. może polegać na podaniu pacjentowi większej ilości płynów albo zastosowaniu osłony antybiotykowej, żeby zapobiec komplikacjom. Ten projekt badawczy też jest opublikowany i jesteśmy w stanie wykrywać uszkodzenie nerek, które nastąpi za 24-48 godzin, co jest tak naprawdę bardzo dużą poprawą w stosunku do obecnego algorytmu, który jest używany powszechnie, np. w brytyjskiej służbie zdrowia, który wykrywa to uszkodzenie w momencie, w którym pacjent już jest w pogorszonym stanie i nerki są już uszkodzone. <br /><br /></p>



<p>Zaczęliśmy od obudowania tego pojedynczego problemu i stworzenia rozwiązania dla niego. Natomiast w tym momencie aplikacja pozwala lekarzom zobaczyć dodatkowy kontekst danego pacjenta tak, żeby ta decyzja o procesie leczenia uwzględniała cały obraz kliniczny pacjenta i tak, żeby lekarze byli w stanie podejmować lepsze decyzje.<br /><br /><br /></p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Designing Streams with clinicians (with subtitles)" width="960" height="540" src="https://www.youtube.com/embed/4R3MAcbBYFI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><strong>To bardzo inspirujące. W praktyce oznacza to, że po pierwsze jest bardzo duża grupa osób, u której ten problem może wystąpić. Po drugie nawet u ⅓ przypadków można zareagować dzięki temu wcześniej i uprzedzić poważne skutki, wynikające z późnej diagnozy.&nbsp;</strong><br /><br /></p>



<p><strong>Innowacja w projektach to jednak nie jest po prostu dołożenie do nich elementu machine learning czy sztucznej inteligencji i natychmiastowe otrzymanie rewolucyjnych efektów. Istnieje wiele wyzwań związanych z infrastrukturą, regulacjami prawnymi, które należy uprzednio przygotować.</strong> <strong>Z jakimi wyzwaniami musieliście się zmierzyć w Waszych projektach?</strong><br /><br /></p>



<p>Jeszcze ciągle bardzo brakuje takich rozwiązań prawnych i regulacji, które we właściwy sposób pozwalałyby bezpiecznie wprowadzać takie bardzo innowacyjne rozwiązania. W tym momencie są regulacje do urządzeń medycznych, które były tworzone przez długie lata i one dość sensownie działają, natomiast nie tak dobrze odnoszą się do rozwiązań software&#8217;owych, jako urządzenie medyczne. <br /><br /></p>



<p>Oczywiście są tutaj wprowadzane zmiany i ulepszenia i to prawo próbuje nadążać, natomiast często jeszcze wprowadza bardzo dużo ograniczeń, które tak naprawdę koniec końców szkodzą pacjentowi. Jako przykład: bardzo długi okres pomiędzy tym, że pewna poprawka została zaimplementowana, a tym, gdy może zostać wdrożona do użycia na szeroką skalę, sprawia, że po pierwsze okres nim pacjent realnie zostanie objęty lepszą ochroną się bardzo wydłuża, a po drugie też tak naprawdę podnosi to koszt całego procesu wytwarzania oprogramowania. Tak naprawdę firmy, które zajmują się dostarczaniem tych rozwiązań, muszą mieć duży zapas kapitału i być w stanie działać przez długi okres bez przychodu, bez swojego rozwiązania wdrożonego na rynku.<br /><br /></p>



<p> To w duży sposób dyskryminuje wszystkie małe firmy, które mogłyby działać w tym obszarze albo zmusza je do robienia rzeczy, które są na granicy tego, co jest legalne albo tego, co jest dobre dla pacjenta. Jeden z obszarów to są przede wszystkim właśnie te regulacje, które wymagają tego, żeby były cały czas uaktualniane i nadążały za rozwojem technologii. <br /><br /></p>



<p>Po drugie oczywiście jest współpraca firm technologicznych z jednostkami służby zdrowia, które często są jednostkami rządowymi. Pojawia się tu dysonans pomiędzy firmą technologiczną, która ma środki i chciałaby w szybki sposób wprowadzać jakieś rozwiązanie, a np. szpitalem, który z jednej strony też chciałby to rozwiązanie jak najszybciej wdrożyć, ale z drugiej jest bardzo ograniczony, jak chodzi o personel techniczny, prowadzi wiele projektów, które muszą dziać się natychmiastowo.<br /><br /></p>



<p> Jest też duża odpowiedzialność na firmach technologicznych wprowadzających te rozwiązania, żeby swoim partnerom, docelowym jednostkom, być w stanie pomóc poprawnie je wdrożyć w bezpieczny sposób.&nbsp;<br /><br /></p>



<p>Powiedziałabym, że to są takie dwa główne obszary, na których się musieliśmy skupić &#8211; w jaki sposób zrobić to bezpiecznie i w jaki sposób zrobić to tak, żeby nasi partnerzy byli w stanie wykorzystać te rozwiązania jak najlepiej.<br /><br /></p>



<p>Oczywiście jest tutaj też ten trzeci aspekt, który jest warty wspomnienia. Nasza aplikacja w tym momencie nie ma w sobie rozwiązań, które można by było sklasyfikować jako AI. Wszystkie używane algorytmy są opublikowane jako standardy opieki zdrowotnej, np. w Wielkiej Brytanii. W związku z tym to są obliczenia, które następują zawsze w ten sam sposób, jest jasne, skąd te wyniki pochodzą. <br /><br /></p>



<p>Oczywiście prowadzimy badania nad tym i publikujemy te modele, które są w stanie wykrywać te rzeczy wcześniej, natomiast pomiędzy tym, że teraz jesteśmy w stanie pokazywać wyniki konkretnego algorytmu, a tym, że będziemy w przyszłości w stanie pokazywać nasze przewidywania co do stanu zdrowia pacjentów, jest jeszcze bardzo daleka droga. <br /><br /></p>



<p>Takie problemy jak np. kwestia odpowiedzialności &#8211; prawdopodobnie trochę mniej istotne w Europie, ale jak pomyślimy o Stanach Zjednoczonych to nabiera to ważności Wyobraźmy sobie, że aplikacja pokazuje jakąś informację lekarzowi, np. że uszkodzenie nerek nastąpi w ciągu najbliższych 24 godzin z 80% prawdopodobieństwem, lekarz podejmuje jakąś akcję i ta akcja w konsekwencji kończy się pogorszeniem stanu zdrowia pacjenta. <br /><br /></p>



<p>Zawsze jeśli jest podejmowana jakaś interwencja medyczna, nawet tak prosta jak podanie antybiotyku, może nastąpić reakcja, która będzie zagrażała życiu pacjenta. Teraz pojawia się pytanie: czy lekarz zrobił dobrze, czy to jest uzasadnione? Przy jakiej procentowej wartości pewności tego algorytmu, lekarz może podjąć decyzję na podstawie tej wskazówki, a przy jakiej powinien to odrzucić? Pojawia się również pytanie, czy to firma, która dostarcza ten algorytm jest odpowiedzialna za tę rekomendację, która została wygenerowana? <br /><br /></p>



<p>Czy to jest tylko dodatkowa informacja, którą pokazujemy lekarzowi i lekarz sam musi podjąć decyzję? Oczywiście pojawia się też cały problem czarnej skrzynki AI i tego czy lekarz jest w stanie zrozumieć, skąd w ogóle algorytm pokazał taki wynik.&nbsp;<br /><br /></p>



<p>Możemy do tego wrócić, to jest bardzo ciekawy temat. Skupiając się na tych problemach, które w tym momencie pojawiają się z użyciem takiego rozwiązania AI, bezpośrednio w podejmowaniu medycznych decyzji &#8211; pojawia się bardzo dużo otwartych pytań. Powinny istnieć regulacje, które w jasny sposób określają, jakie są wymagania wobec algorytmów i nie chodzi tylko o wymagania na poziomie pewności algorytmu, ale tak naprawdę wydaje mi się, że również powinniśmy prowadzić szeroko zakrojone badania, które pokazują, że koniec końców, dzięki użyciu danego algorytmu w sytuacji medycznej, tak naprawdę rezultaty dla pacjentów są lepsze na końcu. <br /><br /></p>



<p>Także dużo właśnie tego typu pytań. Może tylko jako przykład podam, że w przypadku aplikacji Streams, nawet pomimo tego, że ona w tym momencie nie używa AI, od samego początku bardzo skupiliśmy się właśnie na tym, żeby być w stanie pokazać te potencjalne, pozytywne efekty dla pacjenta. </p>



<p><br /><br />Tak przez pierwszy rok, kiedy Streams był w użyciu, była przeprowadzona ewaluacja (również opublikowana), która pokazała, że te najcięższe przypadki miały uwagę lekarza, lekarz przeglądnął dane pacjenta i zweryfikował, jakie są następne kroki medyczne w ciągu 15 minut, w porównaniu z czasem kilku godzin, jako <em>control group. </em><br /><br /></p>



<p>Często zdarza się tak, że wyniki, które idą do laboratorium, wracają, pojawiają się w systemie, ale lekarz przez długi czas jeszcze nie będzie wiedział, że one tam są albo nie będzie miał czasu na nie popatrzeć i podjąć jakąkolwiek decyzję. Skrócenie tego czasu, zdecydowanie wpływa na poprawę zdrowia pacjenta, ponieważ jest w stanie otrzymać właściwą opiekę wcześniej.<br /><br /></p>



<p> Dodatkowo udało się pokazać, że zredukowaliśmy nie wykryte przypadki uszkodzenia nerek z ponad 12% do 3%. W końcu, tak naprawdę nie tylko dla pacjentów, ale dla całego systemu zdrowia, pojawiła się również oszczędność, tzn. zredukowany jest koszt per pacjent, u którego wystąpiło uszkodzenie nerek, o 17%, co tak naprawdę może prowadzić do oszczędności rzędu miliarda funtów rocznie dla brytyjskiego systemu zdrowia. <br /><br /></p>



<p>Wydaje mi się, że jest istotnym, żeby również mówić o tym, w jaki sposób mierzymy wpływ budowanych produktów na końcowego użytkownika.<br /><br /><br /></p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepMind Health Streams application" width="960" height="540" src="https://www.youtube.com/embed/ik9ps7L-p2E?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><strong>Zdecydowanie. Rozwiń jeszcze proszę sposób funkcjonowania aplikacji i jej roli w całym procesie, tak aby każdy mógł zrozumieć, jak to wygląda w praktyce.&nbsp;</strong><br /><br /></p>



<p>Streams jest aplikacją mobilną, tzn. jest dostępna na telefonach dla lekarzy i pielęgniarek w wybranych szpitalach w Wielkiej Brytanii. Gdy pacjent się pojawia, to szpital ma jakieś swoje rozwiązanie informatyczne, tzn. system, który przechowuje wszystkie dane pacjentów i który jest tym centralnym systemem do zarządzania pacjentami. <br /><br /></p>



<p>Pacjent zostaje przyjęty, jego dane są wprowadzone do systemu, przechodzi przez ręce różnych lekarzy. Natomiast jak już dochodzi do etapu, gdzie jest w szpitalu i jest pod opieką konkretnego lekarza lub pielęgniarki, będą oni na telefonie widzieć listę swoich pacjentów, za których są odpowiedzialną.<br /><br /> </p>



<p>Dla każdego z tych pacjentów będą widoczne wyniki ich badań laboratoryjnych (tj. badania krwi), ich obserwacje, czyli pomiary, które pielęgniarka zwykle pobiera od pacjenta z dość dużą regularnością, podczas gdy jest w szpitalu: temperatura, ciśnienie, stan świadomości, rozkojarzenia &#8211; te parametry, które mówią lekarzom na bieżąco, czy pacjent czuje się dobrze, czy czuje się gorzej. <br /><br /></p>



<p>Mają w ten sposób dostęp do wszystkich danych medycznych pacjenta, a dodatkowo jeżeli stanie się coś poważnego (np. wrócą wyniki badań, w których pacjent ma wykryte uszkodzenie nerek, jak również może to być wykrycie sepsy, która pojawia się w organizmie), to lekarz zostanie o tym poinformowany dodatkowo. Dostanie notyfikację na telefonie i będzie w stanie w szybki sposób, zweryfikować cały obraz kliniczny pacjenta i podjąć konkretną decyzję.&nbsp;</p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Streams – a platform for a digital NHS" width="960" height="540" src="https://www.youtube.com/embed/nXryzt4Z-Gg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><br /></p>



<p><strong>Jak to wyglądało wcześniej?</strong><br /><br /></p>



<p>Infrastruktura służby zdrowia jest często nie tak nowoczesna, jakbyśmy sobie tego życzyli. Są ku temu istotne powody. Przede wszystkim pieniądze idą na leczenie pacjentów, a nie na poprawienie infrastruktury, ale również zmiany w infrastrukturze są trudne. <br /><br /></p>



<p>Trzeba upewnić się, że one są na pewno bezpieczne dla wszystkich. Lekarze ciągle używają pagerów. Pager to jest taki bardzo upośledzony telefon, który potrafi tylko powiedzieć, że ktoś próbuje się z Tobą skontaktować i żeby się dowiedzieć czego od Ciebie chce, to należy oddzwonić na konkretny numer. <br /><br /></p>



<p>Co jest oczywiście o tyle problematyczne, że jeżeli lekarz wychodzi z sali operacyjnej, w której spędził ostatnie 3 godziny, to może tam mieć np. 20 wiadomości, które w żaden sposób nie są spriorytetyzowane. Będzie musiał przejść przez nie po kolei, bo nie ma żadnych dodatkowych informacji. Dodatkowo mogę powiedzieć, że np. NHS, brytyjska służba zdrowia, jest największym odbiorcą faksów (urządzeń do przesyłania papieru na świecie). Jest to zabawne, ale też problematyczne, bo pokazuje, jak dużo rzeczy jednak ciągle dzieje się na papierze. <br /><br /></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img decoding="async" src="https://media.giphy.com/media/XGtEw26MwZNzJUy5Th/giphy.gif" alt=""/><figcaption>źródło: giphy.com</figcaption></figure></div>



<p><br /><br />Często, nawet w bardzo rozwiniętych szpitalach, część procesu ciągle jeszcze odbywa się na papierze. Każdy, kto był w polskim szpitalu, pamięta te kartki wiszące na nogach łóżka, które pokazują nasze obserwacje w ciągu doby. To sprawia, że dostęp do informacji jest powolny, bo zamiast sprawdzić dane w konkretnym systemie, to często trzeba po prostu pójść i znaleźć ten konkretny papier, na którym ta informacja jest zapisana.&nbsp;<br /><br /></p>



<p>Trzecią rzeczą wartą wspomnienia jest stan urządzeń. Jak mówię o technologiach mobilnych i wprowadzeniu aplikacji na telefon, to pomyślmy, co znaczyły technologie mobilne wcześniej w wielu szpitalach &#8211; to jest to komputer na kółkach (COW &#8211;<em> computer on wheels). </em><br /><br /></p>



<p>Jest to komputer postawiony na małej szafce, którą lekarze lub pielęgniarki pchają z sali do sali i w ten sposób są w stanie używać swoich systemów i uzupełniać informacje o pacjentach. To jest stan służby zdrowia w jednym z bardziej rozwiniętych krajów. <br /><br /></p>



<p>NHS jest tak naprawdę rozpoznawane jako jeden z najlepszych systemów zdrowotnych na świecie i ciągle, nawet tam, pojawiają się wszystkie te problemy. </p>



<p>Wydaje się, że wprowadzenie bardziej nowoczesnych rozwiązań jest o tyle istotne, że ten wpływ (z jednej strony na pacjentów, a z drugiej strony na cały system i zaoszczędzanie części kosztów systemowi) sprawia, że jesteśmy w stanie te środki realokować i poprawiać tę infrastrukturę.&nbsp;<br /><br /><br /></p>



<p><strong>A propos efektywności, na początku powiedziałaś, że środki zwykle są przekazywane na poprawę zdrowia pacjentów a nie na infrastrukturę i to wszystko brzmi logicznie. </strong><br /><br /></p>



<p><strong>Jednakże rozwiązując problem infrastruktury nie dość, że pacjent zyskuje na zdrowiu (np. alert pójdzie z większym wyprzedzeniem i nerki będzie można uratować), to przy okazji miliardy funtów będzie można zaoszczędzić. Prawdopodobnie to jest problem projektów innowacyjnych, że systemy biurokratyczne nie są w stanie wprowadzać innowacji, a jednocześnie ich&nbsp; potrzebują. </strong><br /><br /></p>



<p><strong>Często jest mylone to, na czym polega wprowadzenie innowacji i jak często pewne kroki są pomijane. Na przykład: słyszy się, że można zrobić innowację wdrażając uczenie maszynowe, to próbujemy je na siłę wdrożyć, tylko nie ma infrastruktury podstawowej, żeby to wdrożyć. Jak przygotowywałem się do tej rozmowy i czytałem o Streams, to byłem pod ogromnym wrażeniem, że to już funkcjonuje. </strong><br /><br /></p>



<p><strong>Najpierw trzeba wszystko ustabilizować, żeby infrastruktura technologiczna była przygotowana na rozwiązanie ML-owe, a później jak dane zbieramy w sposób spójny, to możemy przekazać je do trenowania modelu. Co jest ważne, nawet jak ten model powstanie, to na co on wpłynie?&nbsp;</strong><br /><br /></p>



<p>Jak chodzi o wdrożenie AI, to musimy pamiętać, że żeby modele dobrze działały, to potrzebują szerokich danych. To nie jest tak, że na podstawie samych wyników krwi, jesteśmy w stanie wykrywać, że stan pacjenta znacznie się pogarsza. Oczywiście będziemy w stanie, ale jeżeli dodatkowo będziemy mieć pełne wyniki laboratoryjne, wszystkie obserwacje, nawet notatki, które lekarze robią o stanie zdrowia pacjenta, to taki model będzie dużo skuteczniejszy. <br /><br /><br /></p>



<p>Jak dużo z tych informacji, w obecnym stanie w danej placówce szpitalnej, znajduje się na papierze? Jakbyśmy tego modelu nie trenowali, to, oczywiście bez jakiegoś rozpoznawania tekstu, on nie będzie czytał tych papierów zwłaszcza, że nie będzie miał do nich dostępu. Pierwszym aspektem jest taka technologiczna gotowość, czy w ogóle da się wprowadzać rozwiązania oraz przygotowanie środowiska, w którym model będzie działał.&nbsp;<br /><br /></p>



<p>Drugim istotnym aspektem jest to, że musimy pamiętać, że wiele systemów, z którymi my pracujemy, to są systemy publiczne, tzn. jak mówimy o brytyjskiej służbie zdrowia, to to jest służba zdrowia finansowana ze środków publicznych. Istotne jest to, że wydatki idące na tę służbę zdrowia, muszą być akceptowane przez szeroko rozumiane społeczeństwo. <br /><br /></p>



<p>Z jednej strony, Ty używasz argumentu, że tak na logikę to oczywiście ma sens, żeby inwestować w infrastrukturę, żeby tworzyć lepsze rozwiązania i one w konsekwencji sprawią, że pacjenci będą dostawać lepszą opiekę. Z drugiej jak zapytasz przeciętnego obywatela na ulicy w ankiecie: czy uważa, że te pieniądze powinny pójść do dużej firmy technologicznej, żeby stworzyła lepsze rozwiązanie, czy powinny pójść jako wynagrodzenie dodatkowych pielęgniarek, żeby tę opiekę poprawić, to wydaje mi się, że ciągle jeszcze, w dużej mierze ludzie będą za tym, żeby dofinansowywać bezpośrednio. <br /><br /></p>



<p>Bardzo ciężko jest łatać te dziury, które mamy na poziomie dużej grupy ludzi albo społeczeństwa i myśleć strategicznie. Wydaje mi się, że do tego właśnie są potrzebne dodatkowe, konkretne jednostki działające przy rządzie, które skupiają się właśnie na innowacji. W Wielkiej Brytanii przykładem takiego ciała jest <a href="https://www.nhsx.nhs.uk/" target="_blank" rel="noreferrer noopener">NHSX</a>, które skupia się właśnie na tym, jak te nowoczesne technologie wprowadzać do służby zdrowia, jak budować warstwę, w której następuje wymiana danych pomiędzy jednostkami ochrony zdrowia tak, żeby każdy pacjent będący w takim miejscu jak i jego lekarz mieli dostęp do pełnej historii.&nbsp;<br /><br /><br /></p>



<p>Z trzeciej strony w jaki sposób umożliwiać te innowacje? Wiele z projektów, nad którymi pracowaliśmy, zarówno w ramach DeepMind, jak teraz w Google, nie zdarzyłoby się, gdyby duże szpitale nie chciały pracować z firmami, nie udostępniałyby danych do celów badań. Oczywiście to są dane bez informacji identyfikacyjnych pacjentów, natomiast ciągle te ogromne zbiory danych, które te szpitale posiadają, sprawiają, że jesteśmy w stanie budować dużo lepsze modele, które w przyszłości wraz z rozwojem infrastruktury, będą w stanie być używane bezpośrednio do pomocy pacjentom.<br /><br /><br /></p>



<p><strong>Dotknijmy jeszcze jednego wątku a propos tworzenia projektów innowacyjnych, bo to jest temat, który trzeba poznać i zrozumieć. Powiedziałaś, że zaczęliśmy bardziej rozmawiać z lekarzami, pielęgniarkami, żeby lepiej ich zrozumieć. </strong><br /><br /></p>



<p><strong>Przypomina mi się tutaj anegdotka, która krąży wśród programistów: &#8222;nie po to studiowałem 5 lat informatykę, żeby rozmawiać z ludźmi&#8221;. Czasem to jest po prostu paradygmat życia wielu osób. Dążę do tego, że innowacje są możliwe, tylko i wyłącznie wtedy, kiedy zespół się interdyscyplinarny, czyli ma wiele różnych specjalizacji. Ludzie zajmują się zupełnie innymi rzeczami, np. lekarz, programista, ktoś od badań, od strony UX, prawnik itd. </strong><br /><br /></p>



<p><strong>W tym zespole trzeba jakoś się komunikować, żeby znaleźć wspólny język i to prawdopodobnie jest wyzwaniem. Na czym polegają największe praktyczne problemy i jak sobie z tym radzisz?</strong><br /><br /></p>



<p>Zespoły interdyscyplinarne są zdecydowanie tym, co jest kluczowe w tym momencie przy tego typu innowacyjnych projektach, które są w obszarach, gdzie jeszcze nie ma podobnych rozwiązań. Tu nie ma czegoś do skopiowania, jakiegoś szablonu, którym się można posłużyć. W związku z tym wiele zagadnień jest bardzo otwartych. <br /><br /></p>



<p>Oczywiście, służba zdrowia dodatkowo nakłada bardzo wysokie wymagania. To nie jest tylko to, co jest wymagane prawnie, ale my chcemy też dla samych siebie mieć pewność, że to, co robimy i jak to robimy, to jest najlepszy, najbezpieczniejszy możliwy sposób zbudowania tego rozwiązania. Jak myślimy o takich tradycyjnych projektach informatycznych, to zwykle myślimy o grupie inżynierów. </p>



<p><br /><br />Pewnie dokładamy do tego testerów, mamy <em>product managera</em>, który definiuje to, co się dzieje. Może mamy <em>program managera,</em> który zarządza tym, w jaki sposób projekt się posuwa do przodu. Jak mówimy o służbie zdrowia, to to się bardzo rozszerza, bo to nie jest tylko <em>user experience designer</em>s, to jest bardzo duża grupa <em>user experience researchers, </em>czyli ludzi, którzy pracują i testują pomysły bezpośrednio z końcowym użytkownikiem. Streams jest przykładem takiej aplikacji, która przechodzi przez wiele cykli testowania z użytkownikami, zanim dany kawałek funkcjonalności zostanie zbudowany w aplikacji. </p>



<p><br /><br />Musimy sobie zdać sprawę, że to, co w normalnych komercyjnych projektach byśmy robili, czyli np. <em>A/B testing</em> poszczególnych rozwiązań, pomysłów i udogodnień &#8211; tutaj nie może zostać zastosowane. Jeżeli budujemy jakieś rozwiązanie, to musimy mieć pewność, że na daną chwilę to jest najlepsze możliwe rozwiązanie, jakie możemy dostarczyć w ręce lekarzy. </p>



<p><br /><br />Częściowo ten <em>A/B testing</em> przeprowadzamy wcześniej, tzn. to nie jest nawet <em>A/B testing</em>, to po prostu jest 10 różnych możliwych rozwiązań, które testujemy pod kątem najniższego poziomu błędu. Musimy wziąć pod uwagę to, że produkt będzie np. używany w sytuacji, w której życie pacjenta jest zagrożone. Lekarz stoi nad łóżkiem i musi podjąć decyzję na przestrzeni sekund. Tam nie może być miejsca na niepewność i wątpliwości np. co do oznaczeń. Standardy wytwarzania oprogramowania też są inne.<br /><br /></p>



<p>Wracając do różnych ról, pojawia się rola lekarza, osoby doświadczonej wykształconej w obszarze dostarczania ochrony zdrowia, bo wiele pytań wymaga odpowiedzi nie tylko <em>product managera</em>, który definiuje dlaczego, to budujemy i jak to robimy, ale tak naprawdę osoby, która jest w stanie powiedzieć, w jaki sposób to będzie używane oraz czy to jest bezpieczne i dobre rozwiązanie.</p>



<p><br /><br /> W końcu mamy cały obszar regulacji, tzn. <em>information governance</em>, które wymaga tego, żeby dostęp do niesamowicie istotnych, wrażliwych medycznych danych pacjentów był odpowiednio chroniony przez cały okres tworzenia tego oprogramowania i po wdrożeniu rozwiązania.&nbsp;<br /><br /></p>



<p>Jakie są główne problemy?<br /><br /></p>



<p>Powiedziałabym, że główny problem jest taki, że jak myślimy o zespołach inżynierskich, to jest określona ilość metodologii, którymi one pracują, ale ogólnie to większość z nich są to zespoły, które w jakiś sposób definiują, co chcą zbudować, potem to budują, testują i wypuszczają. </p>



<p><br /><br />To podejście zderza się z ludźmi, którzy przychodzą z obszaru <em>policy </em>i <em>regulatory</em>, czyli definiowania tego sposobu pracy w obszarach ściśle regulowanych, czyli właśnie urządzenia medyczne, próby leków, gdzie to doświadczenie jest zupełnie inne. To jest dużo bardziej model standardowego <em>waterfall, </em>gdzie projekt przechodzi przez konkretne stany. Na końcu każdego stanu znajduje się ściśle określony sposób jego weryfikacji i tego, czy wszystkie wymagania zostały spełnione.<br /></p>



<p><br /><br /> Okres pomiędzy tym, kiedy dany projekt się zaczął i kiedy zostały spisane wymagania, a kiedy on zostaje wdrożony, jest dużo dłuższy. Zderzają się te dwa podejścia, w jaki sposób to łączymy i w jaki sposób będziemy to robić bezpiecznie, ale jednocześnie tak, żebyśmy byli w stanie szybko dostarczać te rozwiązania. Do tego zupełnie dodatkowy aspekt, gdzie zderza się podejście ludzi, którzy pracując w firmach technologicznych, mają pewne oczekiwania i mają swoje standardy pracy. </p>



<p><br /><br />Dla mnie część rzeczy jest oczywista, np. to, że w komunikacji w firmie jest bardzo wysoki poziom <em>transparency</em>, tego, że wiemy nad czym pracują poszczególne osoby, nawet jeżeli nie musimy tego wiedzieć, że informacja szybko przekazywana, że można zadawać pytania swoim szefom, że można nawet kwestionować ich wybory. To zderza się z ludźmi, którzy przychodzą z dużo bardziej hierarchicznej organizacji. Zdecydowanie służba zdrowia jest dużo bardziej hierarchiczna. </p>



<p><br /><br />Jak główny chirurg mówi, że tak będziemy przeprowadzać tę operację, to stażysta nie podniesie ręki i nie powie: &#8222;a bo ja myślałem, że może byśmy zrobili to trochę inaczej&#8221;. To jest dużo bliższe strukturom wojskowym, gdzie jednak hierarchia ma bardzo duże znaczenie. Jest też taki istotny kulturowy aspekt tego, w jaki sposób pracujemy, w jaki sposób się komunikujemy ze sobą. Czy to jest komunikacja szeroka i wysyłamy wszelkie informacje, czy to jest dużo bardziej zawężone i tylko te osoby, które muszą o czymś wiedzieć, to będą o tym wiedziały. </p>



<p><br /><br />Moja rola polega nie tylko na tym, żeby wesprzeć zespół inżynierów i pomóc im tworzyć konkretne rozwiązanie, ale głównie też na tym, żeby słuchać tak naprawdę. Rozumieć, w jaki różny sposób się komunikują te różne grupy i być w stanie budować mosty komunikacyjne, ułatwiać nam zrozumienie siebie. </p>



<p><br /><br />Piękno pracy w tych projektach związanych ze służbą zdrowia jest takie, że wszyscy ludzie przychodzą do nich naprawdę silnie zaangażowani. Ludzie naprawdę chcą tego, co najlepsze dla projektu, dla pacjentów i przez to każdy jest bardzo zaangażowany. </p>



<p><br /><br />Jak każdy uważa, że to, co on mówi, jest bardzo istotne dla sukcesu tego projektu, to musimy znaleźć sposób, żeby się dogadać i być w stanie jakoś jasno rozmawiać o tym, co jest krytyczne, a co jest ważne, a co tak naprawdę jest tylko dodatkowe i w jaki sposób te priorytety pomiędzy różnymi grupami rozumieć.<br /><br /><br /></p>



<p><strong>Warto tu wspomnieć o książce &#8222;Pracować inaczej&#8221; Frederica Laloux. Wyjaśniono w niej różne struktury organizacji oraz ich klasyfikacje kolorystyczne. </strong></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img decoding="async" width="240" height="360" src="https://biznesmysli.pl/wp-content/uploads/2020/06/pracowac-inaczej.jpg" alt="" class="wp-image-3710" srcset="https://biznesmysli.pl/wp-content/uploads/2020/06/pracowac-inaczej.jpg 240w, https://biznesmysli.pl/wp-content/uploads/2020/06/pracowac-inaczej-200x300.jpg 200w" sizes="(max-width: 240px) 100vw, 240px" /><figcaption><strong>&#8222;Pracować inaczej&#8221; Frederica Laloux</strong></figcaption></figure></div>



<p><br /><br /><strong>Była tam np. czerwona organizacja tj. taka bardziej wojskowa hierarchia, kiedy wszystko musi iść z góry na dół i nie ma możliwości, żeby było inaczej. Sprawa z taką organizacją jest bardzo ciężka i trudna. Warto sobie uświadomić czasem, że niektórych rzeczy się nie da zrobić albo będą wymagały znacznie więcej cierpliwości, czasu, pieniędzy itd., żeby pewne innowacje tam zacząć wprowadzać.&nbsp;</strong><br /><br /></p>



<p><strong>Porozmawialiśmy od tej strony bardziej biznesowej, strategicznej, że taka aplikacja jak Streams wydaje się być bardzo pomocna, bo po pierwsze zarządza logistyką. Wbrew pozorom te problemy, choć już powinny być opanowane, to nadal nie są albo właśnie teraz zostały dopiero zaadresowane. </strong></p>



<p><br /><br /><strong>Po drugie już ogarniając logistykę, czyli przygotowując fundamenty technologiczne, można będzie myśleć o tym, żeby wpiąć tam uczenie maszynowe i dzięki temu podejmować lepsze decyzje. Z punktu widzenia zwykłego pacjenta, czego można się spodziewać za 5-10 lat?&nbsp;</strong><br /><br /></p>



<p>Trudne pytanie, bo to nie zależy tylko do tego, co technologia może. To też zależy bardzo od tego, jaka będzie sytuacja na świecie. Nawet obecna sytuacja z koronawirusem jest świetnym przypomnieniem tego, że nie mamy kontroli nad wszystkim. </p>



<p><br /><br />Jakbym miała prognozować, to myślę, że w perspektywie najbliższych kilku lat wyraźniej będziemy widzieć rozwiązania bardzo punktowe. Pojedynczy problem jest modelowany i w pojedynczym miejscu sprawdzamy skuteczność danego modelu. Sprawdzamy, czy jesteśmy w stanie, w jakiś sposób wpłynąć na środowisko, coś lepiej zrobić w danym obszarze.&nbsp;</p>



<p>Mam nadzieję, że w perspektywie tych 10 lat te pojedyncze interwencje zaczną się zmieniać w coś, co jest dużo bardziej skalowalne. To wymaga rozwiązania wielu poważnych problemów. </p>



<p><br /><br />Wymaga tego, żebyśmy byli w stanie bezpiecznie przenosić model ze środowiska, w którym on się uczył, na inne środowiska, w których będzie używany i które mogą być nieco inne niż to środowisko, w którym został stworzony. Jak budowaliśmy część z modeli odpowiedzialnych za wykrywanie ostrego stanu nerek, to jedną z jednostek badawczych był Veteran Affairs Hospital w Stanach Zjednoczonych. </p>



<p><br /><br />Z jednej strony to jest bardzo dobre miejsce, bo posiada szeroki zbiór danych, długi okres czasowy, to bardzo wysokiej jakości placówka. Z drugiej strony populacja, która leczy się w tej placówce to jest głównie personel wojskowy albo powojskowy. W związku z tym ta różnorodność płciowa, rasowa i konkretne warunki życiowe, przez które ci ludzie przechodzili, są bardzo jednolite. </p>



<p><br /><br />W jaki sposób model wytrenowany na tych danych będzie się aplikował do zastosowania w Meksyku, w środowisku zupełnie innym, w zupełnie innej grupie społecznej? To jest jeden z ciekawych problemów, na które będziemy musieli odpowiedzieć w ciągu tych najbliższych 10 lat, jeżeli chcemy, żeby te rozwiązania były nie tylko teoretyczne, żebyśmy nie tylko byli w stanie publikować ciekawe rozwiązania tylko, żeby te rozwiązania służyły wszystkim ludziom. </p>



<p><br /><br />Taki powinien być nasz cel. Mam nadzieję, że w tym czasie bardzo poprawi się <em>screening</em>, czyli wczesne wykrywanie. Obyśmy byli w stanie przesiewowo badać całe społeczeństwo, bo wówczas wprowadzając automatyzację do tego procesu to to, co jest teraz ograniczeniem (czyli czas zwykle doświadczonego lekarza potrzebny do tego, żeby przeanalizować dane wyniki i określić, czy ten pacjent jest podwyższonego ryzyka), to się uda zredukować. Gdyby nam się udało osiągnąć nawet tylko to, to już będzie gigantyczna zmiana.</p>



<p><br /><br /> Przesuwamy tu całą ochronę zdrowia z tego, że ktoś ma raka i leczymy raka do tego, że jest w bardzo wczesnym stadium i to jest coś, co podejrzewamy, że stanie się rakiem i jesteśmy to w stanie usunąć i żadna dodatkowa terapia nie będzie potrzebna. Począwszy od programów pilotażowych, jakie teraz prowadzimy, gdzie właśnie w Indiach będziemy potencjalnie redukować ilość ludzi tracących wzrok, wyobraźmy sobie, że to będzie się działo w każdym szpitalu, każdym gabinecie, gdzie przeprowadzane są te badania. Jakbym miała prognozować, to mam nadzieję, że <em>screening </em>jako główne rozwiązanie będzie dużo powszechniejszy.<br /><br /><br /></p>



<p><strong>Bardzo dziękuję Asiu za podzielenie się Twoim doświadczeniem, opiniami, przemyśleniami. Trzymam kciuki, żeby technologię (w szczególności uczenie maszynowe, ale też całą dziedzinę IT, która się bardzo szybko rozwija) udało się połączyć w różnych strefach w taki sposób, żeby ostatecznie to człowiek na tym skorzystał. </strong></p>



<p><br /><br /><strong>Chodzi o zdrowie i o inne wymierne korzyści, które można by było do tego odnieść. Jeżeli tak nad tym pomyślimy trochę głębiej, to chyba tylko o to chodzi ostatecznie, jak nie będzie człowieka, to nie będzie komu z tego korzystać.</strong><br /><br /></p>



<p>Super, bardzo Ci dziękuję za rozmowę.<br /><br /><br /></p>



<hr class="wp-block-separator"/>



<p><br /><br /><strong>Gdy maszyny popełniają błędy, zwykle jest im trudniej wybaczyć niż ludziom. Nawet jeżeli tych błędów będzie mniej. Z punktu widzenia logicznego wydaje się, że trzeba się pogodzić z tym, że algorytmy potrafią lepiej pewne rzeczy przewidywać. </strong></p>



<p><br /><br /><strong>Czuję, że to ma sens, jeżeli chodzi o nauczenie algorytmów w ten czy inny sposób, żeby statycznie rzecz biorąc, popełniać mniej błędów. Mało tego, jest też szereg zalet. Ten algorytm jak raz się nauczy, to on już jest dostępny wszędzie. Lekarz, który przez 5, 10, 20, 50 lat się uczy to jest po prostu jeden człowiek, który ma dość ograniczoną uwagę i nie może się rozproszyć po całym świecie, a taki program jak najbardziej może. </strong></p>



<p><br /><br /><strong>To oznacza, że warto pójść w tym kierunku, żeby zaufać coraz bardziej maszynom, bo te algorytmy wskazują technicznie, że mogą sobie poradzić całkiem dobrze. Wszystko wskazuje na to, że ten trend zmienia się i w tym kierunku to będzie szło, że maszyny będą podejmować coraz bardziej odważniejsze decyzje. Oczywiście będą również popełniać błędy. </strong></p>



<p><br /><br /><strong>Myślę, że też to się zmieni w taki sposób, że dla osób w młodszym wieku będzie to już oczywiste, że tak jest, a osoby w starszym wieku nie będą miały aż tak dużo do wyboru. Po prostu to jest tzw. przesunięcie decyzyjności w czasie, że coraz młodsze pokolenie decyduje. W ten sposób to się przesunie.&nbsp;</strong><br /><br /></p>



<p><strong>Wyobraźmy sobie taką sytuację, że nastąpił ten moment, kiedy algorytmy przejęły władzę, jeżeli chodzi o podejmowanie decyzji. Mówimy teraz o temacie medycznym, że potrafimy zaprognozować tę czy inną chorobę, zarekomendować użycie wybranego leku. </strong></p>



<p><br /><br /><strong>Człowiek łatwo się przyzwyczaja, jest dość leniwy i to oznacza, że coraz mniej osób będzie studiować np. medycynę. Tu pojawia się właśnie kluczowe pytanie, czy to jest dobrze, że to dąży w tym kierunku? Z jednej strony wydaje się, że w tej chwili byłoby bardzo głupim rozwiązaniem, żeby całkowicie ignorować automatyzację, nie wykorzystywać tej technologii, którą już dysponujemy. Z drugiej strony skrajność, w której tylko maszyny podejmują decyzje, może być również przerażająca. Jakie jest Twoje zdanie?</strong> <br /><br /></p>
<p>Artykuł <a href="https://biznesmysli.pl/jak-google-i-deepmind-wspieraja-sluzbe-zdrowia/">Jak Google i DeepMind wspierają służbę zdrowia?</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/jak-google-i-deepmind-wspieraja-sluzbe-zdrowia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Łukasz Siatka &#8211; ex Googler, Facebooker</title>
		<link>https://biznesmysli.pl/lukasz-siatka-ex-googler-facebooker/</link>
					<comments>https://biznesmysli.pl/lukasz-siatka-ex-googler-facebooker/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 04 Jun 2018 03:00:54 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[adapteva]]></category>
		<category><![CDATA[dataworkshop]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[movidius]]></category>
		<category><![CDATA[neon]]></category>
		<category><![CDATA[Stephen Hawking]]></category>
		<category><![CDATA[TPU]]></category>
		<category><![CDATA[Łukasz Siatka]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=1009</guid>

					<description><![CDATA[<p>Z tego odcinka dowiesz się: czym zajmuje się Łukasz Siatka, co to jest to TPU i jakie problemy rozwiązuje, czy TPU ma przewagę nad GPU, jak w praktyce wykorzystywane jest TPU, co zrobić, żeby wejść w świat deep learningu, kiedy opłaca się kupować własną kartę, a kiedy lepiej przejść na chmurę, na czym polega rola sound engineera, jakie są największe wyzwania w uczeniu maszynowym, które obszary w uczeniu maszynowym rozwijają się najszybciej, jak wdrożyć uczenie maszynowe w swoim biznesie, czym zajmuje się organizacja Machine Learning Study Group, jakie są stanowiska w Facebooku, czy podobnej wielkości firmach, związane z uczeniem maszynowym i analizą, jakich kompetencji wymagają, od czego zacząć naukę uczenia maszynowego i gdzie się uczyć. Google już rok temu zapowiedział strategię AI First. Zabrał się za to na poważnie, ilość projektów, który w ten czy inny sposób wykorzystują uczenie maszynowe rośnie w postępie wykładniczym. Nie tylko Google, ale również inne firmy działają podobnie. Na ostatniej konferencji Google IO CEO Google Sundar Pichai zaprezentował tzw. Google Duplex. Bardzo polecam obejrzenie krótkiego wideo. https://www.youtube.com/watch?v=bd1mEm2Fy08 Idea jest prosta: mamy wirtualnego asystenta, w tym przypadku jest to Google Assistant, który będzie robił coraz więcej za Ciebie, w końcu jest asystentem. Może na przykład zarezerwować wizytę u fryzjera, czy stolik w restauracji. Ta rozmowa była bardzo ciekawa, nie trywialna, w szczególności jeżeli chodzi o restaurację. Można z niej wyciągnąć taki wniosek, że po pierwsze: Google Assistant próbuje udawać człowieka, by ten, kto odbierze nie czuł, że dzwoni bot, po drugie: staje się coraz bardziej intelektualny, czyli fajnie łapie kontekst, udaje mu się zadawać fajne pytania, które zależą od tego, co usłyszy od rozmówcy, po trzecie: może się wydarzyć, że po obu stronach będą boty, które będą udawać ludzi – brzmi to ciekawie, ale jest możliwe. Nagrałem już odcinek, który więcej mówi o asystentach i jak to może zmienić naszą przyszłość. Myślę, że jest to kwestia czasu, być może 5 lat, może troszkę więcej. Tacy asystenci zaczną wchodzić w nasze życie i staną się na tyle powszechni, że już po jakimś krótkim czasie nie będziemy w stanie wyobrazić sobie życia bez takich asystentów. Podobnie mamy teraz z komórkami, kto jeszcze 10 lat temu nie mógł przeżyć bez komórki, a jak to jest teraz? No właśnie. Dzisiaj chciałem szerzej poruszyć temat infrastruktury, również zająć się Google. Już dawno temu chciałem zaprosić Łukasza, który jest dzisiejszym gościem, jednak pewne ograniczenia, nie do końca zależne od Łukasza, spowodowały, że trochę się to przeciągnęło w czasie. Dobra wiadomość jest taka, że udało się nam spotkać i nagrać odcinek. Łukasz wcześniej pracował w Google, teraz pracuje w Facebooku, wykonuje wiele różnych ciekawych rzeczy, dla mnie jest taką skrzynką pełną wiedzy, bo potrafi odpowiedzieć na wszystkie pytania. Być może ma jakieś limity, ale jak na razie nie udało mi się go zaskoczyć, jego wiedza jest tak szeroka, że nasze rozmowy mogłyby trwać wieczność. Co jakiś czas mamy okazję wspólnie działać na różnych eventach, hackatonach i są to zawsze bardzo inspirujące spotkania i rozmowy, dlatego pomyślałem, że fajnie byłoby zaprosić Łukasza, żeby podzielić się z większym gronem. Ta rozmowa była momentami bardzo techniczna, ale się nie przerażajcie, bo było również sporo wskazówek biznesowych, jak i edukacyjnych, czyli jak się zabrać do uczenia maszynowego. Cześć Łukaszu. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz? Cześć. Jestem Łukasz, mieszkam w Krakowie, ale sporo podróżuję. Zawodowo łączę kropki, czyli zmieniam świat upraszczając procesy, tworząc nowe, wdrażając innowacyjne technologie do branż odległych od informatyki i mało podatnych do tej pory na automatyzację. Dosyć często wywracam też ludzkie życie do góry nogami, czyli uczę ludzi zadawać pytania – aktualnie jestem w Facebooku, ale współpracuje też z firmą Lonsley, która wdraża innowacyjne rozwiązania z zakresu uczenia maszynowego i sztucznej inteligencji w wielu średniej wielkości firmach i korporacjach. Bardzo dziękuję Łukaszu, że znalazłeś chwilę, żeby porozmawiać. Myślę, że to będzie bardzo interesująca rozmowa – zacznę od standardowego pytania: co ostatnio czytałeś? Czytam dużo – może to się wydawać dość dziwne w kontekście aktualnego trendu, ale przeważająca większość treści, które konsumuję to publikacje naukowe. Ostatnie trzy, które czytałem w minionym tygodniu i które uznałem za warte uwagi, to przede wszystkim „Exploration by Distribution Reinforcement Learning” to publikacja autorstwa Yunhao Tang, Shipra Agrawal. Autorzy prezentują w niej dość ciekawe podejście do tematu rozproszonego uczenia ze wzmacnianiem, czyli „reinforcement learning” i w tej publikacji korzystają z wnioskowanie bayesowskiego w połączeniu z głębokim uczeniem ze wzmacnianiem, czyli deep reinforcement learning. Drugą publikacją, którą ostatnio czytałem jest „Multimodal Machine Translation with Reinforcement Learning”, która powstała na Carnegie Mellon University w Stanach Zjednoczonych. W tej publikacji autorzy pokazują podejście do multimodalnego tłumaczenia maszynowego, które korzysta nie tylko z tekstu, ale i z obrazu. Autorzy sprawdzają ich algorytm na zbiorze Multi30K, który zawiera opisy obrazków po angielsku i niemiecku, ale też korzystają ze zbioru Flickr30K, który zawiera same obrazki. Model ten przyjmuje dwa kanały wejściowe – jeden z obrazem, jeden z tekstem i używa metryk ewaluacji translacji jako nagrody, uzyskując lepsze wyniki niż tradycyjne metody uczenia nadzorowanego. Trzecią publikacją, którą ostatnio czytałem jest „Zero-Shot Visual Imitation” autorstwa kilku specjalistów z UC Berkeley z Kalifornii. Oni przedstawiają, że aktualnie dominujący paradygmat uczenia się naśladowania, czyli tego imitation learning, bardzo mocno zależy od nadzoru przez eksperta, który kieruje tego agenta uczącego się, czego i w jaki sposób ma się uczyć naśladować. W tej publikacji przedstawione zostało alternatywne podejście, które bazuje na tym, że agent uczący się, sam eksploruje najpierw świat bez jakiegokolwiek nadzoru, a dopiero potem dokłada nową politykę wykonywania akcji, a rolą eksperta w tym wszystkim jest jedynie komunikacja oczekiwań w trakcie działania programu. Bardzo fajne publikacje – dość mocno techniczne. Myślę, że część osób będzie bardzo zainteresowana, postaram się podlinkować te publikacje w notatkach. Pracowałeś wcześniej w Google, czym się tam zajmowałeś? Oczywiście opowiedz tylko o tym, o czym możesz powiedzieć, bo wiem, że same ciekawe rzeczy robiłeś. Przez ten czas miałem przyjemność działać z wieloma wspaniałymi ludźmi z kilku zespołów – mogę wręcz powiedzieć, że robiłem praktycznie wszystko. Organizowałem wydarzenia, zarządzałem projektami nietechnicznymi, byłem technicznym project managerem, zajmowałem się też akustyką pomieszczeń na wydarzeniach, pracowałem nad kilkoma projektami związanymi z przetwarzaniem audio. Miałem też przyjemność prowadzić kilka eksperymentów związanych z nowoczesnymi metodami przetwarzania dźwięku, jak i pracować nad produktem w zespołach z kategorii ATAP, czyli Advanced Technology and Projects – pracujących między innymi nad Soli i TPU. TPU to akcelerator obliczeniowy, który zaprojektowany został do wydajnego wykonywania operacji na tensorach, przez co świetnie sprawdza się w wielu kwestiach związanych z uczeniem maszynowym. Zaś Soli to taki specyficzny interfejs, pozwalający na bezdotykową interakcję, która bazuje na gestach. Układ ten emituje fale elektromagnetyczne, a przedmioty, które znajdują się w zasięgu tych fal, rozpraszają tę energię – część z niej odbijają w stronę anteny czegoś, co roboczo możemy nazwać radarem. Przetwarzane są wszystkie właściwości tego sygnału, między innymi niesiona energia, opóźnienie – analizowane też są przesunięcie fazowe czy poziom modulacji częstotliwości. Mając te informacje, możemy odczytać wiele parametrów na temat obiektów, jak ich charakterystykę, dynamikę, wliczając w to kształt, rozmiar, materiał z którego są zbudowane, orientację, odległość i szybkość przemieszczania się. Soli ma przede wszystkim zastosowanie w technologiach ubieralnych, czyli wearables, czy też w szeroko pojętym internecie rzeczy zwanym roboczo IOT. Dzięki Soli urządzenia takie jak na przykład Twój telefon, będą mogły być spokojnie w kieszeni, a Ty będziesz mógł sterować tym urządzeniem, wykonując gesty w powietrzu albo chwytając się za guzik w płaszczu. Soli w połączeniu z rozszerzoną rzeczywistością pozwala na tworzenie nowych interfejsów – interfejsów przyszłości klasy człowiek-komputer. Pociągnę ten wątek dalej, zwłaszcza, jeżeli chodzi TPU, ale najpierw dodam trochę kontekstu – jest bardzo dużo newsów o tym, jak sztuczna inteligencja osiąga kolejne sukcesy i zawdzięczamy to przede wszystkim deep learningowi. Jest wiele wyzwań – między innymi potrzebne są dane. Drugie wyzwanie jest takie, że potrzebna jest moc obliczeniowa. Myślę, że wiele osób kojarzy karty graficzne GPU w Nvidii i zwykle to się wprost kojarzy się z tym, że trzeba kupować karty graficzne. Natomiast Google wprowadził nowy alternatywny produkt – to jest właśnie TPU. Czy mógłbyś wyjaśnić, tak bardzo upraszczając, czym jest to TPU i dlaczego została stworzone, jaki ma rozwiązać problem? TPU jest akceleratorem obliczeniowym, który został zaprojektowany do wydajnego wykonywania operacji na tensorach, czyli wektorach w reprezentacji macierzowej, przez co świetnie sprawdza się w wielu kwestiach związanych z uczeniem maszynowym. Ze względu na to, że jest to układ projektowany tylko i wyłącznie do wykonywania tych operacji, a nie jak w przypadku na przykład procesorów czy kart graficznych, które pojawiały się wcześniej w machine learningu czy w deep learningu, ma on świetną wydajność i efektywność prądową – niedawno wyszła już trzecia rewizja tego układu i jest około 50 razy bardziej wydajna od układów GPU porównując topowe układy, licząc układ w układ. Jest przy tym ponad 100-krotnie bardziej wydajna per wat zużytej energii, a w stosunku do CPU, ta różnica jest jeszcze większa. Początki TPU sięgają okolic 2005-2006 roku – wtedy kilka zespołów w Google’u rozpoczęło pracę nad układami wspierającymi obliczenia. Projektowanie układów ASIC zazwyczaj trwa latami i nie inaczej było tutaj – premiera była planowana na okolicę roku 2020, a gdy na przełomie roku 2012 i 2013 było jasne. że taki układ musi powstać możliwie szybko, by firma była w stanie uniknąć wielomiliardowych wydatków związanych z rosnącym zapotrzebowaniem na moc obliczeniową i związaną z tym dodatkowo infrastrukturą, która byłaby konieczna, zdecydowano się rozszerzyć zespół i rozpocząć pracę nad układem, który miał za zadanie bardzo szybko wykonywać operacje niskiej precyzji, dokładnie 8-bitowe, na macierzach. Mimo niskiego taktowania ten układ bardzo dobrze sobie radzi. Już w drugiej połowie 2014 roku, po około 15-17 miesiącach pracy, pojawiło się coś, co nazywamy TPU pierwszej generacji. Zostało przedstawione na Google I/O dopiero w 2016 roku, jako element obecny w infrastrukturze firmy od ponad roku. Wszystko co dalej, to tak naprawdę tylko konsekwentny rozwój istniejącego produktu – nie jest to też oczywiście jedyny tego typu produkt, bo Google, czy też teraz Alphabet, rozwija też układy do efektywnego przetwarzania sieci neuronowych, grafów, jak i układy do kryptografii. Z grubsza uczenie maszynowe ma dwie fazy, dwa procesy. Pierwszy jest, kiedy model trenujemy – to jest zwykle bardzo czasochłonne, a drugi, kiedy robimy predykcję. Pamiętam jak mniej więcej 2 lata temu byłem na konferencji, w trakcie której występował przedstawiciel Nvidii i opowiadał o karcie graficznej GPU, no i musiało paść oczywiście pytanie o TPU, co oni o tym myślą, czy to oznacza, że teraz przegrywają. Wtedy to była pierwsza generacja dostępna w tamtych czasach publicznie i człowiek z Nvidii odpowiedział, że TPU pierwszej generacji jest lepsza w tej drugiej fazie, czyli kiedy robimy predykcję, ale gorsza w tej pierwszej, kiedy trenujemy. Google podobnie odpowiedział w temacie wersji drugiej TPU, że tam zostało to dość mocno zoptymalizowane. Powiedz, jak to widzisz, czy teraz TPU wygrywa w dwóch fazach? Przede wszystkim jest to układ, który nie musi mieć przeznaczonych bloków do tego, by przetwarzać grafikę. TPU zajmuje się tylko i wyłącznie przetwarzaniem informacji wektorowych, co zawdzięcza też odpowiedniej architekturze i dzięki temu można redukować zużycie energii i poprawiać wydajność w obliczeniach niskiej precyzji. TPU to też nie jest akcelerator, który ma za zadanie liczyć coś na przykład w 32 bitach czy w 16, on został zaprojektowany do tego, by mieć maksymalnie dobrą wydajność w obliczeniach niskiej precyzji właśnie w 8 bitach. Poza tym trzeba też zwrócić uwagę na to, że przedstawiciel danej firmy nie jest w stanie wypowiadać się krytycznie o produkcie, który oferuje jego firma, bo wtedy można byłoby go określić jako kiepskiego sprzedawcę. Nawet jeżeli porównamy na przykład TPU drugiej generacji z GPU z rodziny Pascal albo chociażby TPU trzeciej generacji z GPU z nadchodzących rodzin Volta albo Turing i Ampere sytuacja nie ulega zmianie. Przewaga TPU czy też generalnie dedykowanych układów do obliczeń jest ponad 50-krotna nad rozwiązaniami GPU. Warto też wspomnieć, że tak naprawdę Google nie jest jedyną firmą, która zajmuje się tworzeniem rozwiązań do obliczeń, zarówno Amazon, jak i Facebook również pracują nad swoimi układami. Facebook swego czasu współpracował z Nervana Systems nad układem, który miał efektywnie przetwarzać konwolucyjne sieci neuronowe i działało to całkiem dobrze, aczkolwiek żaden inny framework poza Neonem, który został stworzony przez Nervana Systems, nie dorobił się...</p>
<p>Artykuł <a href="https://biznesmysli.pl/lukasz-siatka-ex-googler-facebooker/">Łukasz Siatka &#8211; ex Googler, Facebooker</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1h1bze wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm33-lukasz-siatka-ex-googler-facebooker" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>Z tego odcinka dowiesz się:</p>
<ul>
<li>czym zajmuje się Łukasz Siatka,</li>
<li>co to jest to TPU i jakie problemy rozwiązuje,</li>
<li>czy TPU ma przewagę nad GPU,</li>
<li>jak w praktyce wykorzystywane jest TPU,</li>
<li>co zrobić, żeby wejść w świat deep learningu,</li>
<li>kiedy opłaca się kupować własną kartę, a kiedy lepiej przejść na chmurę,</li>
<li>na czym polega rola sound engineera,</li>
<li>jakie są największe wyzwania w uczeniu maszynowym,</li>
<li>które obszary w uczeniu maszynowym rozwijają się najszybciej,</li>
<li>jak wdrożyć uczenie maszynowe w swoim biznesie,</li>
<li>czym zajmuje się organizacja Machine Learning Study Group,</li>
<li>jakie są stanowiska w Facebooku, czy podobnej wielkości firmach, związane z uczeniem maszynowym i analizą, jakich kompetencji wymagają,</li>
<li>od czego zacząć naukę uczenia maszynowego i gdzie się uczyć.</li>
</ul>
<p><span style="font-weight: 400;">Google już rok temu zapowiedział strategię <a href="https://www.youtube.com/watch?v=5WRJYEA-mwY">AI First</a>. Zabrał się za to na poważnie, ilość projektów, który w ten czy inny sposób wykorzystują uczenie maszynowe rośnie w postępie wykładniczym. Nie tylko Google, ale również inne firmy działają podobnie. Na ostatniej konferencji Google IO CEO Google Sundar Pichai zaprezentował tzw. Google Duplex. </span><span style="font-weight: 400;">Bardzo polecam obejrzenie krótkiego wideo. </span></p>
<p>https://www.youtube.com/watch?v=bd1mEm2Fy08</p>
<p><span style="font-weight: 400;">Idea jest prosta: mamy wirtualnego asystenta, w tym przypadku jest to Google Assistant, który będzie robił coraz więcej za Ciebie, w końcu jest asystentem. Może na przykład zarezerwować wizytę u fryzjera, czy stolik w restauracji. Ta rozmowa była bardzo ciekawa, nie trywialna, w szczególności jeżeli chodzi o restaurację. Można z niej wyciągnąć taki wniosek, że po pierwsze: Google Assistant próbuje udawać człowieka, by ten, kto odbierze nie czuł, że dzwoni bot, po drugie: staje się coraz bardziej intelektualny, czyli fajnie łapie kontekst, udaje mu się zadawać fajne pytania, które zależą od tego, co usłyszy od rozmówcy, po trzecie: może się wydarzyć, że po obu stronach będą boty, które będą udawać ludzi – brzmi to ciekawie, ale jest możliwe. </span></p>
<p><span style="font-weight: 400;">Nagrałem już <a href="/google-wants-democratize-ai">odcinek</a>, który więcej mówi o asystentach i jak to może zmienić naszą przyszłość. Myślę, że jest to kwestia czasu, być może 5 lat, może troszkę więcej. Tacy asystenci zaczną wchodzić w nasze życie i staną się na tyle powszechni, że już po jakimś krótkim czasie nie będziemy w stanie wyobrazić sobie życia bez takich asystentów. Podobnie mamy teraz z komórkami, kto jeszcze 10 lat temu nie mógł przeżyć bez komórki, a jak to jest teraz? No właśnie. </span></p>
<p><span style="font-weight: 400;">Dzisiaj chciałem szerzej poruszyć temat infrastruktury, również zająć się Google. Już dawno temu chciałem zaprosić Łukasza, który jest dzisiejszym gościem, jednak pewne ograniczenia, nie do końca zależne od Łukasza, spowodowały, że trochę się to przeciągnęło w czasie. Dobra wiadomość jest taka, że udało się nam spotkać i nagrać odcinek. Łukasz wcześniej pracował w Google, teraz pracuje w Facebooku, wykonuje wiele różnych ciekawych rzeczy, dla mnie jest taką skrzynką pełną wiedzy, bo potrafi odpowiedzieć na wszystkie pytania. Być może ma jakieś limity, ale jak na razie nie udało mi się go zaskoczyć, jego wiedza jest tak szeroka, że nasze rozmowy mogłyby trwać wieczność. </span></p>
<p><span style="font-weight: 400;">Co jakiś czas mamy okazję wspólnie działać na różnych eventach, hackatonach i są to zawsze bardzo inspirujące spotkania i rozmowy, dlatego pomyślałem, że fajnie byłoby zaprosić Łukasza, żeby podzielić się z większym gronem. Ta rozmowa była momentami bardzo techniczna, ale się nie przerażajcie, bo było również sporo wskazówek biznesowych, jak i edukacyjnych, czyli jak się zabrać do uczenia maszynowego.</span></p>
<p><span id="more-1009"></span></p>
<hr />
<p><b>Cześć Łukaszu. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz?</b></p>
<p>Cześć. Jestem <a href="https://www.linkedin.com/in/estrax/">Łukasz</a>, mieszkam w Krakowie, ale sporo podróżuję. Zawodowo łączę kropki, czyli zmieniam świat upraszczając procesy, tworząc nowe, wdrażając innowacyjne technologie do branż odległych od informatyki i mało podatnych do tej pory na automatyzację. Dosyć często wywracam też ludzkie życie do góry nogami, czyli uczę ludzi zadawać pytania – aktualnie jestem w Facebooku, ale współpracuje też z firmą <a href="http://lonsley.com/">Lonsley</a>, która wdraża innowacyjne rozwiązania z zakresu uczenia maszynowego i sztucznej inteligencji w wielu średniej wielkości firmach i korporacjach.</p>
<p><b>Bardzo dziękuję Łukaszu, że znalazłeś chwilę, żeby porozmawiać. Myślę, że to będzie bardzo interesująca rozmowa – zacznę od standardowego pytania: co ostatnio czytałeś?</b></p>
<p>Czytam dużo – może to się wydawać dość dziwne w kontekście aktualnego trendu, ale przeważająca większość treści, które konsumuję to publikacje naukowe. Ostatnie trzy, które czytałem w minionym tygodniu i które uznałem za warte uwagi, to przede wszystkim „<a href="https://arxiv.org/pdf/1805.01907.pdf">Exploration by Distribution Reinforcement Learning</a>” to publikacja autorstwa Yunhao Tang, Shipra Agrawal. Autorzy prezentują w niej dość ciekawe podejście do tematu rozproszonego uczenia ze wzmacnianiem, czyli „reinforcement learning” i w tej publikacji korzystają z wnioskowanie bayesowskiego w połączeniu z głębokim uczeniem ze wzmacnianiem, czyli deep reinforcement learning.</p>
<p>Drugą publikacją, którą ostatnio czytałem jest „<a href="https://arxiv.org/pdf/1805.02356.pdf">Multimodal Machine Translation with Reinforcement Learning</a>”, która powstała na Carnegie Mellon University w Stanach Zjednoczonych. W tej publikacji autorzy pokazują podejście do multimodalnego tłumaczenia maszynowego, które korzysta nie tylko z tekstu, ale i z obrazu. Autorzy sprawdzają ich algorytm na zbiorze Multi30K, który zawiera opisy obrazków po angielsku i niemiecku, ale też korzystają ze zbioru Flickr30K, który zawiera same obrazki.</p>
<p><a href="https://arxiv.org/pdf/1805.02356.pdf" target="_blank" rel="noopener noreferrer"><img decoding="async" class="size-full wp-image-1012" src="https://biznesmysli.pl/wp-content/uploads/2018/06/multimodal_machine_translation_task.jpg" alt="WMT18 multimodal machine translation task" width="1027" height="506" srcset="https://biznesmysli.pl/wp-content/uploads/2018/06/multimodal_machine_translation_task.jpg 1027w, https://biznesmysli.pl/wp-content/uploads/2018/06/multimodal_machine_translation_task-300x148.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2018/06/multimodal_machine_translation_task-1024x505.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2018/06/multimodal_machine_translation_task-768x378.jpg 768w" sizes="(max-width: 1027px) 100vw, 1027px" /></a></p>
<p>Model ten przyjmuje dwa kanały wejściowe – jeden z obrazem, jeden z tekstem i używa metryk ewaluacji translacji jako nagrody, uzyskując lepsze wyniki niż tradycyjne metody uczenia nadzorowanego.</p>
<p>Trzecią publikacją, którą ostatnio czytałem jest „<a href="https://arxiv.org/pdf/1804.08606.pdf">Zero-Shot Visual Imitation</a>” autorstwa kilku specjalistów z UC Berkeley z Kalifornii. Oni przedstawiają, że aktualnie dominujący paradygmat uczenia się naśladowania, czyli tego <em>imitation learning</em>, bardzo mocno zależy od nadzoru przez eksperta, który kieruje tego agenta uczącego się, czego i w jaki sposób ma się uczyć naśladować. W tej publikacji przedstawione zostało alternatywne podejście, które bazuje na tym, że agent uczący się, sam eksploruje najpierw świat bez jakiegokolwiek nadzoru, a dopiero potem dokłada nową politykę wykonywania akcji, a rolą eksperta w tym wszystkim jest jedynie komunikacja oczekiwań w trakcie działania programu.</p>
<p><iframe title="Knot-tying Task (ICLR 2018: Zero-Shot Visual Imitation)" width="960" height="540" src="https://www.youtube.com/embed/XrlfJvgxANk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Bardzo fajne publikacje – dość mocno techniczne. Myślę, że część osób będzie bardzo zainteresowana, postaram się podlinkować te publikacje w notatkach. Pracowałeś wcześniej w Google, czym się tam zajmowałeś? Oczywiście opowiedz tylko o tym, o czym możesz powiedzieć, bo wiem, że same ciekawe rzeczy robiłeś.</b></p>
<p>Przez ten czas miałem przyjemność działać z wieloma wspaniałymi ludźmi z kilku zespołów – mogę wręcz powiedzieć, że robiłem praktycznie wszystko. Organizowałem wydarzenia, zarządzałem projektami nietechnicznymi, byłem technicznym project managerem, zajmowałem się też akustyką pomieszczeń na wydarzeniach, pracowałem nad kilkoma projektami związanymi z przetwarzaniem audio. Miałem też przyjemność prowadzić kilka eksperymentów związanych z nowoczesnymi metodami przetwarzania dźwięku, jak i pracować nad produktem w zespołach z kategorii ATAP, czyli Advanced Technology and Projects – pracujących między innymi nad <a href="https://atap.google.com/soli/">Soli</a> i <a href="https://cloud.google.com/tpu/">TPU</a>.</p>
<p><iframe title="Welcome to Project Soli" width="960" height="540" src="https://www.youtube.com/embed/0QNiZfSsPc0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>TPU to akcelerator obliczeniowy, który zaprojektowany został do wydajnego wykonywania operacji na tensorach, przez co świetnie sprawdza się w wielu kwestiach związanych z uczeniem maszynowym.</p>
<p>Zaś Soli to taki specyficzny interfejs, pozwalający na bezdotykową interakcję, która bazuje na gestach. Układ ten emituje fale elektromagnetyczne, a przedmioty, które znajdują się w zasięgu tych fal, rozpraszają tę energię – część z niej odbijają w stronę anteny czegoś, co roboczo możemy nazwać radarem. Przetwarzane są wszystkie właściwości tego sygnału, między innymi niesiona energia, opóźnienie – analizowane też są przesunięcie fazowe czy poziom modulacji częstotliwości. Mając te informacje, możemy odczytać wiele parametrów na temat obiektów, jak ich charakterystykę, dynamikę, wliczając w to kształt, rozmiar, materiał z którego są zbudowane, orientację, odległość i szybkość przemieszczania się.</p>
<p>Soli ma przede wszystkim zastosowanie w <a href="https://pl.wikipedia.org/wiki/Wearables">technologiach ubieralnych</a>, czyli wearables, czy też w szeroko pojętym internecie rzeczy zwanym roboczo IOT. Dzięki Soli urządzenia takie jak na przykład Twój telefon, będą mogły być spokojnie w kieszeni, a Ty będziesz mógł sterować tym urządzeniem, wykonując gesty w powietrzu albo chwytając się za guzik w płaszczu. Soli w połączeniu z rozszerzoną rzeczywistością pozwala na tworzenie nowych interfejsów – interfejsów przyszłości klasy człowiek-komputer.</p>
<p><iframe title="Wearables: The future of everything. | Joanna Berzowska | TEDxYouth@Montreal" width="960" height="540" src="https://www.youtube.com/embed/NiBMgpUAHt4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Pociągnę ten wątek dalej, zwłaszcza, jeżeli chodzi TPU, ale najpierw dodam trochę kontekstu – jest bardzo dużo newsów o tym, jak sztuczna inteligencja osiąga kolejne sukcesy i zawdzięczamy to przede wszystkim deep learningowi. </b></p>
<p><b>Jest wiele wyzwań – między innymi potrzebne są dane. Drugie wyzwanie jest takie, że potrzebna jest moc obliczeniowa. Myślę, że wiele osób kojarzy karty graficzne GPU w Nvidii i zwykle to się wprost kojarzy się z tym, że trzeba kupować karty graficzne. </b></p>
<p><b>Natomiast Google wprowadził nowy alternatywny produkt – to jest właśnie TPU. Czy mógłbyś wyjaśnić, tak bardzo upraszczając, czym jest to TPU i dlaczego została stworzone, jaki ma rozwiązać problem?</b></p>
<p>TPU jest akceleratorem obliczeniowym, który został zaprojektowany do wydajnego wykonywania operacji na tensorach, czyli wektorach w reprezentacji macierzowej, przez co świetnie sprawdza się w wielu kwestiach związanych z uczeniem maszynowym. Ze względu na to, że jest to układ projektowany tylko i wyłącznie do wykonywania tych operacji, a nie jak w przypadku na przykład procesorów czy kart graficznych, które pojawiały się wcześniej w machine learningu czy w deep learningu, ma on świetną wydajność i efektywność prądową – niedawno wyszła już trzecia rewizja tego układu i jest około 50 razy bardziej wydajna od układów GPU porównując topowe układy, licząc układ w układ. Jest przy tym ponad 100-krotnie bardziej wydajna per wat zużytej energii, a w stosunku do CPU, ta różnica jest jeszcze większa.</p>
<p>Początki TPU sięgają okolic 2005-2006 roku – wtedy kilka zespołów w Google’u rozpoczęło pracę nad układami wspierającymi obliczenia.</p>
<p><iframe title="Effective machine learning using Cloud TPUs (Google I/O &#039;18)" width="960" height="540" src="https://www.youtube.com/embed/zEOtG-ChmZE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Projektowanie układów ASIC zazwyczaj trwa latami i nie inaczej było tutaj – premiera była planowana na okolicę roku 2020, a gdy na przełomie roku 2012 i 2013 było jasne. że taki układ musi powstać możliwie szybko, by firma była w stanie uniknąć wielomiliardowych wydatków związanych z rosnącym zapotrzebowaniem na moc obliczeniową i związaną z tym dodatkowo infrastrukturą, która byłaby konieczna, zdecydowano się rozszerzyć zespół i rozpocząć pracę nad układem, który miał za zadanie bardzo szybko wykonywać operacje niskiej precyzji, dokładnie 8-bitowe, na macierzach. Mimo niskiego taktowania ten układ bardzo dobrze sobie radzi. Już w drugiej połowie 2014 roku, po około 15-17 miesiącach pracy, pojawiło się coś, co nazywamy TPU pierwszej generacji.</p>
<p>Zostało przedstawione na Google I/O dopiero w 2016 roku, jako element obecny w infrastrukturze firmy od ponad roku. Wszystko co dalej, to tak naprawdę tylko konsekwentny rozwój istniejącego produktu – nie jest to też oczywiście jedyny tego typu produkt, bo Google, czy też teraz Alphabet, rozwija też układy do efektywnego przetwarzania sieci neuronowych, grafów, jak i układy do kryptografii.</p>
<p><b>Z grubsza uczenie maszynowe ma dwie fazy, dwa procesy. Pierwszy jest, kiedy model trenujemy – to jest zwykle bardzo czasochłonne, a drugi, kiedy robimy predykcję. Pamiętam jak mniej więcej 2 lata temu byłem na konferencji, w trakcie której występował przedstawiciel Nvidii i opowiadał o karcie graficznej GPU, no i musiało paść oczywiście pytanie o TPU, co oni o tym myślą, czy to oznacza, że teraz przegrywają. </b></p>
<p><b>Wtedy to była pierwsza generacja dostępna w tamtych czasach publicznie i człowiek z Nvidii odpowiedział, że TPU pierwszej generacji jest lepsza w tej drugiej fazie, czyli kiedy robimy predykcję, ale gorsza w tej pierwszej, kiedy trenujemy. Google podobnie odpowiedział w temacie wersji drugiej TPU, że tam zostało to dość mocno zoptymalizowane. Powiedz, jak to widzisz, czy teraz TPU wygrywa w dwóch fazach?</b></p>
<p>Przede wszystkim jest to układ, który nie musi mieć przeznaczonych bloków do tego, by przetwarzać grafikę. TPU zajmuje się tylko i wyłącznie przetwarzaniem informacji wektorowych, co zawdzięcza też odpowiedniej architekturze i dzięki temu można redukować zużycie energii i poprawiać wydajność w obliczeniach niskiej precyzji.</p>
<p>TPU to też nie jest akcelerator, który ma za zadanie liczyć coś na przykład w 32 bitach czy w 16, on został zaprojektowany do tego, by mieć maksymalnie dobrą wydajność w obliczeniach niskiej precyzji właśnie w 8 bitach. Poza tym trzeba też zwrócić uwagę na to, że przedstawiciel danej firmy nie jest w stanie wypowiadać się krytycznie o produkcie, który oferuje jego firma, bo wtedy można byłoby go określić jako kiepskiego sprzedawcę.</p>
<p>Nawet jeżeli porównamy na przykład TPU drugiej generacji z GPU z rodziny Pascal albo chociażby TPU trzeciej generacji z GPU z nadchodzących rodzin Volta albo Turing i Ampere sytuacja nie ulega zmianie. Przewaga TPU czy też generalnie dedykowanych układów do obliczeń jest ponad 50-krotna nad rozwiązaniami GPU. Warto też wspomnieć, że tak naprawdę Google nie jest jedyną firmą, która zajmuje się tworzeniem rozwiązań do obliczeń, zarówno Amazon, jak i Facebook również pracują nad swoimi układami.</p>
<p>Facebook swego czasu współpracował z <a href="https://en.wikipedia.org/wiki/Nervana_Systems">Nervana Systems</a> nad układem, który miał efektywnie przetwarzać konwolucyjne sieci neuronowe i działało to całkiem dobrze, aczkolwiek żaden inny framework poza <a href="https://ai.intel.com/neon/" class="broken_link">Neonem</a>, który został stworzony przez Nervana Systems, nie dorobił się porządnego wsparcia dla tych układów. Ze względu na niską popularność Neona można się domyślać, co faktycznie działo się z tymi układami.</p>
<p>Jest też między innymi <a href="http://www.adapteva.com/">Adapteva</a>, która tworzy swoje rozwiązania przy współpracy z DARPA, ale na tym rynku jest też Intel, który nie tylko pracował nad swoimi rozwiązaniami przez lata, ale posiada też takowe, które za wiele miliardów dolarów przejął wraz z zakupem firm takich jak na przykład <a href="https://www.movidius.com/" class="broken_link">Movidius</a>, który tworzy niesamowicie wydajne układy pod computer vision, które osiągają wydajność nawet 150 gigaflopów na wat, jak i Mobily, który jest izraelskim start-upem, który tworzył układy pod computer vision – są one montowane w autonomicznych pojazdach jako asystenci dla kierowcy, czy też chociażby Nervana, którą Intel nie tak dawno przejął. Inne firmy takie jaka IBM czy Tesla także pracują nad swoimi układami z większym lub mniejszym skutkiem.</p>
<p><iframe title="Parallella Introduction" width="960" height="540" src="https://www.youtube.com/embed/CYhaL8hY-0Y?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Przechodząc teraz trochę na warstwę bardziej praktyczną, bo TPU jest bardzo ciekawym rozwiązaniem, którym warto się zainteresować, podobnie jak słynne AlphaGo, który wygrał z mistrzem go i był trenowany na TPU. SEO DeepMind <a href="https://twitter.com/demishassabis/status/963324085097959424">Demis Hassabis</a> napisał na Twitterze, że TPU hardware, na którym był trenowany AlphaGo, teraz jest dostępny dla każdego.</b></p>
<p><a href="https://twitter.com/demishassabis/status/963324085097959424"><img decoding="async" class="size-full wp-image-1013" src="https://biznesmysli.pl/wp-content/uploads/2018/06/DemisHassabis.jpg" alt="Demis Hassabis" width="633" height="467" srcset="https://biznesmysli.pl/wp-content/uploads/2018/06/DemisHassabis.jpg 633w, https://biznesmysli.pl/wp-content/uploads/2018/06/DemisHassabis-300x221.jpg 300w" sizes="(max-width: 633px) 100vw, 633px" /></a></p>
<p><b> Co prawda nie jest aż tak łatwo powtórzyć ten sam wynik, bo w publikacji nie są podane wszystkie szczegóły (<a href="https://storage.googleapis.com/deepmind-media/alphago/AlphaGoNaturePaper.pdf">Alpha Go</a> i <a href="https://www.nature.com/articles/nature24270.epdf">Alpha Go Zero</a>), ale mniejsza o to. Bardziej mnie interesuje, czy kojarzysz takie przykłady z życia wzięte, oprócz AlphaGo, kiedy TPU naprawdę się sprawdził.</b></p>
<p>Z pewnością mogą to być na przykład szachy z projektu <a href="https://arxiv.org/pdf/1712.01815.pdf">AlphaZero</a>, który był następcą AlphaGo. Jednakże TPU było bardzo szeroko wykorzystywane na pewnym etapie przy trenowaniu modelu dla asysty kierowcy, a wręcz do tworzenia autonomicznego pojazdu.</p>
<p><iframe title="Google Deep Mind AI Alpha Zero Refutes 1.e4" width="960" height="720" src="https://www.youtube.com/embed/NxtEDLpJoqQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Generalnie TPU wykorzystywany jest w większości prac badawczych korzystających na przykład z sieci konwolucyjnych, wielowarstwowych perceptronów, czy też tak zwanych LSTM-ów, czyli Long Short-Term Memory Networks.</p>
<p><b>Jest bardzo fajna <a href="https://drive.google.com/file/d/0Bx4hafXDDq2EMzRNcy1vSUxtcEk/view">prezentacja</a> z 2017 roku, która zawiera więcej szczegółów technicznych, zalinkuję ją w notatkach dla osób zainteresowanych. </b></p>
<p><iframe title="Dave Patterson  Evaluation of the Tensor Processing Unit" width="960" height="540" src="https://www.youtube.com/embed/fhHAArxwzvQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Bardzo mnie interesuje trzy, może pięć takich praktycznych porad dla osób, które chcą wejść w świat deep learningu. Na co powinny zwracać uwagę. Niekoniecznie muszą być to rady techniczne, spróbuj to jakoś powiązać z biznesem, bo wiele osób z biznesu nas słucha.</b></p>
<p>Pierwsza porada: dobieraj odpowiednie narzędzia do konkretnego zadania, potrzeby czy też strategii w pracy, nie warto zamykać się na jedną technologię czy narzędzie, dlatego że korzystając z wielu z nich, oszczędzasz przede wszystkim czas, ale też pieniądze.</p>
<p>Druga porada jest taka: pamiętaj, że twoje dane są co najmniej tak samo ważne jak pieniądze, dziel tworzone przez siebie rozwiązania na mniejsze części, a te części uruchamiaj w osobnych kontenerach, które mogą być zarządzane przez systemy orchestracyjne typu kubernetes. Pamiętaj o tym, by każdą z tych części, którą wydzielisz z projektu, osobno monitorować, będzie ci znacznie łatwiej lokalizować błędy i je rozwiązywać, w szczególności na etapie skalowania projektu.</p>
<p>A trzecia porada, jest taka, że nie warto komplikować zbytnio swoich modeli, znacznie bardziej istotne jest dobranie odpowiedniego zbioru treningowego niż dostrajanie modelu, im bardziej skomplikowany jest twój model, tym większe problemy napotkasz na etapie skalowania, jak to mówią <em>simplicity is the key</em>.</p>
<p><b>Dostaję bardzo często pytanie, na które nie ma prostej odpowiedzi i teraz z przyjemnością przekieruję je do Ciebie. Może warto dodać, że TPU jest dostępne tylko jako usługa, czyli Google nie sprzedaje TPU jako sprzęt, jest dostępne na Google Cloud. Co jest lepsze, zainwestować i kupić swoją kartę czy jednak wynajmować ją w chmurze. To pytanie jest dość ogólne, prawdopodobnie ta odpowiedź brzmi: to zależy. Czy mógłbyś wskazać, kiedy opłaca się kupować własną kartę, a kiedy opłaca się przejść na chmurę.</b></p>
<p>Z jednej strony powiedziałbym, że zawsze, ale taka naprawdę trudno jest zająć jednoznaczne stanowisko w tym temacie, wszystko zależy od tego, czym dokładnie się zajmujesz i w jaki sposób korzystasz z zasobów. Na podstawie tych informacji trzeba przekalkulować, kiedy warto wybrać jedną czy drugą opcję i przerzucić się wtedy, gdy coś w aktualnej infrastrukturze Cię ogranicza, a ta inna opcja faktycznie to daje.</p>
<p>W czasach, gdy możemy wynajmować sprzęt na godziny, a czasami nawet na sekundy, posiadanie własnego sprzętu w niektórych przypadkach mija się z celem. Powoli nasze urządzenia stają się wyłącznie terminalami do pracy w swego rodzaju środowisku rozproszonym dostępnym w chmurze.</p>
<p>Z pewnością jednak polecam posiadanie własnych układów obliczeniowych wszelkim osobom i firmom, które przetwarzają delikatne dane, czyli takie, które nie mogą opuszczać data center na przykład ze względu na rozporządzenia typu RODO czy w Europie – GDPR.</p>
<p><b>To chyba jeden z najistotniejszych argumentów, kiedy opłaca się trzymać ten sprzęt lokalnie, bo jeżeli chodzi o koszt karty, to czasami nie bierze się pod uwagę kosztów ukrytych, jak rachunek za prąd. Ta karta również się starzeje, kiedyś się popsuje albo będzie mniej atrakcyjna, bo będzie można wynająć coś lepszego.</b></p>
<p>Już na tym etapie tak naprawdę można przejść kompletnie na wynajem sprzętu z tego powodu, że cena jego jest de facto na granicy opłacalności między zakupem a wynajmem, więc docieramy do momentu, w którym możemy faktycznie mieć ten sprzęt fizycznie u siebie, ale musimy zajmować się nim sami, czyli mamy sprawy związane z opłatami, z administracją sprzętem, musimy się przejmować softwarem, versus możemy wybrać wygodę i korzystać na przykład z platformy w chmurze.</p>
<p>Przy czym istotne jest to, że dopóki nie liczymy 24 godziny na dobę przez na przykład dziewięć-dziesięć miesięcy w roku, to tak naprawdę jednostki obliczeniowe w chmurze, w takiej powiedzmy podstawowej konfiguracji, w zupełności wystarczają. Tak jak wspomniałeś, sprzęt też się starzeje i gdy korzystamy ze sprzętu w chmurze, nie interesuje nas wymiana, jeżeli coś się zepsuje, też nie przerywamy obliczeń, tylko uruchamiamy nasz kontener z aplikacją na jakimś innym klastrze.</p>
<p><b> Zgadzam się z tym, że koszt staje się coraz mniejszy. Google Cloud oferuje dwukrotnie niższy koszt niż Amazon, więc to GPU staje się naprawdę tanie, ale jest jeszcze taka inna szkoła, która mówi, że tak naprawdę możesz wynająć więcej CPU. </b></p>
<p><b>Na dzień dzisiejszy Google Cloud umożliwia 96 rdzeni w wersji dla zwykłego zjadacza chleba. Idea jest taka, że odpalasz swój <a href="http://minimaxir.com/2017/07/cpu-or-gpu/">algorytm na procesorach</a>, tutaj co prawda są pewne triki, że przy większej ilości CPU to nie robi się aż takie wydajne, ale bardzo jestem ciekawy Twojej opinii. Do notatek dołączę link do artykułu, który ten temat porusza. Co o tym myślisz?</b></p>
<p>Odpowiedź jest bardzo prosta i brzmi dokładnie „to zależy” i tak naprawdę zależy od tego, czym się zajmujesz. Jeżeli korzystasz wyłącznie z modeli sekwencyjnych typu rekurencyjne sieci neuronowe, gdy zajmujesz się na przykład przetwarzaniem języka naturalnego, to oczywiście nie ma sensu inwestować w GPU, dlatego że zdecydowanie lepszym wyjściem jest inwestycja w CPU. GPU są dobre tam, gdzie możemy zrównoleglić obliczenia, a modele sekwencyjne zdecydowanie nie są takim elementem.</p>
<p>W kwestii skalowalności istotnym czynnikiem jest parametr, względem którego chcemy optymalizować to, co robimy. Jeśli przetwarzamy obrazy czy też jakieś informacje wektorowe, macierzowe, to inwestycja w GPU pozwala na optymalizację względem zasobu, który jest najbardziej ograniczony, czyli czas. Jeśli dzięki dodatkowym 200$ rocznie uzyskasz efekt w postaci redukcji czasu trwania obliczeń z jednego roku do 10 miesięcy, to chyba się to opłaca, mimo że wydasz więcej.</p>
<p><b>Google Cloud oferuje jeszcze kilka innych możliwości na trenowanie modelu. Na przykład jest dostępny <a href="https://cloud.google.com/ml-engine/">ML Engine</a>, który sam osobiście stosuję. Na początku to było bardziej TensorFlow, teraz już można trenować właściwie wszystko, włączając XGBoost.</b></p>
<p><iframe title="Real-World Machine Learning with TensorFlow and Cloud ML (GDD India &#039;17)" width="960" height="540" src="https://www.youtube.com/embed/7yylsf0ewzE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Mało, że można trenować, można też publikować, nie martwiąc się o dostępność serwera – to już jest problem Google. Czy w usługach ML Engine i <a href="https://cloud.google.com/automl/">Auto ML</a> pod spodem jest TPU?</b></p>
<p>TPU zasila znaczącą większość usług Google &#8211; na przykład search, ale tak naprawdę nie jest jedynym typem akceleratora, który jest pod spodem tychże usług, jest ich znacznie więcej. Znajduje się on także pod<br />ML Engine i Auto ML, ale to, czy zostanie on uruchomiony, zależy od dodatkowego systemu, który tym wszystkim steruje, dlatego że to on estymuje, ile obliczeń będzie potrzebnych, żeby wykonać konkretne zadanie i to właśnie ten system sprawi, że zostanie wybrane rozwiązanie, które wykona dany task najbardziej efektywnie.</p>
<p><iframe title="Introducing Cloud AutoML" width="960" height="540" src="https://www.youtube.com/embed/GbLQE2C181U?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Wspomniałeś już, że pracowałeś jako <em>sound engineer</em>, może najpierw wyjaśnij, na czym polega ta rola.</b></p>
<p>Jako <em>sound engineer</em>, czyli po polsku inżynier dźwięku, chociaż tak naprawdę nie jest to związane z polskim określeniem inżynier dźwięku, pracowałem nad dźwiękiem w wielu płaszczyznach, między innymi tworząc audio do kilku gier. Główną część mojej pracy stanowiła współpraca z artystami i ich managementami, <a href="https://soundcloud.com/estrax">pracowałem</a> z artystami jako ich <em>ghost producer</em>, czyli tworzyłem muzykę, pod którą oni się podpisywali i wydawali tą muzykę, jako ich autorską.</p>
<p>Przez pewien czas pracowałem również przy narzędziach do tworzenia muzyki, współtworząc jeden z najpopularniejszych edytorów i sekwencerów o nazwie Ableton, jak również wtyczki, generatory, efekty. Tworzyłem też półprodukty do tworzenia muzyki – tak zwane szablony, potocznie nazywane <em>template’ami</em>, oraz paczki próbek dźwiękowych, czyli <em>sample packi</em>, jak i gotowe brzmienia organizowane w <em>preset banki</em>.</p>
<p><iframe src="https://w.soundcloud.com/player/?url=https%3A//api.soundcloud.com/tracks/201960752&amp;color=%23a49c9c&amp;auto_play=false&amp;hide_related=false&amp;show_comments=true&amp;show_user=true&amp;show_reposts=false&amp;show_teaser=true&amp;visual=true" width="100%" height="450" frameborder="no" scrolling="no"></iframe></p>
<p><b>Jakie są największe wyzwania albo trudności, jeżeli chodzi o uczenie maszynowe? Możesz powiedzieć, o tym obszarze, o którym opowiadałeś, związanym z muzyką, ale też możesz rozszerzyć do szerszego kontekstu. Jak myślisz, co jest największym wyzwaniem w uczeniu maszynowym?</b></p>
<p>Przede wszystkim trzeba zwrócić uwagę na zastosowania, jest ich wiele i nad ogromną ich ilością ludzie już pracują. Jeżeli chodzi o audio, to bardzo mocno rozwijane są na przykład systemy rekomendujące muzykę, systemy resyntezy dźwięku, czy też takie, które wykorzystują dźwięk w procesie protetyki słuchu, aż po systemy zabezpieczeń bazujące na biometryce. Jeżeli chodzi o ograniczenia, to pierwszym i zarazem największym ograniczeniem są ludzie, ale nie tylko pod względem ograniczonych zasobów ludzkich, działających w tym obszarze, ale także pod względem narzucania ludzkiego myślenia maszynom, które są w stanie myśleć dużo lepiej, jeżeli człowiek ich nie kontroluje.</p>
<p>Przykładem jest na przykład <a href="https://cloud.google.com/automl/">Auto ML</a>, który osiągnął dużo lepszą efektywność nauczania następnego modelu aniżeli człowiek, gdy uczył Auto ML. Ponadto drugim takim wyzwaniem jest czas, który nieubłaganie biegnie, jak i sama energia, którą zużywamy, wartości te są coraz większe, jeżeli chodzi o zużycie energii i optymalizacja energetyczna to klucz do sukcesu.</p>
<p><b>Które obszary w uczeniu maszynowym rozwijają się najszybciej? Które rozwiną się najbardziej w ciągu 3-5 lat?</b></p>
<p>Obszary, które rozwiną się najbardziej w uczeniu maszynowym w przeciągu najbliższych trzech do pięciu lat to zdecydowanie te, na które jest i będzie największy nacisk – w tym momencie jest to przetwarzanie języka naturalnego i widzenie komputerowe. Z natury jestem optymistą, ale nie wydaje mi się, że zobaczymy zastosowanie uczenia ze wzmocnieniem, czyli reinforcement learningu, na większą skalę, chociaż osobiście bardzo bym tego chciał, w szczególności w tematach związanych z biocybernetyką i biomechaniką.</p>
<p><b>Teraz w Polsce obserwuję taki trend, że z jednej strony jest dużo osób, które słyszały o uczeniu maszynowym, myślę, przede wszystkim o osobach decyzyjnych, ale nadal nie wiedzą, jak do tego podejść, bo nikt nie chce wydawać pieniędzy czy zużywać dostępne zasoby tylko po to, żeby poeksperymentować. Podaj proszę trzy złote porady dla biznesu – jak najlepiej podejść do wdrożenia uczenia maszynowego w swoim biznesie.</b></p>
<p>Po pierwsze poznaj swój biznes, być może twoja firma nie posiada odpowiedniej ilości danych do efektywnego wdrażania uczenia maszynowego, wtedy znacznie lepiej jest znaleźć narzędzia, które ułatwią ci pracę, zamiast tracić zasoby na wdrożenie rozwiązania, które z dużym prawdopodobieństwem nie będzie działało dobrze. Po drugie zwróć uwagę na to, czy potrzebna jest ci automatyzacja zadań, czy może dostarczenie jakichś <em>insightów</em> z konkretnych informacji, przede wszystkim musisz zidentyfikować problemy, które uczenie maszynowe ma rozwiązać. Po trzecie skup się na tym, co musisz robić, a wszystko pozostałe, w tym też przygotowanie i wdrożenie rozwiązania, które wykorzystuje uczenie maszynowe, zdeleguj ekspertom, dzięki temu uzyskasz znacznie większą efektywność biznesu.</p>
<p><b>Właśnie o tym pomyślałem, bo jeśli ktoś się na tym nie zna, to ciężko mu te dwie pierwsze porady zrealizować, a trzecie porada pomoże zrealizować dwie poprzednie. Czy to oznacza, że chyba najbardziej efektywna ścieżka zbadania, gdzie jesteś, jaki ma być następny krok, to zwrócenie się do ekspertów.</b></p>
<p>Tak – zwrócenie się do ekspertów i następnie rozmowa z nimi o twoich oczekiwaniach, problemach, które napotykasz na swojej drodze biznesowej, a oni z pewnością doradzą ci, jakie rozwiązanie powinno się wdrożyć, żeby te wszystkie problemy rozwiązać i dostarczyć ci jednocześnie maksymalnie dużo informacji, na podstawie której będziesz mógł podejmować trafne decyzje biznesowe.</p>
<p><b>Dobrze, to chyba już mamy najważniejszą poradę. Te trzy wskazówki wydają się bardzo ważne, ale z ekspertami różnie bywa, znalezienie eksperta nie jest łatwe, ale przynajmniej te trzy punkty, które wymieniłeś mogą ukierunkować, o co należy zapytać tego eksperta. Zmienię znów troszkę temat, bo jesteś bardzo aktywny w działaniach, dużo podróżujesz i działasz też pro bono, organizujesz meet-upy, spotkania, hackathony. Jesteś założycielem grupy Machine Learning Study Group, która działa w Krakowie. Powiedz, czy masz jakieś konkretne plany, co chciałbyś osiągnąć, co cię motywuje do działania. </b></p>
<p>Machine Learning Study Group to organizacja, która wspiera studentów, doktorantów, ale też absolwentów studiów, specjalistów z branży IT, przedsiębiorców, inwestorów w stawianiu swoich pierwszych kroków w uczeniu maszynowym. W czasie trwania wydarzeń i szkoleń przez nas organizowanych uczestnicy dowiadują się, czym jest uczenie maszynowe, jakie wyzwania stoją przed osobami na stanowiskach <em>data scientist</em> i <em>machine learning engineer</em>, z jakich narzędzi korzystają osoby na tych stanowiskach oraz w jaki sposób efektywnie przetwarzać i prezentować dane.</p>
<p>Współpracujemy w tym momencie z czołowymi firmami i jednostkami naukowymi na świecie, takimi jak na przykład Stanford, MIT, University of Toronto, Lonsley, Google, DeepMind, Brainly. Jeżeli chodzi o nasze plany na przyszłość, zajmujemy się tym, żeby nasz wzrost był możliwie szybki i dostarczaniem absolutnie topowej wiedzy naszym kursantom.</p>
<p><b>Bardzo szlachetny cel. Wspomniałeś, że teraz pracujesz w Facebooku, powiedziałeś, czym się zajmowałeś w Google. Czy możesz zdradzić, czym się zajmujesz w Facebooku?</b></p>
<p>Moja pozycja nazywa się <em>machine learning manager</em> i dołączyłem do zespołu, który nazywa się <em>core machine learning</em>. Zarządzam zespołami pracującymi nad projektami z zakresu uczenia maszynowego, które związane są nie tylko z przetwarzaniem dźwięku, ale też wspierają w pracy zespoły nazywające się <em>video creators</em>. W Facebooku, tak jak i w wielu innych firmach tego rozmiaru, pozycji związanych z uczeniem maszynowym i analizą danych jest sporo. Różnią się one wymaganymi kompetencjami, trzy podstawowe związane z uczeniem maszynowym to <em>software engineer in machine learning</em>, <em>applied machine learning engineer</em> oraz <em>core machine learning engineer</em>.</p>
<p>Pierwsza z pozycji, czyli <em>software engineer in machine learning</em>, jest to pozycja, na której największy nacisk, poza oczywiście teoretycznymi podstawami informatyki, kładzie się przede wszystkim na wiedzę z zakresu inżynierii systemów, czyli <em>system design</em> – takie osoby nie muszą znać się na modelowaniu danych i metodach ewaluacji, aczkolwiek przydatna może okazać się podstawowa wiedza z zakresu stosowania bibliotek i algorytmów uczenia maszynowego.</p>
<p>W przypadku pozycji drugiej, czyli <em>applied machine learning engineer</em>, największy nacisk kładziony jest na umiejętność doboru i stosowania algorytmów uczenia maszynowego i korzystania z bibliotek, takich jak na przykład <a href="https://www.tensorflow.org/"><em>TensorFlow</em></a> czy <a href="http://caffe.berkeleyvision.org/"><em>Caffe</em></a>, podstawowa wiedza z zakresu inżynierii systemów, czyli <em>system design</em> oraz modelowania i ewaluacji danych jest przydatna, ale nie wymagana.</p>
<p>Ostatnie stanowisko, czyli <em>core machine learning engineer</em>, jest stanowiskiem kładącym nacisk na teoretyczny aspekt uczenia maszynowego, czyli nie tylko dlaczego to działa, ale w jaki sposób to działa i dlaczego to nie ma prawa nie działać – takie dociekanie istoty problemu przez podwójne zaprzeczenia. Stanowisko to związane jest z oczekiwaniami dotyczącymi wiedzy z zakresu statystyki, modelowania i ewaluacji danych oraz oczywiście umiejętności projektowania i stosowania algorytmów z zakresu uczenia maszynowego. Na takim stanowisku najczęściej pracują ludzie, którzy mają solidne wykształcenie kierunkowe, czyli na przykład doktorat.</p>
<p>W przypadku ludzi, którzy zajmują się analizą danych również są trzy podstawowe stanowiska. Pierwsze stanowisko to <em>data science analyst</em> i skupia się ono na analizie danych i wizualizacji. Ludzie na takim stanowisku operują na danych wykonując na przykład kwerendy w SQL, a następnie przygotowują wykresy i komunikują swoje znaleziska do <em>product managerów</em>.</p>
<p>Drugie stanowisko, które znajduje się w zespole <em>data science</em> to <em>data engineer</em>. Ludzie na tym stanowisku zajmują się przygotowaniem infrastruktury i platformy, jak i podstawowym przetwarzaniem danych i doborem narzędzi, to właśnie wśród tych ludzi znajdują się osoby, które pracują intensywnie na przykład z Hadoopem czy z Sparkiem.</p>
<p>Trzecie stanowisko to <em>core data scientist</em>. Na tym stanowisku pracują ludzie posiadający tylko i wyłącznie wykształcenie kierunkowe na poziomie co najmniej doktoratu i pracują oni nad rozwiązaniami wymagającymi dużej wiedzy teoretycznej, jak na przykład modelowanie i ewaluacja danych, modelowanie predykcyjne, systemy rekomendacyjne.</p>
<p><b>Bardzo dużo różnych ról podałeś – bardzo Ci za to dziękuję. Na konferencjach, różnych wydarzeniach jestem regularnie pytany: jak zacząć? Nagrałem już na ten temat webinar i podam do niego <a href="https://www.youtube.com/watch?v=Zn5aMfbn_Kk">link</a> w notatkach. Ale chcę też zapytać Ciebie, od czego jest najlepiej zacząć?</b></p>
<p>To co powiem teraz, może się okazać dość kontrowersyjne w dobie wszechobecnych bootcampów, które wkraczają również do branży <em>data science</em>, ale ja osobiście polecam studia na renomowanej uczelni. W ich trakcie możesz zdobyć podstawową wiedzę potrzebną do pracy z uczeniem maszynowym, wystarczy opanować podstawy matematyki i programowania, które pojawiają się na studiach licencjackich lub inżynierskich i które są wymagane na przykład na studiach informatycznych, matematycznych albo fizycznych. Dzięki tej wiedzy będziesz w stanie skutecznie zagłębiać się w materiały z zakresu uczenia maszynowego i nie tylko rozumieć, jak to działa, ale też dlaczego to działa. Jeżeli chodzi i same wskazówki, to myślę, że jest pięć kluczowych kwestii.</p>
<p>Pierwsza to: wybierz się na staż czy praktyki z tego zakresu i zdobądź techniczne wykształcenie. Dobre kierunki, które możesz studiować to na przykład informatyka teoretyczna, czyli <em>Theoretical Computer Science</em>, inżynieria oprogramowania, czyli <em>Software Engineering</em>, informatyka stosowana, czyli <em>Applied Computer Science</em>, ekonomia, czyli <em>Economics</em>, statystyka, czyli <em>Statistics</em>, matematyka, inżynieria systemów zwana też <em>Systems Engineering</em> – kierunek bardziej popularny poza granicami Polski, inżynieria zarządzania, czyli <em>Management Engineering</em>, inżynieria komputerowa, czyli <em>Computer Engineering</em>, ale także kierunki typu elektronika i telekomunikacja, czyli <em>Electronics and Telecommunication Engineering</em>, automatyka i robotyka, czyli <em>Automatic Control and Robotics</em>, która zawiera bardzo dużo elementów z <em>computer vision</em>, jak i inżynieria środowiska, czyli Environmental Engineering, która też jest traktowana jako kierunek techniczny. Będzie ci łatwiej dostać się na ten staż czy praktyki, a gdy w trakcie nich będziesz się rozwijać i pokażesz to, to jest duża szansa na to, że dostaniesz propozycję pracy w tej dziedzinie w tej firmie.</p>
<p>Drugą poradą jest to, byś opanował język SQL. Dlaczego akurat SQL? Jest to dość prosty język do nauczenia się i powszechnie używany w analityce, wszelkiej maści <em>business intelligence</em> i wielu innych dziedzinach. Niezależnie od tego, gdzie będziesz pracować, jako na przykład <em>data scientist</em> czy <em>machine learning engineer</em>, zawsze będziesz mieć do czynienia z językiem SQL, bo będziesz musiał skądś te dane wyciągnąć, na przykład z baz danych czy hurtowni, a następnie wykonać na nich jakieś operacje. Niemalże wszystkie firmy przygotowują infrastrukturę w taki sposób, aby dana osoba mogła operować na danych wykonując odpowiednie kwerendy w języku SQL.</p>
<p>Moja trzecia porada: naucz się korzystać z takich narzędzi typu <a href="https://ipython.org/">IPython</a>, <a href="https://www.tableau.com/" class="broken_link">Tableau</a>, R, Excel, czy czegokolwiek innego, by manipulować, wizualizować i interpretować dane, i tak większość twojej pracy będzie zależała od SQL. Python i R wyglądają najbardziej technicznie i są zorientowane na kodowanie, więc mogą być preferowane przez znaczną większość potencjalnych pracodawców i współpracowników, jednakże w praktyce nie ma wielkiego znaczenia, które z tych narzędzi wybierzesz. Możesz być bardzo dobrym analitykiem danych, korzystając chociażby samego Excela, efekt i tak zależy od tego, jak sprawnie radzisz sobie z pracą z danymi, rozwiązywaniem problemów i jak dobrze komunikujesz swoje znaleziska. Dopiero na podstawie tego można budować sprawnie działające rozwiązania, korzystając na przykład z Pythona.</p>
<p>Czwartą poradą jest to, byś nauczył się, czym są metryki sukcesu i metryki mierzalne, czyli <em>success metrics</em> i <em>tracking metrics</em>. Weźmy jako przykład aplikację typu YouTube, załóżmy, że będzie ona przechodziła redesign, ale i też zostaną dodane do niej funkcjonalności z zakresu uczenia maszynowego. W jaki sposób ustalisz, czy działania te okazały się sukcesem? Metryki sukcesu, to jest coś, co widzi cały zespół i na czym się skupia, w tym przypadku może to być między innymi ilość aktywnych użytkowników, czy ilość unikalnych użytkowników każdego dnia. Metryki mierzalne to są właśnie te czynniki pośrednie, które są związane z osiąganiem metryk sukcesu.</p>
<p>Może to być na przykład: ile czasu spędza przeciętny użytkownik w aplikacji, ile filmów dziennie ogląda, ile filmów sam wrzucił na platformę, czy też ile razy został wykonany tak zwany <em>Force Quit</em>, czyli wymuszone zamknięcie. Mierzyć trzeba także te negatywne metryki, bo co jeżeli dana aplikacja zawiera bardzo dużo błędów i się na przykład wyłącza w danym momencie, co jest powodem, dla którego użytkownicy spędzają w tej aplikacji bardzo dużo czasu. Istotne jest przede wszystkim, by metryki były jak najmniej podatne na oszustwa i jakąkolwiek manipulację, a przy tym reprezentowały w jakiś sposób sukces firmy.</p>
<p>Ostatnią moją poradą jest to, by każdy nauczył się komunikować z ludźmi. Większość pracy to komunikacja z ludźmi, jeśli nie będziesz umieć odpowiednio komunikować swoich znalezisk, to bardzo ciężko będzie zbudować cokolwiek na podstawie tych informacji i ciężko będzie zbudować skuteczne rozwiązanie, w szczególności jeżeli podążysz ścieżką <em>data scientist</em>, istotne jest to, byś umiał czy też umiała przemawiać publicznie. Ogromna część twojej pracy to będą spotkania z ludźmi i prezentacje, konieczne są też umiejętności z zakresu pisania chwytliwych treści, które trafiają do ludzi, najłatwiej dotrzeć ze swoimi znaleziskami do osób, w szczególności tych z innych zespołów, przez opisywanie swoich znalezisk w postaci artykułów, e-maili, postów. Treści pisane są świetnym medium do docierania do wielu ludzi, w szczególności w pracy. Mój znajomy z pracy powiedział kiedyś:</p>
<blockquote>
<p>„If you made an interesting analysis, but no one is there to read your analysis, did you ever make an analysis?”</p>
</blockquote>
<p>Jest to w zasadzie strzał w dziesiątkę odnośnie tego, jak bardzo istotne są umiejętności miękkie w pracy.</p>
<p>I jeszcze ode mnie taki jeden bonus, czyli naucz się modelować predyktywnie – <em>predictive modelling</em>. Wiele osób optymalizuje swój proces nauki względem tego zagadnienia, bo wydaje im się, że znaczna część pracy z danymi, czy to jako <em>data scientist</em>, czy <em>machine learning engineer</em>, czy jako jakiś analityk dotyczy właśnie tego, czyli prognozowania, finansów, automatyzacji zadań. Można w jakimś stopniu powiedzieć, że mają rację z tymi finansami, bo niezależnie od zajmowanego stanowiska twoim celem jest spowodować, że firma zacznie zarabiać więcej. Wiedza z zakresu <em>predictive modelling</em> w szczególności przyda się, gdy będziesz zajmować się systemami predykcyjnymi i systemami rekomendacyjnymi. Poza tym zawsze możesz też powiedzieć swoim znajomym, że zajmujesz się <em>forecastingiem</em> i to jest cool :).</p>
<p><b>Bardzo dziękuję Łukaszu za te wszystkie porady. Myślę, że dla osób, które chcą wejść świata uczenia maszynowego będą bardzo pomocne. I ostatnie już pytanie na dzisiaj: jak można znaleźć Ciebie w sieci?</b></p>
<p>Jestem obecny na w zasadzie wszystkich popularnych platformach społecznościowych, wystarczy wyszukać mnie po imieniu i nazwisku.</p>
<p><b>Bardzo fajnie nam się rozmawiało, jesteś kopalnią wiedzy według mnie. Bardzo dziękuję, że udało się nam spotkać i nagrać tę rozmowę. Życzę Ci wszystkiego dobrego w Facebooku, Lonsley i w wielu innych Twoich inicjatywach.</b></p>
<p>Dzięki raz jeszcze Vladimir za zaproszenie i do usłyszenia po raz kolejny przy jakiejś następnej nadarzającej się okazji.</p>
<hr />
<p><span style="font-weight: 400;">Łukasz przygotował dla Ciebie prezent. Wystarczy zapisać się na newsletter i dostaniesz ten prezent mailowo. Zapisz się na stronie tego odcinka, a jeżeli już jesteś zapisany, to sprawdź swoją skrzynkę, bo prezent już na Ciebie czeka. Przy okazji bardzo polecam dodać do kontaktów mail info(at)biznesmysli.pl, dzięki temu masz prawie stuprocentową gwarancję, że maile ode mnie będą trafiać we właściwe miejsce. </span></p>
<p><span style="font-weight: 400;">Tak jak obiecywałem w poprzednim odcinku, w tym odcinku będzie kolejna opinia uczestnika drugiej edycji kursu </span><span style="font-weight: 400;">„</span><a href="http://dataworkshop.eu/"><span style="font-weight: 400;">Praktyczne uczenie maszynowe</span></a><span style="font-weight: 400;">”. Dzisiaj jest nim Wojtek – bardzo inspirująca osoba. Miał pakiet premium, więc spędziliśmy sporo czasu na konsultacjach, ale były one dość unikalne, musiałem dość intensywnie myśleć, żeby odpowiadać na pytania zadawane przez Wojtka, były bardzo trafnie i absolutnie nie trywialne. Z jednej strony było to trochę męczące, bo wymagały myślenia, a z drugiej strony bardzo pozytywne, bo mózg musiał zacząć się kręcić na odpowiednich obrotach, żeby te odpowiedzi znajdować.</span></p>
<figure id="attachment_1033" aria-describedby="caption-attachment-1033" style="width: 1000px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2018/06/WM.jpg"><img decoding="async" class="size-full wp-image-1033" src="https://biznesmysli.pl/wp-content/uploads/2018/06/WM.jpg" alt="Wojtek Mac" width="1000" height="750" srcset="https://biznesmysli.pl/wp-content/uploads/2018/06/WM.jpg 1000w, https://biznesmysli.pl/wp-content/uploads/2018/06/WM-300x225.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2018/06/WM-768x576.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2018/06/WM-360x270.jpg 360w" sizes="(max-width: 1000px) 100vw, 1000px" /></a><figcaption id="caption-attachment-1033" class="wp-caption-text">Wojtek Mac</figcaption></figure>
<hr />
<p><b>Cześć Wojtek. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz.</b></p>
<p>Cześć Vladimirze.<br />Nazywam się Wojtek Mac, mieszkam w Warszawie, z wykształcenia jestem fizykiem, w tej chwili pracuję w Orange. Pracuję w Orange już od 15 lat, zajmowałem się w tym czasie różnymi rzeczami, głównie szeroko pojętą analityką, przez wiele lat zajmowałem się również billingiem, a ostatnio zajmuję się automatycznymi kanałami obsługi klientów i pracujemy nad tym, żeby one były efektywne, oszczędzały pracę ludzi, ale jednocześnie, żeby klientom było w miarę wygodnie się z nami kontaktować i żeby rozwiązywać ich problemy, jak najłatwiej dla nich.</p>
<p><b>O tym jeszcze porozmawiamy, ale najpierw powiedz, co ostatnio czytałeś.</b></p>
<p>Ostatnią uzupełniłem taką jedną zaległość po śmierci Hawkinga, zrobiłem taki krótki remanent w głowie, więc przeczytałem „Wszechświat w skorupce orzecha”, jest to pozycja sprzed wielu lat, ale jakoś tak mi umknęła wcześniej i stwierdziłem, że to jest dobry moment. żeby sobie przypomnieć.</p>
<figure id="attachment_1030" aria-describedby="caption-attachment-1030" style="width: 226px" class="wp-caption aligncenter"><a href="http://www.empik.com/wszechswiat-w-skorupce-orzecha-hawking-stephen,p1100024787,ksiazka-p"><img decoding="async" class="size-full wp-image-1030" src="https://biznesmysli.pl/wp-content/uploads/2018/06/wszechswiat-w-skorupce-orzecha-w-iext35256327.jpg" alt="Wszechświat w skorupce orzecha" width="226" height="350" srcset="https://biznesmysli.pl/wp-content/uploads/2018/06/wszechswiat-w-skorupce-orzecha-w-iext35256327.jpg 226w, https://biznesmysli.pl/wp-content/uploads/2018/06/wszechswiat-w-skorupce-orzecha-w-iext35256327-194x300.jpg 194w, https://biznesmysli.pl/wp-content/uploads/2018/06/wszechswiat-w-skorupce-orzecha-w-iext35256327-174x270.jpg 174w" sizes="(max-width: 226px) 100vw, 226px" /></a><figcaption id="caption-attachment-1030" class="wp-caption-text">Wszechświat w skorupce orzecha</figcaption></figure>
<p><b>To bardzo dobra lektura, słyszałem o niej kilka razy, ale też nie miałam jeszcze okazji przeczytać. Warto chyba po nią sięgnąć.</b></p>
<p>Na pewno warto, ale zależy, co kto lubi. Ja lubię styl Hawkinga, który nie daje oczywistych odpowiedzi, pozwala trochę pomyśleć, a z drugiej strony jest w miarę łatwy dla osób, które nie mają silnego backgroundu fizycznego.</p>
<p><b>Ty akurat masz doświadczenie fizyczne, działasz już ponad 15 lat w Orange. Powiedz, skąd się wzięło u Ciebie zainteresowanie uczeniem maszynowym i kiedy to się zaczęło?</b></p>
<p>Bardzo trudno jest powiedzieć, kiedy to się zaczęło, bo tak naprawdę jeszcze na studiach miałem jakąś styczność z sieciami neuronowymi, chociaż one były mniej dojrzałe niż dzisiejsze uczenie maszynowe. Jak wszyscy wiedzą, w dzisiejszym świecie trudno uniknąć kontaktu z uczeniem maszynowym, z sieciami, ze sztuczną inteligencją – atakuje nas wszędzie, we wszystkich audycjach, programach, książkach i wszędzie słyszymy o tym, więc warto wiedzieć, o co chodzi i nie dawać sobie opowiadać głupot, warto się trochę zastanowić, jak to działa, do czego to służy, gdzie są jego obecne granice, możliwości.</p>
<p><b>Opowiedz proszę swoją historię, jak trafiłeś na kurs.</b></p>
<p>Na kurs trafiłem w bardzo prosty sposób. Mój szef słuchał Twojego podcastu, przyszedł kiedyś i powiedział, że jest taki fajny podcast, może by go posłuchać, a dwa dni później powiedział, że tam jest taki fajny kurs uczenia maszynowego, może by kogoś na niego wysłać. Wybraliśmy jednego z naszych kolegów, za 2 dni wymyśliliśmy, że może wyślemy na niego dwóch, no i tak od słowa do słowa w końcu okazało się, że cały nasz zespół zapisał się na kurs, a na koniec ja też.</p>
<p><b>Stwierdziłeś, że głupio będzie, jak cały zespół będzie o czymś rozmawiać, a Ty nie będziesz wiedział, o co chodzi?</b></p>
<p>Jest w tym trochę prawdy. Poza tym ja w tej chwili już sam kodu nie piszę codziennie, ale to zawsze jest fajnie, jak się dotknie własnymi rękoma czegoś, co jest takie bliskie produkcji, a nie tylko taką działalnością menadżersko-zarządczą. Ten kurs był fajny pod tym względem, że pozwał samodzielnie sobie coś podłubać, popracować. Fajne było to, że sobie przypomniałem troszeczkę, jak to jest pisać coś samemu.</p>
<p><b>Na co dzień nie programujesz, prawdopodobnie nie miałeś też dużej styczności z Pythonem, ale oglądałem Twój kod i całkiem fajnie sobie radziłeś. Powiedz, jak tego się nauczyłeś? Po nocach?</b></p>
<p>W Pythonie rzeczywiście wcześniej nie pisałem dużo, żeby nie powiedzieć prawie nic. Mogę opowiedzieć później, jak to się zaczęło z Pythonem, natomiast w życiu trochę napisałem kodu w różnych językach od Fortranu, przez różne odmiany Pascala C, czy różnych basiców. W Pythonie pierwszy kod napisałem ze 2 lata temu, kiedy moja córka w gimnazjum brała udział w jakimś konkursie informatycznym Logia i oni właśnie pisali w Pythonie. Jak ona coś pisała, to ja jej zaglądałem przez ramię, a może tata mi coś podpowie, a może razem coś zrobimy i tak od słowa do słowa nauczyłem się przy okazji Pythona. Oczywiście to jest inny Python, zupełnie inne biblioteki niż te na kursie, ale początek miałem. Ale jak się zna ileś języków, to nauczenie się kolejnego nie jest rzeczą niewykonalną albo wymagającą strasznie długiego czasu.</p>
<p><b>To prawda. Jeśli poznajesz języki, które się różnią od siebie, to ciężko jest cię zaskoczyć czymkolwiek.</b></p>
<p>Aczkolwiek Python jest rzeczywiście takim fajnym językiem, który jest bardzo elastyczny i to mi się w nim spodobało – umożliwia zoptymalizowanie długości kodu.</p>
<p><b>Też za to lubię Pythona, że to jest jeden z najprostszych języków. Między innymi dlatego ten język staje się teraz coraz bardziej popularny w uczeniu maszynowym, bo zamiast skupiać się na języku, skupiasz się na rozwiązaniu problemu. To jest taka zaleta Pythona. A jaką największą wartość dostałeś na tym kursie? Co Ci się najbardziej spodobało?</b></p>
<p>Chyba największą wartością jest to, że mam taki przegląd różnych metod, różnych algorytmów począwszy od lasów losowych, aż po sieci konwolucyjne – to są nazwy, które się człowiekowi normalnie ocierają o uszy, ale dopóki się samemu takiej prostej rzeczy nie napisze, to się nie zrozumie. Ja mam takie empiryczne podejście do świata, dopóki nie dotknę, to nie rozumiem. Jak się tak trochę podotyka ich samemu, to potem jest łatwiej rozmawiać z innymi ludźmi, którzy są nawet o kilka rzędów bieglejsi w przedmiocie. Można znaleźć łatwiej wspólny język, wiedzieć, gdzie są ograniczenia, ułatwia to kreatywne pomysły, bo nie wymyśla się czegoś, co zupełnie nie ma sensu. W tej chwili wydaje mi się, że to jest dość duże zagrożenie, jeśli chodzi o uczenie maszynowe i wszelakie sieci samouczące się, bo to jest modne, więc każdy przychodzi i mówi: „my tutaj użyjemy uczenia maszynowego i rozwiążemy wszystkie twoje problemy albo sztuczna inteligencja sama przyjdzie, sama zrobi, sama posprząta i jeszcze za to zapłaci”. Nie można wpaść w taką pułapkę, że to wszystko za ciebie rozwiąże, więc dobrze wiedzieć, mieć taką intuicję, do czego to się rzeczywiście nadaje, a do czego nie. Myślę, że jak się samemu czegoś spróbuje, to wtedy jest łatwiej.</p>
<p><b>Nawiązując trochę do Twojej intuicji – w trakcie kursu był konkurs, w którym robiliśmy predykcje kosztu samochodem. Dla mnie inspirujące było Twoje podejście – osoby, które były w czołówce miały 5, 10 a nawet 15 prób, Ty miałeś jedną próbę, po której byłeś prawie na pierwszym miejscu, a po drugiej próbie jeszcze bliżej. Zrobiłeś bardzo mało tych strzałów, ale były bardzo trafne. Czy faktycznie wyczuwałeś, co warto robić, czy po prostu więcej czasu spędzałeś na myśleniu i później dopiero podawałeś rozwiązanie?</b></p>
<p>Szczerze mówiąc, nie potrafię odpowiedzieć jednoznacznie na to pytanie. Na początku nie strzelałem w ciemno, tylko najpierw chciałem coś zrobić, trochę uporządkowałem te dane, zrobiłem coś, co wydawało mi się, że należy zrobić i tak wyszło, jak mówisz. W kolejnych krokach już spadłem, jak inni wzięli się też za optymalizację kodu. Nie wiem dlaczego nie wrzucałem tyle, może nie poświęciłem na to więcej czasu, bo w pewnym momencie przygotowanie kolejnego modelu, żeby on miał jakiś sens, trwało. Jak wszyscy się rzucili na serwer i zaczęli uruchamiać swoje modele, to często to liczenie długo trwało, żeby wygenerować nową sensowną wersję, bo trzeba było parę rzeczy sprawdzić, więc to chyba z tego wynika.</p>
<p><b>Obserwując osobowość ludzi, wydaje mi się, że każdy ma inne podejście, ale z wiekiem przychodzi takie podejście, że próbujesz więcej przewidzieć naprzód, a dopiero potem próbujesz, ale jak coś przewidzisz, to ta rzecz działa albo jest lepiej zoptymalizowana, bo mamy w głowie tę sieć neuronową bardziej zaawansowaną niż sztuczna inteligencja, więc można zastosować optymalizację przed zbudowaniem modelu.<br />Jak zamierzasz wykorzystać wiedzę zdobytą na kursie?</b></p>
<p>Jak już powiedziałem, w pracy zajmuję się optymalizowaniem obsługi klientów, czyli żeby tak zrobić, żeby jak najmniej się ludzie po naszej stronie napracowali, a klienci byli nadal zadowoleni i dobrze obsłużeni. Ludzi można zastąpić jakimiś maszynami, automatami, różnymi narzędziami, które mogą mieć w sobie mniej lub więcej tej sztucznej inteligencji, ale obecnie, kiedy te algorytmy sztucznej inteligencji są coraz lepsze, coraz doskonalsze, coraz szerzej stosowane. Coraz większe są doświadczenia ludzi z tym, jak je wykorzystywać do różnych zastosowań również takich jak konwersacje z klientami, do znajdowania odpowiedzi na pytania, do analizowania, czego potrzebują klienci – bardziej zaawansowane algorytmy są już dostępne i aż grzech po nie nie sięgnąć. W naturalny sposób będziemy musieli zacząć po nie sięgać, już trochę to robimy.</p>
<p>Ja kodu już nie piszę, ale żeby rozmawiać z dostawcami, żeby wiedzieć, czego potrzebujemy, żeby współpracować z programistami u nas, którzy piszą taki kod czy nawet ze swoim własnym zespołem, trzeba samemu też coś wiedzieć. To jest to coś, co było głównym motorem, dla którego poszedłem na kurs. No i mam nadzieję, że mi się to przyda w pracy w najbliższym czasie, a w dłuższej perspektywie to na pewno.</p>
<p><b>Wyobraź sobie, że teraz Twojego głosu słucha osoba, która zastanawia się, czy ten kurs jest dla niej, jak myślisz dla kogo jest ten kurs?</b></p>
<p>Myślę, że są dwie grupy osób, które mogą mieć największe korzyści z takiego kursu. Jedna grupa to są osoby, które jeszcze nie miały styczności z uczeniem maszynowym, ale chciałyby zacząć, mają jakiś podkład programistyczny, na przykład są informatykami, ale się takimi analizami czy tworzeniem takich modeli nie zajmowały, ale chciałyby jakoś zacząć, a mają takie empiryczne podejście, żeby najpierw spróbować, zobaczyć, co wyszło, a potem dopiero douczyć się tam, gdzie widzą, że mają braki, czy gdzie to jest interesujące. Myślę, że dla takich osób jest to bardzo fajny kurs, żeby zobaczyć, bo nie zaczynamy od szerokiego podkładu teoretycznego, tylko robimy, patrzymy, co wyszło, a jak wyjdzie, to wtedy można poczytać sobie, rozszerzyć wiedzę, więc to jest taki dobry start.</p>
<p>Druga grupa osób to być może takie osoby jak ja, które w tym momencie nie szukają bardzo głębokiego i szerokiego teoretycznego podkładu, ale chcą zobaczyć, jak to działa, zrozumieć, poczuć, doświadczyć. Wydaje mi się, że do takiego zastosowania ten kurs też jest bardzo fajny.</p>
<p><b>I ostatnie już pytanie na dzisiaj. Jestem bardzo ciekaw Twojej opinii, jak nasz świat może się zmienić w najbliższej przyszłości w perspektywie 5-10, a może nawet 15-20 lat. Jakie masz przemyślenia na ten temat?</b></p>
<p>Już widać, że nasz świat się bardzo zmienia i to bardzo szybko. W ciągu ostatnich 3-5 lat widać tę eksplozję. Takie najważniejsze kierunki to po pierwsze wszystkie urządzenia, które zastępują pracę człowieka – autonomiczne samochody, wszelkiego rodzaju roboty w fabrykach, różne roboty, które za nas piszą, odpowiadają, nawet lodówki zaczynają być mądre.</p>
<p>Czasami to jest po prostu zastępowanie pracy człowieka tylko po to, żeby się nie męczył, czasami one są sprawniejsze od człowieka, bo robią coś szybciej, z większą precyzją, z mniejszą ilością błędów. I to jest moim zdaniem jeden z takich aspektów, w których sztuczna inteligencja będzie bardzo ważna. Druga rzecz to są wszystkie interfejsy komunikujące się z ludźmi – dawno dawno temu były guziki i korbka, później ludzie wydawali tajne komendy w różnych językach tylko dla wtajemniczonych, a teraz coraz więcej jest takich interfejsów, gdzie z tymi maszynami się po prostu rozmawia, tak samo jak z innymi ludźmi, co dla wielu ludzi jest wygodne, przyjemne, prostsze.</p>
<p>Myślę, że tutaj na pewno doświadczymy bardzo dużej zmiany w najbliższym czasie, w naszych domach zadomowią się różni wirtualni asystenci. Taka trzecia działka to wszelkie rzeczy związane z optymalizacją i kontrolą, bo my jako ludzie próbujemy różne procesy optymalizować, ale mimo że nasze mózgi są tak wspaniałe, do niektórych rzeczy nadają się słabiej i jeżeli zaczynają się jakieś procesy z dużą ilością danych, gdzie zależności są nieliniowe, to bywa że nam jest trudniej znaleźć dziurę w całym, a dla algorytmów uczących może być to łatwiejsze i to też widać już w tej chwili w wielu zastosowaniach.</p>
<p><b>Bardzo Ci dziękuję za Twoją opinię i za to, że udało Ci się znaleźć czas, bo wiem, że z czasem jest generalnie ciężko, więc fajnie, że się udało.</b></p>
<p>Ja również bardzo dziękuję. Było mi bardzo miło z Tobą porozmawiać.</p>
<hr />
<p><span style="font-weight: 400;">Na koniec przypomnę, że trzecia edycja kursu zaczyna się od 29 października 2018 roku. Dokonując zakupu <strong>do 15 czerwca</strong>, uzyskasz bonus o wartości ponad 2.000 złotych, otrzymasz między innymi bilet na jednodniowe szkolenie tzw. <a href="http://tour.dataworkshop.eu/" class="broken_link">Tour</a>, który odbędzie się we wrześniu 2018 roku – wybierzesz sobie jedno z pięciu dostępnych miast. Dostaniesz też bezpłatną wejściówkę na <a href="http://conf.dataworkshop.eu">konferencję</a> dla absolwentów edycji, ale również dla osób zainteresowanych praktycznym uczeniem maszynowym – będą tam różne inspiracje, intensywny networking.</span></p>
<figure id="attachment_1001" aria-describedby="caption-attachment-1001" style="width: 1000px" class="wp-caption aligncenter"><a href="http://dataworkshop.eu/#price"><img decoding="async" class="size-full wp-image-1001" src="https://biznesmysli.pl/wp-content/uploads/2018/05/bonus2000-1.jpg" alt="Bonus o wartości ponad 2000 zł." width="1000" height="563" srcset="https://biznesmysli.pl/wp-content/uploads/2018/05/bonus2000-1.jpg 1000w, https://biznesmysli.pl/wp-content/uploads/2018/05/bonus2000-1-300x169.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2018/05/bonus2000-1-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></a><figcaption id="caption-attachment-1001" class="wp-caption-text">Bonus o wartości ponad 2000 zł.</figcaption></figure>
<p><span style="font-weight: 400;">Dodatkowo otrzymasz ponad 20 godzin moich webinarów, w których odpowiadam na pytania z życia wzięte, które zadawali różni ludzie, więc pytania są naprawdę zróżnicowane. Dostaniesz moduł zerowy, w którym robię mocne wprowadzenie do Pythona i bibliotek, żeby jeszcze bardziej ułatwić Twoje życie podczas kursu, ale również po nim, żebyś mógł/mogła zastosować tę wiedzę w praktyce. </span></p>
<p><span style="font-weight: 400;">Na koniec wspomnę jeszcze o webinarach, które organizuję, jeden bezpłatny odbył się 15 maja i jest dostępny (i prezentacja). </span></p>
<p><iframe title="Uczenie maszynowe – od czego zacząć?" width="960" height="540" src="https://www.youtube.com/embed/Zn5aMfbn_Kk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><span style="font-weight: 400;">Kolejny jest zaplanowany na 12 czerwca i tematem będzie wprowadzenie do statystyki, webinar jest bezpłatny, ale polecam się zapisać na </span><a href="http://dataworkshop.eu/free-webinar"><span style="font-weight: 400;">dataworkshop.eu/free-webinar</span></a><span style="font-weight: 400;">.</span></p><p>Artykuł <a href="https://biznesmysli.pl/lukasz-siatka-ex-googler-facebooker/">Łukasz Siatka &#8211; ex Googler, Facebooker</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/lukasz-siatka-ex-googler-facebooker/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Google wants to democratize AI</title>
		<link>https://biznesmysli.pl/google-wants-democratize-ai/</link>
					<comments>https://biznesmysli.pl/google-wants-democratize-ai/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 25 Sep 2017 03:00:23 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[GDDEurope]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Google Assistant]]></category>
		<category><![CDATA[Google Cloud]]></category>
		<category><![CDATA[Google Home]]></category>
		<category><![CDATA[Ido Green]]></category>
		<category><![CDATA[Sara Robinson]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=584</guid>

					<description><![CDATA[<p>Google CEO Sundar Pichai Wrote on the official Google blog towards the end of 2016 (please note, that i’ll just quoted few sentences the link to the whole article you can find in notes): When I look at where computing is heading, I see how machine learning and artificial intelligence are unlocking capabilities that were unthinkable only a few years ago. &#8230;in the next 10 years, we will shift to a world that is AI-first, a world where computing becomes universally available — be it at home, at work, in the car, or on the go — and interacting with all of these surfaces becomes much more natural and intuitive, and above all, more intelligent. This is why we built the Google Assistant, which allows you to have a natural conversation between you and Google. This episode is an experiment. First of all the whole episode will be in English. But that’s not all. Today will be two guests instead of one. They both are working at Google, but they do different things. Ido Green He is focusing on sharing experience how to start use Google Home (and related topics, like Google Assistant). Sara Robinson She shares her experience about using Google Cloud, she is focusing on big data and machine learning stuff. Last, but not least. Finally i can share with you more details about DataWorkshop. More precisely about my next workshop “Practical Machine Learning for Programmers”. We start on Mon, 30 Oct. It will be 8 modules (one in a week). Let me invite you to free webinar where you’ll learn more why is worth to participate in, also you can ask me any questions and it will be once chance to get a great discount to the course (available only for “early birds” in a short term).   Let me invite you to listening two interviews. Enjoy it… Attentation. Transcription with Ido will be soon. What do you think? I was so impressed about Ido’s experience and his type of thinking. I have no idea how to explain, but it was great to sit close to the person and feel how he wants to help you and cooperate with you. Do you remember a 12th episode when I have asked Lukasz, what the difference between Silicon Valley and other places. He mentioned about trusting to each other. I was feeling this during discussion. I had much more questions to Ido, but we had very limited time. We had some chat after, and we have a plan to cooperate in near future. More details will be soon. Keep fingers crossed :). And now interview with Sara. Attentation. Transcription with Ido will be soon. Alright… what do you think about this experiment? Is it worth to continue in English, at least time to time? The main benefit is that i can invite more people (not only who speaks in Polish), but also the podcast can be listening by others (not only Polish speakers). Anyway, the experiment done, I’ll be waiting for your feedback to decide what next. On 11-12 October I’m going to World Summit AI in Amsterdam.  It should be interesting event, where you can meet people from different countries who really lead AI in the world. For example, Yann LeCun (Facebook), Rob Hight (CTO IBM Watson), Ralf Herbrich (Director of ML in Amazon), Xian-Sheng Hua (Alibaba) and many many others.  Sounds like worth to visit. If you have a plan to be there, please let me know :). That’s all for day. Thank you for your time, engagement and willingness to learn new things. I wish you all the best. Thank you!</p>
<p>Artykuł <a href="https://biznesmysli.pl/google-wants-democratize-ai/">Google wants to democratize AI</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-I4j0E wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/google-wants-to-democratize-ai" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<h2>Google CEO Sundar Pichai</h2>
<p>Wrote on the<a href="https://googleblog.blogspot.com/2016/10/a-personal-google-just-for-you.html"> official Google blog</a> towards the end of 2016 (please note, that i’ll just quoted few sentences the link to the whole article you can find in notes):</p>
<blockquote>
<p>When I look at where computing is heading, I see how machine learning and artificial intelligence are unlocking capabilities that were unthinkable only a few years ago.</p>
<p>&#8230;in the next 10 years, we will shift to a world that is AI-first, a world where computing becomes universally available — be it at home, at work, in the car, or on the go — and interacting with all of these surfaces becomes much more natural and intuitive, and above all, more intelligent.</p>
<p>This is why we built the Google Assistant, which allows you to have a natural conversation between you and Google.</p>
</blockquote>
<p>This episode is an experiment. First of all the whole episode will be in English. But that’s not all. Today will be two guests instead of one. They both are working at Google, but they do different things.</p>
<figure id="attachment_587" aria-describedby="caption-attachment-587" style="width: 1084px" class="wp-caption aligncenter"><a href="https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers.jpg"><img decoding="async" class="size-full wp-image-587" src="https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers.jpg" alt="Ido &amp; Sara" width="1084" height="812" srcset="https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers.jpg 1084w, https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers-300x225.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers-1024x767.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/09/Ido_Sara_Googlers-768x575.jpg 768w" sizes="(max-width: 1084px) 100vw, 1084px" /></a><figcaption id="caption-attachment-587" class="wp-caption-text">Ido &amp; Sara</figcaption></figure>
<h2><a href="https://greenido.wordpress.com/">Ido Green</a></h2>
<p>He is focusing on sharing experience how to start use Google Home (and related topics, like Google Assistant).</p>
<h2><a href="https://twitter.com/srobtweets?lang=en">Sara Robinson</a></h2>
<p>She shares her experience about using Google Cloud, she is focusing on big data and machine learning stuff.</p>
<p>Last, but not least. Finally i can share with you more details about DataWorkshop. More precisely about my next workshop “Practical Machine Learning for Programmers”. We start on Mon, 30 Oct. It will be 8 modules (one in a week). Let me invite you to free webinar where you’ll learn more why is worth to participate in, also you can ask me any questions and it will be once chance to get a great discount to the course (available only for “early birds” in a short term).</p>
<figure id="attachment_589" aria-describedby="caption-attachment-589" style="width: 940px" class="wp-caption aligncenter"><a href="http://www.dataworkshop.eu/free-webinar"><img decoding="async" class="size-full wp-image-589" src="https://biznesmysli.pl/wp-content/uploads/2017/09/baner_webinar.jpg" alt="Free webinar" width="940" height="788" srcset="https://biznesmysli.pl/wp-content/uploads/2017/09/baner_webinar.jpg 940w, https://biznesmysli.pl/wp-content/uploads/2017/09/baner_webinar-300x251.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/09/baner_webinar-768x644.jpg 768w" sizes="(max-width: 940px) 100vw, 940px" /></a><figcaption id="caption-attachment-589" class="wp-caption-text">Free webinar                                <a href="http://www.dataworkshop.eu/free-webinar">http://www.dataworkshop.eu/free-webinar</a></figcaption></figure>
<p> </p>
<p>Let me invite you to listening two interviews. Enjoy it…</p>
<hr />
<p><span style="color: #999999;"><em>Attentation. Transcription with Ido will be soon.</em></span></p>
<hr />
<p>What do you think? I was so impressed about Ido’s experience and his type of thinking. I have no idea how to explain, but it was great to sit close to the person and feel how he wants to help you and cooperate with you. Do you remember a 12th episode when I have asked Lukasz, what the difference between Silicon Valley and other places. He mentioned about trusting to each other. I was feeling this during discussion.</p>
<p>I had much more questions to Ido, but we had very limited time. We had some chat after, and we have a plan to cooperate in near future. More details will be soon. Keep fingers crossed :).</p>
<p>And now interview with Sara.</p>
<hr />
<p><span style="color: #999999;"><em>Attentation. Transcription with Ido will be soon.</em></span></p>
<hr />
<p>Alright… what do you think about this experiment? Is it worth to continue in English, at least time to time? The main benefit is that i can invite more people (not only who speaks in Polish), but also the podcast can be listening by others (not only Polish speakers).</p>
<p>Anyway, the experiment done, I’ll be waiting for your feedback to decide what next.</p>
<p>On 11-12 October I’m going to <a href="http://worldsummit.ai/">World Summit AI</a> in Amsterdam.  It should be interesting event, where you can meet people from different countries who really lead AI in the world. For example, Yann LeCun (Facebook), Rob Hight (CTO IBM Watson), Ralf Herbrich (Director of ML in Amazon), Xian-Sheng Hua (Alibaba) and many many others.  Sounds like worth to visit. If you have a plan to be there, please let me know :).</p>
<figure id="attachment_585" aria-describedby="caption-attachment-585" style="width: 1844px" class="wp-caption aligncenter"><a href="http://worldsummit.ai/"><img decoding="async" class="size-full wp-image-585" src="https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit.jpg" alt="World Summit AI, Amsterdam, Oct 11–12, 2017" width="1844" height="850" srcset="https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit.jpg 1844w, https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit-300x138.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit-1024x472.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit-768x354.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit-1536x708.jpg 1536w, https://biznesmysli.pl/wp-content/uploads/2017/09/AI-Summit-1140x525.jpg 1140w" sizes="(max-width: 1844px) 100vw, 1844px" /></a><figcaption id="caption-attachment-585" class="wp-caption-text">World Summit AI, Amsterdam, Oct 11–12, 2017</figcaption></figure>
<p>That’s all for day. Thank you for your time, engagement and willingness to learn new things. I wish you all the best. Thank you!</p><p>Artykuł <a href="https://biznesmysli.pl/google-wants-democratize-ai/">Google wants to democratize AI</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/google-wants-democratize-ai/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
