<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Brak kategorii &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/category/brak-kategorii/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/category/brak-kategorii/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Wed, 15 May 2024 14:02:19 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>Brak kategorii &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/category/brak-kategorii/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Role i kompetencje w projekcie Machine Learning</title>
		<link>https://biznesmysli.pl/role-i-kompetencje-w-projekcie-machine-learning/</link>
					<comments>https://biznesmysli.pl/role-i-kompetencje-w-projekcie-machine-learning/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Tue, 06 Dec 2022 08:18:38 +0000</pubDate>
				<category><![CDATA[Brak kategorii]]></category>
		<guid isPermaLink="false">https://biznesmysli.pl/?p=8524</guid>

					<description><![CDATA[<p>W ostatnich &#160;2 odcinkach serii podcastu Biznes Myśli: “Machine Learning &#8211; od pomysłu do wdrożenia” rozmawialiśmy o pomysłach i filtrach, które warto na nie nałożyć, aby uniknąć popularnych pułapek oraz o metrykach sukcesu w projektach uczenia maszynowego. Od tego zwykle się zaczyna. Jak to już masz mniej więcej określone, to pojawia się pytania: ale kogo właściwie potrzebuję, aby mój pomysł wdrożyć w życie i aby te metryki sukcesu się spełniły. Albo z drugiej strony, jeśli jesteś osobą, która nie szuka specjalistów, a chce być specjalistą w tym obszarze, to jak się wyspecjalizować, aby rzeczywiście umieć rozwiązywać problemy w praktyce, a nie tylko na&#160; prezentacjach, bo to większość potrafi, ale biznes szybko i brutalnie to weryfikuje. Właśnie dlatego w tym odcinku porozmawiamy sobie o rolach i kompetencjach w projektach&#160; z uczeniem maszynowym w roli głównej. Temat zwykle zamyka się na “Data Scientist” lub “ML Engineer”, ale jednak na tym nie kończą się kompetencje potrzebne, aby projekt z sukcesem zacząć, przeprowadzić i co najważniejsze zakończyć. Poza tym te, jeśli patrzysz jedynie na nazwę stanowisk to też też bywa to &#8222;tricky&#8221; i często rozjeżdża się z rzeczywistością. Dlatego trochę skomplikujemy temat, ale z korzyścią dla Ciebie 😉&#160; Od razu powiem, że nie dostaniesz gotowego przepisu na sukces, bo takich nie ma.&#160; Nie będę Ci mówił to zadziała lepiej, a to gorzej, bo nie znam kontekstu Twojej organizacji. Nie chcę też poruszać tego tematu od strony HR, bo to nie moja bajka. Jestem praktykiem i zajmuje się wydobywaniem z danych wartości biznesowej i akurat tak się składa, że uczenie maszynowe w tym świetnie pomaga, jeśli zrobi się to właściwie i zwróci uwagę na kilka krytycznych elementów. I właśnie o tym chcę Ci opowiedzieć przez pryzmat mojego doświadczenia. A Ty mam nadzieję, że przepuścisz to co powiem przez swoje doświadczenie i swój kontekst i wyciągniesz z tego to, co Tobie jest w stanie pomóc lub połączysz kropki jeszcze inaczej. Dlatego porozmawiamy o tym: 1.&#160; Kogo potrzebujesz w projekcie ML, aby iść do przodu &#8211; wprowadzenie2.&#160; Kto łączy DS / ML z biznesem?3.&#160; Jakie kompetencje są potrzebne, aby wystartować?4.&#160; Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie? Nie traktuj tych odpowiedzi jako niezaprzeczalnego źródła prawdy. Bazuję na swoim doświadczeniu i przypadkach, które poznałem. A jak wiesz jest sporo wyjątków w życiu, dlatego lepiej wszystko, co słyszysz przepuszczać także przez swoje doświadczenie i swój kontekst 🙂 Długo zastanawiałem się, jak podejść do omawiania tego tematu. Można zacząć wyjaśniać, kto czym się zajmuje po kolei i stworzyć podręcznikową iluzję &#8211; być może wszystko będzie zrozumiałe, ale nie odzwierciedla rzeczywistości. Data Scientist, Data Science Manager,&#160; Machine Learning Engineer, AI specialist i mógłbym tutaj wymieniać jeszcze kilka lub kilkanaście nazw, które są tylko nazwami stanowisk i nie warto się do nich aż tak mocno przywiązywać, bo co prawda pomagają w nawigacji i szukaniu osób z branży, ale trzeba mieć na uwadze, że tutaj nie ma żadnego standardu&#160; i ciężko po samej nazwie stanowiska poznać, kto czym się dokładnie zajmuje&#160; i w jakim zakresie. A więc przejdźmy do tego co może Ci się realnie przydać, podzielmy sobie role w projekcie na 5&#160; podstawowych kategorii, które są moim zdaniem ważne 🙂&#160; 1.&#160; Biznesowe2. Role dot. danych i modelowania3.&#160; Operacyjne&#160; &#8211; &#62;&#160; twarde&#160;4. Operacyjne -&#62; miękkie5. Łącznik (może brzmieć tajemniczo, ale wyjaśnię, o co chodzi)&#160; Zaczniemy klasycznie jak na ten podcast,czyli od biznesu 😉 Jeśli zakładasz, że chcesz, aby Twój projekt się udał w ML musisz zdefiniować, co chcesz osiągnąć i aktywnie brać udział w tym projekcie powtarzając regularnie biznesową metrykę sukcesu.&#160; Warto doprecyzować, że rola biznesowa w ML to nie tylko odpytywanie i definiowanie metryki, ale też sumienna analiza procesów i tego, co się dzieje, jak mamy już tę upragnioną predykcję modelu, na co wpływa, jak dokładnie ją wykorzystujemy i jak mierzymy naszą skuteczność. Przykład: Chcesz mieć model, który będzie prognozował skłonność do zakupu mieszkania i załóżmy, że co tydzień widzisz top. 100 klientów, którzy są według modelu bardziej skłonni do zakupu niż inni i celem zespołu wsparcia jest zadzwonić do tych osób i z nimi porozmawiać, aby zaproponować im ofertę zakupu mieszkania. Wartość tworzy się tutaj wtedy, kiedy nie musisz dzwonić do 1000 osób, a wiesz, że bardziej opłaca się dzwonić do 100. No i wracasz z informacją model działa słabo, tylko 1 osoba ze 100 kupiła. No i tutaj rodzą się pytania, a czy zespół wsparcia dzwoni do wszystkich z taką samą ofertą, a czy mają ten sam scenariusz rozmowy? A czy te osoby na pewno nie chcą kupić, np. za tydzień czy za miesiąc? Jak mierzyć efektywność zespołu wsparcia? No właśnie, mówię Ci o tym, dlatego, że nie uczenie maszynowe to proces, model nie sprzedaje i nie kupuje 😉 ale może podpowiadać trafniej&#160; lub mniej trafnie, ale aby to ocenić musimy mieć wypracowany i mierzalny proces biznesowy też i osoby zaangażowane w ten proces muszą mieć swój czynny udział w projekcie, bo potem dochodzi do sytuacji, że dla zespołu technicznego tak to nazwijmy wszystko działa, a dla biznesowego nic nie działa. Umiejętność analizy danych i modelowania w ML jest podstawową rolą i często w praktyce wykonuje to jedna osoba, choć to zależy też od organizacji jak ma poukładany proces. Zwykle w mniejszych organizacjach zarówno eksplorowaniem danych i wyciąganiem z nich wzorców w odpowiedzi na konkretny problem biznesowy, jak i użyciem tych danych do modelowania zajmuje się jedna osoba. I bardzo polecam taką kompletną wiedzę posiadać, zresztą sam uczę w ramach mojego kursu Data Science &#38; Machine Learning w praktyce takiego podejścia. Natomiast warto mieć świadomość, że w większych organizacjach te role mogą być rozdzielone i to jest ważna informacja, bo to oznacza co najmniej to, że trzeba zadbać o sprawną współpracę pomiędzy tymi rolami i tutaj właśnie pojawiają się tak zwanego project managera, ale co ważne ta osoba musi rozumieć specyfikę i wzywania projektu ML, bo jeśli próbuje taki projekt włączyć w ramki klasycznego IT, to skończy się to źle. O tym dowiesz się jeszcze więcej w ramach tej serii, ale na ten moment zapamiętaj, że taka rola jest ważna, bo blokerów będzie dużo, fajnie jak ktoś umie skutecznie tym zarządzać i ułatwiać współpracę i postęp w projekcie. . Przydadzą się tutaj też dobre umiejętności komunikacyjne. Wyróżniłem też role operacyjne, ale można powiedzieć “twarde”, czyli to wszystko co jest związane głównie z danymi i dostarczeniem ich, ale też tutaj przy wdrożeniu muszą być zaangażowane osoby, które sprawią, że wynik predykcji dotrze w czytelny sposób do właściwych osób i w odpowiednim czasie. Mało tego też po wdrożeniu pojawia się tutaj ważna rola MLOps, czyli upewnienie się, że model działa nie tylko w dniu wdrożeniu, ale w każdym kolejnym dniu. To ogarnięcie monitoringu i testów na różnych poziomach, bo trzeba zdawać sobie sprawę, że życie to rzeka, wszystko płynie, wszystko zmienia się. Zmieniają się preferencje, zachowania lub zdarzenia zewnętrzne. Tym bardziej teraz, kiedy to działa już globalnie. Dlatego, aby nasz model był anty-kruchy, czyli odporny na zmienność, musimy zapewnić mechanizm, który będzie tym zarządzał. W skrócie MLOps, to jest słowo, które warto zapamiętać, mówiąc o praktycznym ML. Swoja drogą, MLOps to jest taka rozszerzona wersja DevOps, która z kolei jest rozszerzoną wersją system admina. O MLOps jeszcze będzie w tym cyklu. No ok, na ten moment nie było chyba większych zaskoczeń, prawda? Ale pojawia się ważne, a nawet krytyczne pytanie:&#160; Kto łączy DS / ML z biznesem? Tak samo jak w klasycznym IT, tak i w ML czy DS nic się nie uda, jak będziemy myśleć tylko o technologii, a nie o biznesie. To oczywiste, natomiast mniej oczywiste już jest to, jak tym zarządzać w projektach ML / DS. To jest krytyczny element sukcesu projektu, a jest o tyle bardziej skomplikowany niż w klasycznym IT, że jest więcej miejsc, gdzie można się potknąć&#160; i rozjechać na komunikacji, jeśli nie dopytuje się wyjątkowo szczegółowo i nie patrzy na właściwe liczby. Wiesz już w poprzedniego odcinka o metrykach, że są różne &#8211; osoby techniczne zwykle patrzą na jedne bardziej, osoby z biznesu mają swoje. I często każdy w projekcie ma świadomość tych różnych metryk, to już trudniej z pełnym ich zrozumieniem. I to nie działa w taki sposób, że zatrudnimy wyjątkowo biznesowego Data Scientist, który dogada się z biznesem.To jest&#160; za mało, aby wpłynąć na biznes. Dlaczego tak jest? Bo faktem jest, że Data Science nigdy nie dogada się z biznesem w pełni! Brzmi zaskakujące? No też jak analizowałem sprawy i jak doszedłem do tego wniosku byłem również zaskoczony. Sukcesem będzie, jak będą patrzeć na te same metryki&#160; i liczby, ale wciąż ich interpretacja będzie z dużym prawdopodobieństwem&#160; inna, ponieważ każdy ma inną perspektywę i doświadczenie i ciężko to zmienić. Właśnie dlatego na popularności zyskuje hasło i nazwa roli, którą promował swego czasu m.in. Facebook &#8211; Decision Scientist, czyli osoba, która ma głębokie rozumienie i doświadczenie z DS / ML, ale metryką sukcesu w tej roli jest na ile technologia, modele itp. wpłynęły na skuteczne decyzje i wyniki biznesowe. Chciałbym, aby ten temat został w Twojej głowie jako ważny. Z mojego doświadczenia to jest krytyczny element. Tutaj nie trzeba przywiązywać się do samej nazwy Decision Scientist, ale chodzi o rolę i jej wpływ na cały projekt ML. Dlaczego o tym mówię z takim przekonaniem? Ponieważ jako DataWorkshop pokrywamy tę rolę w firmach, z którymi współpracujemy,&#160; a pomagamy także firmom, gdzie są już modele na produkcji, ale cały proces nie działa tak, jak biznes by tego oczekiwał. Temat komunikacji pomiędzy DS a biznesem jest złożony i wymaga osobnego podejścia. Są na to dowody i pokażę Ci to na konkretnych przykładach w&#160; następnym odcinku, bo temat zdecydowanie wymaga osobnego odcinka, aby go dobrze ująć i pomóc Ci zarządzać efektywną komunikacją i budowaniem mostu pomiędzy DS / ML a biznesem.&#160; Teraz tylko zwracam Twoją uwagę, że takie kompetencje są bardzo ważne, jeśli nie chcesz mieć jednego z 9&#160; na 10 nieudanych projektów. &#160; Jakie kompetencje są potrzebne, aby wystartować? Jak już jesteśmy przy udanych i nieudanych projektach, to chcę zwrócić Twoją uwagę, że definicja “udany” i “nieudany” jest też zależna od kontekstu i doskonale to zrozumiesz przechodząc całą tę serię podcastu.Natomiast nie zmienia to faktu, że “udany” musi nieść zawsze jakąś namacalną wartość i pomagać podejmować kolejne decyzje, które pozytywnie wpływają na biznes. I tutaj też ważnym momentem jest start, który z jednej strony jest obarczony większym ryzykiem, którym trudniej zarządzać, ale już na etapie startu powinien być fokus biznesowy. No chyba że mówimy o firmie, która ma dedykowany budżet na research, a dopiero potem zastanawia się, co z tym zrobić, ale to inna historia.&#160; Upraszczając,&#160; mówiąc o projektach, gdzie &#8222;corem technologicznym&#8221; są dane i uczenie maszynowe myślę o co najmniej 2 scenariuszach, w których mogą być firmy. Pierwszy &#8211; Data Science i ML już jest w firmie i tam jest kilka różnych stadiów, możliwych kolejnych scenariuszy, jak ten ML się wykorzystuje i czy rzeczywiście spełnia swoją rolę, ale o tym póki co nie mówmy. I jest inny scenariusz, kiedy firma nie zrobiła z ML jeszcze nic i tutaj też jest oczywiście cała paleta pod-scenariuszy jeśli chodzi o stopień zaawansowania organizacji jeśli dane, automatyzacje itd. Natomiast skupmy się na ten moment na uproszczonym kontekście, ale jednak ważnym, aby przede wszystkim wyróżnić te 2 opcje: 1. Firma &#8211;&#160; robimy już ML 2. Jeszcze nie robimy, ale chcemy Dlaczego tak to dzielę? Często jest tak, że firma, która nie zrobiła nic jeszcze z ML zadaje sobie inne pytania i ma inne obawy niż te firmy, które już coś próbowały (i pewnie wiele razy oparzyły się) lub robią to na większych czy mniejszych obrotach. I to nie chodzi tylko o pytania, ale też o inne potrzeby. Dodatkowo wchodzi w grę większy stopień niepewności, bo nie wiadomo jeszcze co to jest ten ML i czy pomysł, który mam jest sensowny. &#160;Generalnie pytania i wyzwania są inne w obu przypadkach. Jedno z nich może brzmieć : od czego zacząć i jakie kompetencje są potrzebne na start?&#160;Czy musimy mieć od razu dedykowany zespół full time, aby zacząć? Od razu odpowiem, że nie musisz 🙂 &#160; Najpierw przekonaj się, czy to, co robisz ma sens. Kiedyś współpracowałem z firmą, która była zainteresowana uczeniem maszynowym,&#160; choć w ich przypadku ta współpraca polegała...</p>
<p>Artykuł <a href="https://biznesmysli.pl/role-i-kompetencje-w-projekcie-machine-learning/">Role i kompetencje w projekcie Machine Learning</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-ZdWrIY wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/9664330/bmseries-3-episode-03" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p>W ostatnich <strong>&nbsp;</strong>2 odcinkach serii podcastu Biznes Myśli: <em><strong>“Machine Learning &#8211; od pomysłu do wdrożenia” </strong></em>rozmawialiśmy o pomysłach i filtrach, które warto na nie nałożyć, aby uniknąć popularnych pułapek oraz o metrykach sukcesu w projektach uczenia maszynowego. Od tego zwykle się zaczyna. Jak to już masz mniej więcej określone, to pojawia się pytania: ale kogo właściwie potrzebuję, aby mój pomysł wdrożyć w życie i aby te metryki sukcesu się spełniły. Albo z drugiej strony, jeśli jesteś osobą, która nie szuka specjalistów, a chce być specjalistą w tym obszarze, to jak się wyspecjalizować, aby rzeczywiście umieć rozwiązywać problemy w praktyce, a nie tylko na&nbsp; prezentacjach, bo to większość potrafi, ale biznes szybko i brutalnie to weryfikuje. </p>



<p><strong><br /></strong><br />Właśnie dlatego w tym odcinku porozmawiamy sobie o rolach i kompetencjach w projektach&nbsp; z uczeniem maszynowym w roli głównej. Temat zwykle zamyka się na <em>“Data Scientist”</em> lub <em>“ML Engineer”</em>, ale jednak na tym nie kończą się kompetencje potrzebne, aby projekt z sukcesem zacząć, przeprowadzić i co najważniejsze zakończyć. Poza tym te, jeśli patrzysz jedynie na nazwę stanowisk to też też bywa to &#8222;tricky&#8221; i często rozjeżdża się z rzeczywistością. Dlatego trochę skomplikujemy temat, ale z korzyścią dla Ciebie <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" />&nbsp;</p>



<p></p>



<p></p>



<span id="more-8524"></span>



<p><br /><br />Od razu powiem, że nie dostaniesz gotowego przepisu na sukces, bo takich nie ma.&nbsp; Nie będę Ci mówił to zadziała lepiej, a to gorzej, bo nie znam kontekstu Twojej organizacji. Nie chcę też poruszać tego tematu od strony HR, bo to nie moja bajka. Jestem praktykiem i zajmuje się wydobywaniem z danych wartości biznesowej i akurat tak się składa, że uczenie maszynowe w tym świetnie pomaga, jeśli zrobi się to właściwie i zwróci uwagę na kilka krytycznych elementów. I właśnie o tym chcę Ci opowiedzieć przez pryzmat mojego doświadczenia. A Ty mam nadzieję, że przepuścisz to co powiem przez swoje doświadczenie i swój kontekst i wyciągniesz z tego to, co Tobie jest w stanie pomóc lub połączysz kropki jeszcze inaczej.</p>



<p></p>



<p></p>



<p>Dlatego porozmawiamy o tym:</p>



<p><br /><br />1.&nbsp; Kogo potrzebujesz w projekcie ML, aby iść do przodu &#8211; wprowadzenie<br />2.&nbsp; Kto łączy DS / ML z biznesem?<br />3.&nbsp; Jakie kompetencje są potrzebne, aby wystartować?<br />4.&nbsp; Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie?<br /><br /><br />Nie traktuj tych odpowiedzi jako niezaprzeczalnego źródła prawdy. Bazuję na swoim doświadczeniu i przypadkach, które poznałem. A jak wiesz jest sporo wyjątków w życiu, dlatego lepiej wszystko, co słyszysz przepuszczać także przez swoje doświadczenie i swój kontekst <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>



<p></p>



<p></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p></p>



<p></p>



<p>Długo zastanawiałem się, jak podejść do omawiania tego tematu. Można zacząć wyjaśniać, kto czym się zajmuje po kolei i stworzyć podręcznikową iluzję &#8211; być może wszystko będzie zrozumiałe, ale nie odzwierciedla rzeczywistości. </p>



<p><br />Data Scientist, Data Science Manager,&nbsp; Machine Learning Engineer, AI specialist i mógłbym tutaj wymieniać jeszcze kilka lub kilkanaście nazw, które są tylko nazwami stanowisk i nie warto się do nich aż tak mocno przywiązywać, bo co prawda pomagają w nawigacji i szukaniu osób z branży, ale trzeba mieć na uwadze, że tutaj nie ma żadnego standardu&nbsp; i ciężko po samej nazwie stanowiska poznać, kto czym się dokładnie zajmuje&nbsp; i w jakim zakresie. A więc przejdźmy do tego co może Ci się realnie przydać, podzielmy sobie role w projekcie na 5&nbsp; podstawowych kategorii, które są moim zdaniem ważne <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" />&nbsp;</p>



<p><br /><br /><strong>1.&nbsp; Biznesowe<br />2. Role dot. danych i modelowania<br />3.&nbsp; Operacyjne&nbsp; &#8211; &gt;&nbsp; twarde&nbsp;<br />4. Operacyjne -&gt; miękkie<br />5. Łącznik </strong>(może brzmieć tajemniczo, ale wyjaśnię, o co chodzi)&nbsp; </p>



<p></p>



<p>Zaczniemy klasycznie jak na ten podcast,czyli od biznesu <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Jeśli zakładasz, że chcesz, aby Twój projekt się udał w ML musisz zdefiniować, co chcesz osiągnąć i aktywnie brać udział w tym projekcie powtarzając regularnie biznesową metrykę sukcesu.&nbsp; Warto doprecyzować, że rola biznesowa w ML to nie tylko odpytywanie i definiowanie metryki, ale też sumienna analiza procesów i tego, co się dzieje, jak mamy już tę upragnioną predykcję modelu, na co wpływa, jak dokładnie ją wykorzystujemy i jak mierzymy naszą skuteczność.</p>



<p><br /><br /><strong>Przykład:</strong><br /><br />Chcesz mieć model, który będzie prognozował skłonność do zakupu mieszkania i załóżmy, że co tydzień widzisz top. 100 klientów, którzy są według modelu bardziej skłonni do zakupu niż inni i celem zespołu wsparcia jest zadzwonić do tych osób i z nimi porozmawiać, aby zaproponować im ofertę zakupu mieszkania. Wartość tworzy się tutaj wtedy, kiedy nie musisz dzwonić do 1000 osób, a wiesz, że bardziej opłaca się dzwonić do 100. </p>



<p></p>



<p>No i wracasz z informacją model działa słabo, tylko 1 osoba ze 100 kupiła. No i tutaj rodzą się pytania, a czy zespół wsparcia dzwoni do wszystkich z taką samą ofertą, a czy mają ten sam scenariusz rozmowy? A czy te osoby na pewno nie chcą kupić, np. za tydzień czy za miesiąc? Jak mierzyć efektywność zespołu wsparcia? No właśnie, mówię Ci o tym, dlatego, że nie uczenie maszynowe to proces, model nie sprzedaje i nie kupuje <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" /> ale może podpowiadać trafniej&nbsp; lub mniej trafnie, ale aby to ocenić musimy mieć wypracowany i mierzalny proces biznesowy też i osoby zaangażowane w ten proces muszą mieć swój czynny udział w projekcie, bo potem dochodzi do sytuacji, że dla zespołu technicznego tak to nazwijmy wszystko działa, a dla biznesowego nic nie działa.</p>



<p><br /><br />Umiejętność analizy danych i modelowania w ML jest podstawową rolą i często w praktyce wykonuje to jedna osoba, choć to zależy też od organizacji jak ma poukładany proces. Zwykle w mniejszych organizacjach zarówno eksplorowaniem danych i wyciąganiem z nich wzorców w odpowiedzi na konkretny problem biznesowy, jak i użyciem tych danych do modelowania zajmuje się jedna osoba. I bardzo polecam taką kompletną wiedzę posiadać, zresztą sam uczę w ramach mojego kursu Data Science &amp; Machine Learning w praktyce takiego podejścia.</p>



<p><br /><br />Natomiast warto mieć świadomość, że w większych organizacjach te role mogą być rozdzielone i to jest ważna informacja, bo to oznacza co najmniej to, że trzeba zadbać o sprawną współpracę pomiędzy tymi rolami i tutaj właśnie pojawiają się tak zwanego <strong>project managera,</strong> ale co ważne ta osoba musi rozumieć specyfikę i wzywania projektu ML, bo jeśli próbuje taki projekt włączyć w ramki klasycznego IT, to skończy się to źle. O tym dowiesz się jeszcze więcej w ramach tej serii, ale na ten moment zapamiętaj, że taka rola jest ważna, bo blokerów będzie dużo, fajnie jak ktoś umie skutecznie tym zarządzać i ułatwiać współpracę i postęp w projekcie. . Przydadzą się tutaj też dobre umiejętności komunikacyjne. </p>



<p></p>



<p>Wyróżniłem też role operacyjne, ale można powiedzieć “twarde”, czyli to wszystko co jest związane głównie z danymi i dostarczeniem ich, ale też tutaj przy wdrożeniu muszą być zaangażowane osoby, które sprawią, że wynik predykcji dotrze w czytelny sposób do właściwych osób i w odpowiednim czasie. Mało tego też po wdrożeniu pojawia się tutaj ważna rola MLOps, czyli upewnienie się, że model działa nie tylko w dniu wdrożeniu, ale w każdym kolejnym dniu. </p>



<p></p>



<p>To ogarnięcie monitoringu i testów na różnych poziomach, bo trzeba zdawać sobie sprawę, że życie to rzeka, wszystko płynie, wszystko zmienia się. Zmieniają się preferencje, zachowania lub zdarzenia zewnętrzne. Tym bardziej teraz, kiedy to działa już globalnie. Dlatego, aby nasz model był anty-kruchy, czyli odporny na zmienność, musimy zapewnić mechanizm, który będzie tym zarządzał. W skrócie <strong>MLOps</strong>, to jest słowo, które warto zapamiętać, mówiąc o praktycznym ML. Swoja drogą, MLOps to jest taka rozszerzona wersja DevOps, która z kolei jest rozszerzoną wersją system admina. O MLOps jeszcze będzie w tym cyklu. </p>



<p></p>



<p></p>



<p>No ok, na ten moment nie było chyba większych zaskoczeń, prawda? Ale pojawia się ważne, a nawet krytyczne pytanie:&nbsp;</p>



<h2 class="wp-block-heading"><br /><br /><strong>Kto łączy DS / ML z biznesem?</strong></h2>



<p><br /><br />Tak samo jak w klasycznym IT, tak i w ML czy DS nic się nie uda, jak będziemy myśleć tylko o technologii, a nie o biznesie. To oczywiste, natomiast mniej oczywiste już jest to, jak tym zarządzać w projektach ML / DS. To jest krytyczny element sukcesu projektu, a jest o tyle bardziej skomplikowany niż w klasycznym IT, że jest więcej miejsc, gdzie można się potknąć&nbsp; i rozjechać na komunikacji, jeśli nie dopytuje się wyjątkowo szczegółowo i nie patrzy na właściwe liczby. </p>



<p><br /><br />Wiesz już w poprzedniego odcinka o metrykach, że są różne &#8211; osoby techniczne zwykle patrzą na jedne bardziej, osoby z biznesu mają swoje. I często każdy w projekcie ma świadomość tych różnych metryk, to już trudniej z pełnym ich zrozumieniem. I to nie działa w taki sposób, że zatrudnimy wyjątkowo biznesowego Data Scientist, który dogada się z biznesem.To jest&nbsp; za mało, aby wpłynąć na biznes. Dlaczego tak jest? </p>



<blockquote class="wp-block-quote"><p><br /><strong>Bo faktem jest, że Data Science nigdy nie dogada się z biznesem w pełni! </strong></p></blockquote>



<p></p>



<p>Brzmi zaskakujące? No też jak analizowałem sprawy i jak doszedłem do tego wniosku byłem również zaskoczony. Sukcesem będzie, jak będą patrzeć na te same metryki&nbsp; i liczby, ale wciąż ich interpretacja będzie z dużym prawdopodobieństwem&nbsp; inna, ponieważ każdy ma inną perspektywę i doświadczenie i ciężko to zmienić. Właśnie dlatego na popularności zyskuje hasło i nazwa roli, którą promował swego czasu m.in. Facebook &#8211; <strong>Decision Scientist, </strong>czyli osoba, która ma głębokie rozumienie i doświadczenie z DS / ML, ale metryką sukcesu w tej roli jest na ile technologia, modele itp. wpłynęły na skuteczne decyzje i wyniki biznesowe.</p>



<p><br /><br />Chciałbym, aby ten temat został w Twojej głowie jako ważny. Z mojego doświadczenia to jest krytyczny element. Tutaj nie trzeba przywiązywać się do samej nazwy <strong>Decision Scientist,</strong> ale chodzi o rolę i jej wpływ na cały projekt ML. Dlaczego o tym mówię z takim przekonaniem? Ponieważ jako <strong>DataWorkshop </strong>pokrywamy tę rolę w firmach, z którymi współpracujemy,&nbsp; a pomagamy także firmom, gdzie są już modele na produkcji, ale cały proces nie działa tak, jak biznes by tego oczekiwał. Temat komunikacji pomiędzy DS a biznesem jest złożony i wymaga osobnego podejścia. </p>



<p></p>



<p>Są na to dowody i pokażę Ci to na konkretnych przykładach w&nbsp; następnym odcinku, bo temat zdecydowanie wymaga osobnego odcinka, aby go dobrze ująć i pomóc Ci zarządzać efektywną komunikacją i budowaniem mostu pomiędzy DS / ML a biznesem.&nbsp; Teraz tylko zwracam Twoją uwagę, że takie kompetencje są bardzo ważne, jeśli nie chcesz mieć jednego z 9&nbsp; na 10 nieudanych projektów.</p>



<p>&nbsp; </p>



<h2 class="wp-block-heading"><strong> Jakie kompetencje są potrzebne, aby wystartować?</strong></h2>



<p><br /><strong><br /></strong>Jak już jesteśmy przy udanych i nieudanych projektach, to chcę zwrócić Twoją uwagę, że definicja “udany” i “nieudany” jest też zależna od kontekstu i doskonale to zrozumiesz przechodząc całą tę serię podcastu.<br />Natomiast nie zmienia to faktu, że “udany” musi nieść zawsze jakąś namacalną wartość i pomagać podejmować kolejne decyzje, które pozytywnie wpływają na biznes. I tutaj też ważnym momentem jest start, który z jednej strony jest obarczony większym ryzykiem, którym trudniej zarządzać, ale już na etapie startu powinien być fokus biznesowy. No chyba że mówimy o firmie, która ma dedykowany budżet na research, a dopiero potem zastanawia się, co z tym zrobić, ale to inna historia.&nbsp;</p>



<p><br /><br />Upraszczając,&nbsp; mówiąc o projektach, gdzie &#8222;corem technologicznym&#8221; są dane i uczenie maszynowe myślę o co najmniej 2 scenariuszach, w których mogą być firmy. Pierwszy &#8211; Data Science i ML już jest w firmie i tam jest kilka różnych stadiów, możliwych kolejnych scenariuszy, jak ten ML się wykorzystuje i czy rzeczywiście spełnia swoją rolę, ale o tym póki co nie mówmy. I jest inny scenariusz, kiedy firma nie zrobiła z ML jeszcze nic i tutaj też jest oczywiście cała paleta pod-scenariuszy jeśli chodzi o stopień zaawansowania organizacji jeśli dane, automatyzacje itd.</p>



<p><br /><br />Natomiast skupmy się na ten moment na uproszczonym kontekście, ale jednak ważnym, aby przede wszystkim wyróżnić te 2 opcje:</p>



<ul><li>1. Firma &#8211;&nbsp; robimy już ML</li><li>2. Jeszcze nie robimy, ale chcemy</li></ul>



<p><br /><br />Dlaczego tak to dzielę? Często jest tak, że firma, która nie zrobiła nic jeszcze z ML zadaje sobie inne pytania i ma inne obawy niż te firmy, które już coś próbowały (i pewnie wiele razy oparzyły się) lub robią to na większych czy mniejszych obrotach. I to nie chodzi tylko o pytania, ale też o inne potrzeby. Dodatkowo wchodzi w grę większy stopień niepewności, bo nie wiadomo jeszcze co to jest ten ML i czy pomysł, który mam jest sensowny.</p>



<p></p>



<p>&nbsp;Generalnie pytania i wyzwania są inne w obu przypadkach. Jedno z nich może brzmieć : od czego zacząć i jakie kompetencje są potrzebne na start?&nbsp;<br />Czy musimy mieć od razu dedykowany zespół full time, aby zacząć?</p>



<p><br /><br />Od razu odpowiem, że nie musisz <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /> &nbsp; Najpierw przekonaj się, czy to, co robisz ma sens.<br /><br />Kiedyś współpracowałem z firmą, która była zainteresowana uczeniem maszynowym,&nbsp; choć w ich przypadku ta współpraca polegała raczej na sprawdzeniu, czy ich pomysł jest w ogóle sensowny i pod kątem ml i biznesowo. Dodam, że z danymi było bardzo krucho &#8211; nie dość, że było ich mało, to jeszcze nie wiedzieliśmy, czy na cokolwiek się przydadzą. Firma była dosyć mała, ale chciała szybko się rozwijać i inwestować, no i w pewnym momencie dostaliśmy prośbę o rekomendację dot. złożonej hurtowni danych z przemyślaną w cudzysłowie architekturą. </p>



<p></p>



<p>No i pytanie brzmiało, czy to nam pomoże z danymi pod ML? Zgadzam się, że to są tematy ważne, ale problem pojawia się wtedy, kiedy pewne kroki wykonują się nie po kolei. Tak samo jest z ML i budowaniem zespołu.</p>



<p><br /><br />Sama technologia, bez rozumienia biznesu nie załatwi sprawy, nawet jeśli mówimy o starcie, to warto, aby ten start był sensowny. Warto zdefiniować sobie, co to znaczy “start” czy też “początek”, bo nie dla każdego jest taki sam. Wiem, że powtarzanie “to zależy” może frustrować, bo każdy cieszy się, jak pojawiają się proste instrukcje, ale z drugiej strony nie zwracanie uwagi na kontekst i filtrowanie wszystkiego przez to może skończyć się niefajnie. A więc bazując na moim doświadczeniu czuję obowiązek wręcz wspominania zawsze o tym kontekście, aby o nim nie zapominać i pokazywać Ci przynajmniej kilka opcji, a decyzja, która jest najlepsza na dany moment dla Ciebie należy już do Ciebie <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>



<p><br /><br />Wytrenowanie jakiegoś modelu nie jest wyzwaniem, problem tylko w tym, że nie ma sensu trenować “jakiegoś” modelu, tylko taki, który rozwiązuje Twój&nbsp; problem. A to oznacza, że jak planujesz start to zadaj sobie pytanie, co chcesz osiągnąć. Bo jeśli chcesz tylko odpowiedzieć na pytanie, czy da się wytrenować model ML z pomocą Twoich danych, który będzie miał sensowne metryki sukcesu techniczne, to potrzebujesz 1 osoby, która potrafi analizować dane i umie przeprowadzić serię eksperymentów w ML i wybrać model, który daje sensowny wynik.&nbsp;</p>



<p></p>



<p>Natomiast jeśli chcesz odpowiedzieć na pytanie biznesowe, czy model ML może mi pomóc&nbsp; i w jakim stopniu osiągnąć cel X, np. zaoszczędzić y na produkcji danej części i jakie muszą być spełnione warunki, aby to mogło się udać…&nbsp;</p>



<p><br /><br />To musisz mieć świadomość, że tego model nie załatwi i z dużym prawdopodobieństwem nie odpowie na to pytanie osoba, która ma podejście tylko techniczne (np. Data Scientist). I to nie jest wada, to jest fakt. Jeśli jesteś już na etapie, że zależy Ci na starcie w scenariuszu 2, czyli wykorzystaniu ML w biznesie, a nie tylko w eksperymentach, to musisz wyjść poza kompetencje tylko techniczne. I to nie jest kwestia bycia juniorem, medium czy seniorem w danej dziedzinie ani kwestia tytułów zawodowych, a raczej o to, że są zwykle osoby, które większość życia zajmowały się tylko technologiom, a nie biznesem widzą te same rzeczy inaczej niż biznes i odwrotnie i nie ma co oczekiwać, że to się zmieni, jeśli dokładnie wszystko wyjaśnimy, bo to nie chodzi tylko o sposób komunikacji.</p>



<p></p>



<p>I tutaj pojawia się pytanie:&nbsp;</p>



<blockquote class="wp-block-quote"><p><em>Czy mogę wystartować z ML nie mając wszystkich kompetencji wewnątrz firmy?</em></p></blockquote>



<p></p>



<p>Tak, możesz i nawet warto, bo to oszczędza Twój czas i pieniądze, jeśli znajdziesz właściwego partnera.<br />Właściwy partner na początek to też taki, który nie zbuduje Ci model, bo to możesz zrobić samodzielnie po moim kursie, ale taki, który właśnie podpowie Ci co zrobić, aby w przypadku Twojego biznesu ten model miał jakąkolwiek wartość.</p>



<p></p>



<p><br />Zwracam uwagę na to<strong> NIE</strong> po to, aby powiedzieć Ci, że “tylko DataWorkshop jest w stanie Ci pomóc” (chociaż być może to też jest prawda), bo tego nie wiem, zanim się nie poznamy. Też dodam, że nie wchodzimy też we wszystkie projekty, które do nas wpadają i nie udajemy, że jesteśmy w stanie pomóc każdemu. Musi być pewne dopasowanie i zrozumienie jeśli chodzi o dostarczoną wartość. Dzięki temu dopasowaniu, każdy zyskuje, bo dostarczamy wartość. Natomiast zwracam Twoją uwagę na to, że sam model nie jest odpowiedzią na Twój problem, tutaj chodzi o co najmniej o proces <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /> i zwracaj na to uwagę jeśli budujesz zespół lub szukasz partnera z zewnątrz.</p>



<h2 class="wp-block-heading"><br /><strong><br /><br />Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie?</strong></h2>



<p><strong> <br /></strong><br />No dobrze, ale co się zmienia po starcie, jak już mamy pierwszy model na produkcji, dostajemy wynik, widać, że ten wynik na coś wpływa i wiemy na co dokładnie z jakim skutkiem. Co dalej?</p>



<p></p>



<p>Na pewno nie można tego zostawić samemu sobie i z jednej strony trzeba utrzymywać model, czyli re-trenować regularnie (co ile to zależy od tego, jak szybko model degraduje w Twoim wypadku), ale i zapewniać regularny napływ aktualnych danych i zarządzać w tym w czasie &#8211; tutaj pojawia się&nbsp; rola MLops także, o której już wspominałem.Poza tym jeśli to biznesowo się opłaca, to warto też dalej ulepszać model.</p>



<p></p>



<p>Kiedyś dostałem pytanie w ramach jednego z projektów, ile osób potrzeba, aby uruchomić np. 10 równoległych projektów ML. No i znów to odpowiedź może brzmieć “to zależy”, ale pewne jest, że nie każde skalowanie wymaga wprost&nbsp; przełożenia&nbsp; na proporcjonalnie&nbsp; większą ilość zaangażowanych osób. Bo zobacz, w uczeniu maszynowym najtrudniejszy moim zdaniem jest proces i wypracowanie np. Pewnego know how dla danej firmy, jakie mamy dane (to nie zawsze jest takie oczywiste), jak nimi zarządzać w kontekście ML, na jakie metryki patrzymy,&nbsp; jak porównujemy, który model jest lepszy od drugiego, jak weryfikujemy skuteczność modelu. </p>



<p></p>



<p>W zasadzie np.&nbsp; każdy z tych 10 przykładowych&nbsp; projektów&nbsp; może być inny, ale to co najtrudniejsze to wypracowanie właśnie procesu i zrozumienie w danym kontekście biznesowym na co mamy wpływ i na co w jaki sposób wpływamy. Jeśli to załapiemy, mamy tak zwany core, to różnicowanie pewnych elementów jest znacznie prostsze i nie wymaga aż tyle czasu, co stawanie na nogi pewnych podwalin. Na tym fundamencie może potem wyrosnąć wiele domków, mało tego, jak są już tory, ciężej jest wykoleić się, również mniej doświadczonym zespołem. W uczeniu maszynowym w ogóle jest tak, że na początek trzeba włożyć dużo energii, aby wypracować pierwszą deltę wartości, ale potem można coraz szybciej się rozpędzać i skalować.</p>



<p></p>



<p>Myśląc o kompetencjach i rolach w swojej firmie warto zastanowić się, do czego się dąży, bo sam ML może być:</p>



<ul><li> jako core biznesu</li><li>wspierać biznes w jakimś wycinku / rozwiązywaniu konkretnego problemu&nbsp;</li><li>może być w tak zwanym “laboratorium AI”, to zwykle nieco większe firmy wydzielają takie przestrzenie na eksplorowanie nowych możliwości bez większego ponoszenia ryzyka, że coś może pójść nie tak, bo to przecież laboratorium. </li></ul>



<p><br /><br />Drugi wymiar, który warto wziąć pod uwagę, to wielkość firmy:<br /><br />Jeśli Twoja firma jest mała, to pewnie oczekujesz mniejszą ilość ludzi, ale wielozadaniowych, którzy są wykonawcami i liderami&nbsp; jednocześnie, w większych organizacjach z kolei jest więcej kropek do połączenia i dosłownie ludzi, a więc potrzebne są dodatkowe role, które spajają wszystko &#8211; łącznicy.</p>



<p><br /><br />To bardziej pytanie nie tyle o wielkość, ale&nbsp; o kulturę organizacji w tym kulturę pracy z danymi. Jest to powiązane w pewien sposób z wielkością.&nbsp;<br />No i 3 wymiar, najważniejszy to, co chcesz osiągnąć na dany moment.</p>



<p></p>



<p>A więc zadanie dla Ciebie brzmi tak, aby określić swoją firmę w tych 3 wymiarach i spróbować odpowiedzieć na pytanie, której roli brakuje mi, aby osiągnąć cel.</p>



<p></p>



<p>Napisz proszę do mnie na <a href="mailto:hello@dataworkshop.eu">hello@dataworkshop.eu</a>, porozmawiamy o tym i koniecznie daj znać, czy ten odcinek był dla Ciebie wartościowy.&nbsp;</p>
<p>Artykuł <a href="https://biznesmysli.pl/role-i-kompetencje-w-projekcie-machine-learning/">Role i kompetencje w projekcie Machine Learning</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/role-i-kompetencje-w-projekcie-machine-learning/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Cyberataki na sztuczną inteligencję</title>
		<link>https://biznesmysli.pl/cyberataki-na-sztuczna-inteligencje/</link>
					<comments>https://biznesmysli.pl/cyberataki-na-sztuczna-inteligencje/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 07 Dec 2020 07:04:57 +0000</pubDate>
				<category><![CDATA[Brak kategorii]]></category>
		<guid isPermaLink="false">https://biznesmysli.pl/?p=4900</guid>

					<description><![CDATA[<p>Stabilność modeli to bardzo ciekawy temat. Z jednej strony pojawia się coraz więcej algorytmów, które pokazują całkiem fajny wynik, ale ten wynik czasem może być złudny. Mam na myśli to, że jak wdrożymy model na produkcję, to może nas zaskoczyć. W jaki sposób? W których miejscach mogą być potencjalne kłopoty? O tym dzisiaj będę rozmawiać z Adamem, który bardzo się inspiruje tymi tematami pod wieloma względami. Z jednej strony porozmawiamy o tym, jak ważne jest to, żeby wynik był powtarzalny, z drugiej strony ważna jest także generalizacja wiedzy. Poruszymy też temat potencjalnych ataków, które mogą się przydarzyć i zepsuć model w nieoczekiwanym momencie i z bolesnym skutkiem&#8230; Cześć Adam. Przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz? Cześć Vladimir. Nazywam się Adam Dziedzic. Obecnie mieszkam w Kanadzie, w Toronto i pracuję na University of Toronto i Vector Institute, gdzie prowadzę badania nad sieciami neuronowymi.  Twoja ścieżka jest bardzo ciekawa, chwilę później o tym porozmawiamy. Powiedz najpierw, co ostatnio ciekawego przeczytałeś i dlaczego warto to przeczytać?  W ostatnie wakacje czytałem książki napisane przez profesora Yuvala Noah Harariego. Wiemy, że biologia jest bardzo skomplikowana obliczeniowo i postęp, który rysuje Harari w swoich książkach może nie nastąpić tak szybko. Oczywiście chciałbym dłużej żyć, to jest niezaprzeczalne, ale czytałem np. książkę „Brave New Word” i tam wizja była taka, że żyjemy tylko 60 lat, ale jakość życia jest znacznie wyższa. Naturalna długość życia dla homo sapiens to około 80 lat i teraz ciekawy jestem, na ile można by nasze życie wydłużyć. Ważne jest też, jak nasz mózg pracuje. Harari opisuje, że obecnie wiele firm pracuje nad wydłużeniem życia, ale też polepszeniem jego jakości. Weźmy np. pod uwagę Steve&#8217;a Jobsa &#8211; on przez większość czasu swojego życia opierał się na indyjskich dietach, na nienaukowo zbadanych żywieniowych regułach i żył tylko 56 lat. Ale jego wpływ na to, jaką używamy technologię, był ogromny. Teraz jak tylko nauczymy się manipulować genami, to na pewno nic nas nie zatrzyma przed tym, żeby ulepszyć kolejne pokolenie co do jakości i długości życia. Co mi się bardzo podoba w książkach Harariego to jego rozciągnięty horyzont czasu, tzn. opisuje, co było przed homo sapiens i co będzie następnym, lepszym gatunkiem po homo sapiens. Nasze życie, to, jak postrzegamy je, zależy od tego, jak się czujemy w swoim ciele. Niezależnie od tego, czy jesteśmy w Polsce, w Krakowie czy w Kanadzie, w Toronto. Powiedziałbym, że Harari jest odważny w swoich przewidywaniach i kreśli przyszłość grubą kreską. Wciąż będąc historykiem, wraca do przeszłości, ale ciekawie też opisuje przyszłość w kontekście szczególnie machine learning i deep learning. Np. interesujące jest też to, co pisze o animizmie i o tym, że imię Ewa oznacza samicę węża. Harari definiuje kolejną rewolucję, która będzie od materializmu do informacji mierzona w bitach. Co ciekawego jeszcze, że on chce pokazać, jak technologia może ulepszyć nasze życie. Myślę, że pod tym względem ta książka jest bardzo ciekawa. Dzięki za polecenie. Myślę, że jak jeszcze kogoś ominęła taka lektura, to fajnie ją przeczytać. Ostatnio zbieraliśmy opinie i część osób powiedziała, że bardzo doceniają polecenia, bo teraz jest bardzo dużo ciekawych książek, ale zawsze brakuje czasu, a to jest taka kolejna gwiazdeczka, żeby to przeczytać.  Opowiedz o swoim doświadczeniu, tzw. background. Czym się zajmujesz albo czym się zajmowałeś wcześniej? Od razu powiem, że tego było dużo i oczywiście nie wszystko dzisiaj dotkniemy ale tak, żeby trochę bardziej przybliżyć czytelnikom, jakie masz doświadczenie w tych tematach. W sierpniu w tym roku skończyłem doktorat na University of Chicago. Moja praca doktorska była na temat tego, jak można optymalizować sieci neuronowe pod względem czasu ich trenowania i testowania, jak można je kompresować i uodpornić na ataki. Na początku września przeprowadziłem się do Toronto, by tu dalej kontynuować moje badania i jednym z głównych osób tutaj w Vector jest Geoffrey Hinton. Jest on znany w moim środowisku jako osoba, która wygrała nagrodę Turinga. Było to szczególnie dzięki temu, że on ze swoimi studentami w roku 2012 zaprezentował sieć AlexNet, która wygrała zawody ImageNet. W ogóle to wydarzenie spowodowało wielki przełom w mojej dziedzinie, szczególnie w tzw. deep learning. To dało początek lawinie projektów, innych modeli, które były rozwijane, aby wygrać kolejne konkursy ImageNet.  To jest ciekawa historia, zresztą jest to zwane jako ImageNet Moment. Też ciekawość polega na tym, że w tej chwili w NLP odbywa się coś podobnego, tylko bardziej Transformers Moment. Hinton jest uznawany za jednego z ojców deep learningu. Porozmawiajmy troszkę o Vector Institute. Co to za instytucja, jakie ma założenia, cele, jak działa? Głównym celem Vector Institute jest dalsze rozwijanie machine i deep learning. Umożliwia współpracę uczelni, instytucji rządowych, firm i start-upów. Kanada jest jednym z liderów w deep learning i podobne instytuty istnieją także w Montrealu i Edmonton. W Vector kładzie się duży nacisk na aplikacje machine i deep learning, szczególnie w medycynie i w sektorze finansowym.  Brzmi bardzo ciekawie, ale przejdźmy do konkretów, żeby sobie lepiej uświadomić, co oznacza “aplikować”, bo to z jednej strony jest zrozumiałe, ale w praktyce zwykle to nie jest takie łatwe i na szczegółach można się przejechać. Dość często myślę, że świat researcherów faktycznie jest dość mocno rozłączony z tym światem rzeczywistym. Przejdźmy przez jakiś przykład np. z obszaru zdrowia. Co udało się zrobić? Mógłbyś podać jakiś przypadek, użycie i jak to mniej więcej działa teraz, może potencjalne skutki, sukcesy?  Podam przykład z moich badań. W jednym z projektów budujemy platformę, dzięki której np. firmy lub szpitale mogą współpracować, aby ulepszyć swoje modele. Problem polega na tym, że dane np. między szpitalami lub bankami nie mogą być wymieniane z powodu uregulowań prawnych. My pracujemy nad metodą, jak te dane mogą być przesyłane między szpitalami lub bankami, ale w postaci zaszyfrowanej (tak, że nie można ich odczytać). Ale z drugiej strony dane są użyteczne do trenowania modeli. Okazuje się, że jest to możliwe dzięki zastosowaniu kilku technik z zakresu kryptografii.  Bardzo ciekawe zagadnienie teraz poruszasz. Zresztą jeżeli chodzi o Europę i RODO, to myślę, że tutaj jest wiele osób zainteresowanych, żeby o tym więcej się dowiedzieć. Mówiąc o szyfrowaniu, to masz na myśli anonimizację danych, czyli transformację danych w inny sposób, żeby ktoś nie mógł tego odczytać?  Okazuje się, że anonimizacja danych nie jest skuteczna. Tutaj polega to na tym, że usuwa się imiona, nazwiska, rok urodzenia danej osoby. Jednym z przykładów, że ta technika nie działa, jest gafa Netflixa. Otóż Netflix opublikował dane dotyczącego tego, jak jego klienci oceniali różne filmy, ale usunął z tych danych imiona i nazwiska swoich klientów. Jak się okazało, to nie było wystarczające. Badacze z University of Texas w Austin połączyli dane z Netflixa z inną bazą danych, która nazywa się IMDb i tym naukowcom z Teksasu udało się odtworzyć część danych, które Netflix usunął.  Tutaj też mamy na myśli, że dane są różnego rodzaju. To są dane tekstowe (wiek, imię, nazwisko), ale również mówimy np. o zdjęciach. Używamy np. danych, które zawierają zdjęcia rentgenowskie klatki piersiowej. Takie dane opublikowano na kilku uczelniach w Stanach. My używamy zbioru danych z uczelni Stanford, który nazywa się chexpert. Tak przy okazji chexpert brzmi cool i jest to połączenie słów chest, które oznacza „klatka piersiowa” i słowa expert. My trenujemy w różnych rodzajach modeli, które nazywamy sieciami neuronowymi (sieci są tu splotowe albo konwolucyjne) i trenujemy te modele właśnie na tych danych z uczelni Stanford. Te modele mogą później służyć do tego, aby wystawić wstępną diagnozę dla nowych pacjentów. Fajnie. Tutaj jeszcze a propos tego, że na podstawie zanonimizowanych danych można to odtworzyć, odsyłam do 70. odcinek podcastu, gdzie były trzy historie, m.in. jedna historia związana z trasami treningowymi w całkowicie odludnym obszarze, co skutecznie zasugerowało obecność wojska w danym obszarze. Coś, co nie powinno być powszechnie znane. Myślę, że jeszcze warto podać inny przykład. Obecnie popularne są smartwatche. Otóż problem polega na tym, że dane z tego typu urządzeń mogą trafić w niepowołane ręce. Powiedzmy, że po jakimś czasie przestajemy ćwiczyć czy biegać, nasze tętno jest niestabilne. Wówczas firmy ubezpieczeniowe mogą w tym przypadku wywnioskować, że dana osoba ma potencjalnie problemy ze zdrowiem. Gdy ta osoba chce wykupić nowe ubezpieczenie zdrowotne, wówczas taka firma może albo podwyższyć cenę, albo zupełnie odmówić temu klientowi. My pracujemy nad rozwiązaniami, które będą mogły te dane szyfrować (powiedzmy, że na tym smartwatchu), następnie wysłać je na serwer, żeby tam je przeanalizować, zwrócić rezultat, który tylko dany użytkownik (ten klient) będzie mógł odszyfrować.  Tak, zgadza się. Tutaj sama anonimowość danych, które przedtem gdzieś były używane, jest niewystarczająca. Trzymam kciuki, żeby ten kierunek udało się rozwinąć i później mam nadzieję, że to będzie też w jakiś sposób udostępnione &#8211; przynajmniej w postaci pomysłu albo open source. Są takie pomysły, czy już za daleko idę? Idea federated learning polega na tym, że dane pozostają użytkownika, na jego urządzeniu. Ale wiele osób może współtrenować modele. Jak to się dzieje? Każdy użytkownik trenuje lokalnie model na swoich danych. Następnie współdzieli parametry danego modelu lub tzw. gradienty, których używa się do aktualizacji parametrów w centralnym modelu. Obecnie są już ataki, które na podstawie parametrów sieci tego modelu lub gradientów mogą wywnioskować dane konkretnego użytkownika. Mimo to powstają startupy, które skupiają się wyłącznie na tym, jak zastosować federated learning dla np. medycyny.  Rok temu byłem na konferencji ICML. Jest to jedna z największych i najważniejszych konferencji w dziedzinie machine learning. Odbywała się ona w Kalifornii w Long Beach i był tam startup o nazwie Dog AI. Ten startup miał wielki napis &#8211; federated learning. Nikt nie miał wątpliwości, że właśnie ten temat jest obecnie jednym z najbardziej popularnych tematów w machine i deep learning.  Oprócz tego, że zajmujesz się szyfrowaniem danych, to również interesuje Cię obrona przed atakami modelu, jak temu można zapobiec. O co chodzi z takim atakiem na model? O czym mówimy, jaki jest kontekst? Na czym polegają ataki na machine learning? Otóż dodaje się bardzo niewielkie, ale specyficzne zakłócenie do obrazka lub danych wyjściowych do modelu. To zakłócenie powoduje, że model zwraca błędną odpowiedź. Tutaj bardzo ważne jest to, że to zakłócenie jest zwykle niewidoczne dla ludzkiego oka. Jest wiele różnych typów ataków. W niektórych przypadkach wystarczy zmiana jednego piksela. Dla przykładu &#8211; sieci splotowe są używane do klasyfikowania obiektów na zdjęciach. Załóżmy, że mamy taką sieć, która potrafi rozpoznać psy i koty. Do sieci na wejście wysyłamy obrazek kota i sieć prawidłowo klasyfikuje ten obiekt na obrazku jako kot. Następnie, jako atakujący szukamy, które piksele można w jak najmniejszym stopniu zmodyfikować, by oszukać ten model. Okazuje się, że gdy mamy dostęp do takiej sieci (do tego modelu), to można bardzo łatwo znaleźć tzw. wektor ataku i dodajemy go do obrazka kotka. Wówczas sieć (ten model) z dużą pewnością zwraca odpowiedź, że na obrazku jest pies, mimo tego, że dla ludzkiego oka ewidentnie na obrazku jest kot. Pamiętam, jak takie naklejki były. Te naklejki akurat czasem były zauważalne, ale tak jak powiedziałeś, to czasem sprowadza się nawet do czegoś mniejszego. Jakieś delikatne zmiany, człowiek tego nie zauważa, ale wynik będzie zauważalny.  Jak można być odpornym bardziej na takie ataki? Co się robi, żeby sobie z tym poradzić? Było wiele prób obrony sieci neuronowych przed tymi atakami, ale jak do tej pory nie ma w pełni skutecznej obrony. Obecnie jedna z popularnych metod polega na tym, że trenuje się sieć na tych zakłóconych danych wejściowych. Co to znaczy? W trakcie trenowania modelu, prowadzimy atak na sieć i ten zaatakowany obrazek jest używany do trenowania tej sieci. Ta metoda jest w pewnym stopniu brute force i okazuje się, że naprawdę ona działa lepiej niż większość innych technik obrony modeli. Można powiedzieć, że w świecie naukowym przez jakiś czas nawet toczyła się mała wojna między tymi, którzy atakowali te modele i tymi, którzy ich bronili. Powiedziałbym, że w większości przypadków atakujący wygrywali. A jaka jest wartość dodana dla tego atakującego? Czy to jest po prostu zabawa czy coś więcej? Jeden z ciekawych, nieudanych ataków miał miejsce na systemy rozpoznawania mowy. Atakujący potrafił znaleźć wektor ataku i dodać go do danych wejściowych, żeby oszukać model. Jednak takie wartości zmodyfikowane nie były wysyłane bezpośrednio do modelu, ale odgrywane i wysłane jako dźwięk i wówczas ten model wracał do poprawnej klasyfikacji. Okazuje się, że dodanie...</p>
<p>Artykuł <a href="https://biznesmysli.pl/cyberataki-na-sztuczna-inteligencje/">Cyberataki na sztuczną inteligencję</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1mwec4 wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-96-cyberataki-na-sztuczna-inteligencj" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/04qnM1AFwwWFOsi239wMkM" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p><br /></p>



<p><strong>Stabilność modeli to bardzo ciekawy temat. Z jednej strony pojawia się coraz więcej algorytmów, które pokazują całkiem fajny wynik, ale ten wynik czasem może być złudny. Mam na myśli to, że jak wdrożymy model na produkcję, to może nas zaskoczyć. W jaki sposób? W których miejscach mogą być potencjalne kłopoty? O tym dzisiaj będę rozmawiać z Adamem, który bardzo się inspiruje tymi tematami pod wieloma względami. Z jednej strony porozmawiamy o tym, jak ważne jest to, żeby wynik był powtarzalny, z drugiej strony ważna jest także generalizacja wiedzy. Poruszymy też temat potencjalnych ataków, które mogą się przydarzyć i zepsuć model w nieoczekiwanym momencie i z bolesnym skutkiem</strong>&#8230;<br /><br /></p>



<span id="more-4900"></span>



<p><br /><br /><strong>Cześć Adam. Przedstaw się: kim jesteś, czym się zajmujesz, gdzie mieszkasz?</strong> <br /><br /><br /></p>



<p>Cześć Vladimir. Nazywam się <a href="https://adam-dziedzic.github.io/" target="_blank" rel="noreferrer noopener">Adam Dziedzic</a>. Obecnie mieszkam w Kanadzie, w Toronto i pracuję na University of Toronto i <a href="https://vectorinstitute.ai/" target="_blank" rel="noreferrer noopener">Vector Institute</a>, gdzie prowadzę badania nad <a href="https://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa" target="_blank" rel="noreferrer noopener">sieciami neuronowymi</a>. <br /><br /><br /></p>



<p><strong>Twoja ścieżka jest bardzo ciekawa, chwilę później o tym porozmawiamy. Powiedz najpierw, co ostatnio ciekawego przeczytałeś i dlaczego warto to przeczytać? </strong><br /><br /><br /></p>



<p>W ostatnie wakacje czytałem książki napisane przez profesora Yuvala Noah Harariego. Wiemy, że biologia jest bardzo skomplikowana obliczeniowo i postęp, który rysuje Harari w swoich książkach może nie nastąpić tak szybko. <br /><br />Oczywiście chciałbym dłużej żyć, to jest niezaprzeczalne, ale czytałem np. książkę <em>„Brave New Word” </em>i tam wizja była taka, że żyjemy tylko 60 lat, ale jakość życia jest znacznie wyższa. Naturalna długość życia dla homo sapiens to około 80 lat i teraz ciekawy jestem, na ile można by nasze życie wydłużyć. Ważne jest też, jak nasz mózg pracuje. </p>



<p><br /><br />Harari opisuje, że obecnie wiele firm pracuje nad wydłużeniem życia, ale też polepszeniem jego jakości. Weźmy np. pod uwagę Steve&#8217;a Jobsa &#8211; on przez większość czasu swojego życia opierał się na indyjskich dietach, na nienaukowo zbadanych żywieniowych regułach i żył tylko 56 lat. Ale jego wpływ na to, jaką używamy technologię, był ogromny. Teraz jak tylko nauczymy się manipulować genami, to na pewno nic nas nie zatrzyma przed tym, żeby ulepszyć kolejne pokolenie co do jakości i długości życia. Co mi się bardzo podoba w książkach Harariego to jego rozciągnięty horyzont czasu, tzn. opisuje, co było przed homo sapiens i co będzie następnym, lepszym gatunkiem po homo sapiens. </p>



<p><br /><br />Nasze życie, to, jak postrzegamy je, zależy od tego, jak się czujemy w swoim ciele. Niezależnie od tego, czy jesteśmy w Polsce, w Krakowie czy w Kanadzie, w Toronto. Powiedziałbym, że Harari jest odważny w swoich przewidywaniach i kreśli przyszłość grubą kreską. Wciąż będąc historykiem, wraca do przeszłości, ale ciekawie też opisuje przyszłość w kontekście szczególnie <em><a href="https://en.wikipedia.org/wiki/Machine_learning" target="_blank" rel="noreferrer noopener">machine learning</a> </em>i <em><a href="https://en.wikipedia.org/wiki/Deep_learning" target="_blank" rel="noreferrer noopener">deep learning</a>. </em></p>



<p><br /><br /><br />Np. interesujące jest też to, co pisze o animizmie i o tym, że imię Ewa oznacza samicę węża. Harari definiuje kolejną rewolucję, która będzie od materializmu do informacji mierzona w bitach. Co ciekawego jeszcze, że on chce pokazać, jak technologia może ulepszyć nasze życie. Myślę, że pod tym względem ta książka jest bardzo ciekawa.<br /></p>



<p><br /><br /><strong>Dzięki za polecenie. Myślę, że jak jeszcze kogoś ominęła taka lektura, to fajnie ją przeczytać. Ostatnio zbieraliśmy opinie i część osób powiedziała, że bardzo doceniają polecenia, bo teraz jest bardzo dużo ciekawych książek, ale zawsze brakuje czasu, a to jest taka kolejna gwiazdeczka, żeby to przeczytać. </strong><br /><br /></p>



<p><strong>Opowiedz o swoim doświadczeniu, tzw. <em>background</em>. Czym się zajmujesz albo czym się zajmowałeś wcześniej? Od razu powiem, że tego było dużo i oczywiście nie wszystko dzisiaj dotkniemy ale tak, żeby trochę bardziej przybliżyć czytelnikom, jakie masz doświadczenie w tych tematach.</strong><br /><br /></p>



<p>W sierpniu w tym roku skończyłem doktorat na University of Chicago. Moja praca doktorska była na temat tego, jak można optymalizować sieci neuronowe pod względem czasu ich trenowania i testowania, jak można je kompresować i uodpornić na ataki. <br /><br /><br />Na początku września przeprowadziłem się do Toronto, by tu dalej kontynuować moje badania i jednym z głównych osób tutaj w Vector jest Geoffrey Hinton. Jest on znany w moim środowisku jako osoba, która wygrała nagrodę Turinga. Było to szczególnie dzięki temu, że on ze swoimi studentami w roku 2012 zaprezentował sieć AlexNet, która wygrała zawody ImageNet. <br /><br /><br />W ogóle to wydarzenie spowodowało wielki przełom w mojej dziedzinie, szczególnie w tzw. <em>deep learning. </em>To dało początek lawinie projektów, innych modeli, które były rozwijane, aby wygrać kolejne konkursy ImageNet. <br /><br /></p>



<p><strong>To jest ciekawa historia, zresztą jest to zwane jako ImageNet Moment. Też ciekawość polega na tym, że w tej chwili w NLP odbywa się coś podobnego, tylko bardziej <a href="https://www.gsitechnology.com/Role-of-Transformers-in-Natural-Language-Processing-and-Googles-Revolutionary-BERT" target="_blank" rel="noreferrer noopener" class="broken_link">Transformers Moment</a>. Hinton jest uznawany za jednego z ojców <em>deep learningu</em>. Porozmawiajmy troszkę o Vector Institute. Co to za instytucja, jakie ma założenia, cele, jak działa?</strong><br /><br /></p>



<p>Głównym celem <a href="https://vectorinstitute.ai/" target="_blank" rel="noreferrer noopener">Vector Institute</a> jest dalsze rozwijanie <em>machine </em>i <em>deep learning. </em>Umożliwia współpracę uczelni, instytucji rządowych, firm i start-upów. Kanada jest jednym z liderów w <em>deep learning </em>i podobne instytuty istnieją także w Montrealu i Edmonton. W Vector kładzie się duży nacisk na aplikacje <em>machine </em>i <em>deep learning</em>, szczególnie w medycynie i w sektorze finansowym. <br /><br /><br /><br /><br /></p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Vector Institute Industry Innovation - 2020 Program Overview" width="960" height="540" src="https://www.youtube.com/embed/NBI7D4rDuH0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption>Vector Institute Industry Innovation &#8211; 2020 Program Overview, źródło: YouTube</figcaption></figure>



<p><br /><br /><strong>Brzmi bardzo ciekawie, ale przejdźmy do konkretów, żeby sobie lepiej uświadomić, co oznacza “aplikować”, bo to z jednej strony jest zrozumiałe, ale w praktyce zwykle to nie jest takie łatwe i na szczegółach można się przejechać. Dość często myślę, że świat researcherów faktycznie jest dość mocno rozłączony z tym światem rzeczywistym. </strong><br /><br /><br /><strong>Przejdźmy przez jakiś przykład np. z obszaru zdrowia. Co udało się zrobić? Mógłbyś podać jakiś przypadek, użycie i jak to mniej więcej działa teraz, może potencjalne skutki, sukcesy? </strong><br /><br /></p>



<p>Podam przykład z moich badań. W jednym z projektów budujemy platformę, dzięki której np. firmy lub szpitale mogą współpracować, aby ulepszyć swoje modele. Problem polega na tym, że dane np. między szpitalami lub bankami nie mogą być wymieniane z powodu uregulowań prawnych. <br /><br /><br />My pracujemy nad metodą, jak te dane mogą być przesyłane między szpitalami lub bankami, ale w postaci zaszyfrowanej (tak, że nie można ich odczytać). Ale z drugiej strony dane są użyteczne do trenowania modeli. Okazuje się, że jest to możliwe dzięki zastosowaniu kilku technik z zakresu kryptografii. <br /><br /></p>



<p><strong>Bardzo ciekawe zagadnienie teraz poruszasz. Zresztą jeżeli chodzi o Europę i RODO, to myślę, że tutaj jest wiele osób zainteresowanych, żeby o tym więcej się dowiedzieć. Mówiąc o szyfrowaniu, to masz na myśli anonimizację danych, czyli transformację danych w inny sposób, żeby ktoś nie mógł tego odczytać? </strong><br /><br /><br /></p>



<p>Okazuje się, że anonimizacja danych nie jest skuteczna. Tutaj polega to na tym, że usuwa się imiona, nazwiska, rok urodzenia danej osoby. Jednym z przykładów, że ta technika nie działa, jest gafa Netflixa. Otóż Netflix opublikował dane dotyczącego tego, jak jego klienci oceniali różne filmy, ale usunął z tych danych imiona i nazwiska swoich klientów. Jak się okazało, to <a href="https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/" target="_blank" rel="noreferrer noopener">nie było wystarczające.</a><br /><br /><br />Badacze z University of Texas w Austin połączyli dane z Netflixa z inną bazą danych, która nazywa się <a href="https://pl.wikipedia.org/wiki/IMDb" target="_blank" rel="noreferrer noopener">IMDb</a> i tym naukowcom z Teksasu udało się odtworzyć część danych, które Netflix usunął. <br /><br /></p>



<p><strong>Tutaj też mamy na myśli, że dane są różnego rodzaju. To są dane tekstowe (wiek, imię, nazwisko), ale również mówimy np. o zdjęciach.</strong><br /><br /></p>



<p>Używamy np. danych, które zawierają zdjęcia rentgenowskie klatki piersiowej. Takie dane opublikowano na kilku uczelniach w Stanach. My używamy zbioru danych z uczelni Stanford, który nazywa się <em><a href="https://stanfordmlgroup.github.io/competitions/chexpert/" target="_blank" rel="noreferrer noopener">chexpert</a></em>. <br /><br /><br />Tak przy okazji <em>chexpert </em>brzmi cool i jest to połączenie słów <em>chest, </em>które oznacza <em>„klatka piersiowa”</em> i słowa <em>expert. </em>My trenujemy w różnych rodzajach modeli, które nazywamy sieciami neuronowymi (sieci są tu splotowe albo konwolucyjne) i trenujemy te modele właśnie na tych danych z uczelni Stanford. Te modele mogą później służyć do tego, aby wystawić wstępną diagnozę dla nowych pacjentów.<br /><br /><br /><br /><br /></p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Stanford researchers create algorithm to interpret chest x-rays" width="960" height="540" src="https://www.youtube.com/embed/VJRCj-4E2iU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption>Badacze ze Stanford stworzyli algorytm do interpretacji zdjęć rentgenowskich klatki piersiowej, źródło: YouTube</figcaption></figure>



<p><br /><br /><strong>Fajnie. Tutaj jeszcze a propos tego, że na podstawie zanonimizowanych danych można to odtworzyć, odsyłam do <a href="https://biznesmysli.pl/sztuczna-inteligencja-i-bezpieczenstwo/" target="_blank" rel="noreferrer noopener">70. odcinek</a> podcastu, gdzie były trzy historie, m.in. jedna historia związana z trasami treningowymi w całkowicie odludnym obszarze, co skutecznie zasugerowało obecność wojska w danym obszarze. Coś, co nie powinno być powszechnie znane.</strong><br /><br /></p>



<p>Myślę, że jeszcze warto podać inny przykład. Obecnie popularne są smartwatche. Otóż problem polega na tym, że dane z tego typu urządzeń mogą trafić w niepowołane ręce. Powiedzmy, że po jakimś czasie przestajemy ćwiczyć czy biegać, nasze tętno jest niestabilne. <br /><br /><br />Wówczas firmy ubezpieczeniowe mogą w tym przypadku wywnioskować, że dana osoba ma potencjalnie problemy ze zdrowiem. Gdy ta osoba chce wykupić nowe ubezpieczenie zdrowotne, wówczas taka firma może albo podwyższyć cenę, albo zupełnie odmówić temu klientowi.</p>



<p>My pracujemy nad rozwiązaniami, które będą mogły te dane szyfrować (powiedzmy, że na tym smartwatchu), następnie wysłać je na serwer, żeby tam je przeanalizować, zwrócić rezultat, który tylko dany użytkownik (ten klient) będzie mógł odszyfrować. <br /><br /><br /></p>



<p><strong>Tak, zgadza się. Tutaj sama anonimowość danych, które przedtem gdzieś były używane, jest niewystarczająca. Trzymam kciuki, żeby ten kierunek udało się rozwinąć i później mam nadzieję, że to będzie też w jakiś sposób udostępnione &#8211; przynajmniej w postaci pomysłu albo <em>open source. </em>Są takie pomysły, czy już za daleko idę?</strong><br /><br /></p>



<p>Idea <em><a href="https://medium.com/@ODSC/what-is-federated-learning-99c7fc9bc4f5" target="_blank" rel="noreferrer noopener">federated learning</a> </em>polega na tym, że dane pozostają użytkownika, na jego urządzeniu. Ale wiele osób może współtrenować modele. Jak to się dzieje? Każdy użytkownik trenuje lokalnie model na swoich danych. Następnie współdzieli parametry danego modelu lub tzw. gradienty, których używa się do aktualizacji parametrów w centralnym modelu. <br /><br /><br />Obecnie są już ataki, które na podstawie parametrów sieci tego modelu lub gradientów mogą wywnioskować dane konkretnego użytkownika. Mimo to powstają startupy, które skupiają się wyłącznie na tym, jak zastosować <em>federated learning </em>dla np. medycyny. <br /><br /></p>



<p>Rok temu byłem na konferencji <a href="https://icml.cc/" target="_blank" rel="noreferrer noopener">ICML</a>. Jest to jedna z największych i najważniejszych konferencji w dziedzinie <em>machine learning</em>. Odbywała się ona w Kalifornii w Long Beach i był tam startup o nazwie Dog AI. Ten startup miał wielki napis &#8211; <em>federated learning.</em> Nikt nie miał wątpliwości, że właśnie ten temat jest obecnie jednym z najbardziej popularnych tematów w <em>machine </em>i <em>deep learning. </em><br /><br /><br /></p>



<p><strong>Oprócz tego, że zajmujesz się szyfrowaniem danych, to również interesuje Cię obrona przed atakami modelu, jak temu można zapobiec. O co chodzi z takim atakiem na model? O czym mówimy, jaki jest kontekst?</strong><br /><br /><br /></p>



<p>Na czym polegają ataki na <em>machine learning? </em>Otóż dodaje się bardzo niewielkie, ale specyficzne zakłócenie do obrazka lub danych wyjściowych do modelu. To zakłócenie powoduje, że model zwraca błędną odpowiedź. Tutaj bardzo ważne jest to, że to zakłócenie jest zwykle niewidoczne dla ludzkiego oka. <br /><br /><br />Jest wiele różnych typów ataków. W niektórych przypadkach wystarczy zmiana jednego piksela. Dla przykładu &#8211; sieci splotowe są używane do klasyfikowania obiektów na zdjęciach. Załóżmy, że mamy taką sieć, która potrafi rozpoznać psy i koty. Do sieci na wejście wysyłamy obrazek kota i sieć prawidłowo klasyfikuje ten obiekt na obrazku jako kot. <br /><br /><br />Następnie, jako atakujący szukamy, które piksele można w jak najmniejszym stopniu zmodyfikować, by oszukać ten model. Okazuje się, że gdy mamy dostęp do takiej sieci (do tego modelu), to można bardzo łatwo znaleźć tzw. wektor ataku i dodajemy go do obrazka kotka. Wówczas sieć (ten model) z dużą pewnością zwraca odpowiedź, że na obrazku jest pies, mimo tego, że dla ludzkiego oka ewidentnie na obrazku jest kot.<br /><br /><br /><br /><br /></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img decoding="async" src="https://media.giphy.com/media/lp3GUtG2waC88/giphy.gif" alt=""/><figcaption>źródło: giphy.com</figcaption></figure></div>



<p><br /><br /><strong>Pamiętam, jak takie naklejki były. Te naklejki akurat czasem były zauważalne, ale tak jak powiedziałeś, to czasem sprowadza się nawet do czegoś mniejszego. Jakieś delikatne zmiany, człowiek tego nie zauważa, ale wynik będzie zauważalny. </strong><br /><br /><br /></p>



<p><strong>Jak można być odpornym bardziej na takie ataki? Co się robi, żeby sobie z tym poradzić?</strong><br /><br /></p>



<p>Było wiele prób obrony sieci neuronowych przed tymi atakami, ale jak do tej pory nie ma w pełni skutecznej obrony. Obecnie jedna z popularnych metod polega na tym, że trenuje się sieć na tych zakłóconych danych wejściowych. Co to znaczy? <br /><br /><br />W trakcie trenowania modelu, prowadzimy atak na sieć i ten zaatakowany obrazek jest używany do trenowania tej sieci. Ta metoda jest w pewnym stopniu<a href="https://en.wikipedia.org/wiki/Brute-force_attack" target="_blank" rel="noreferrer noopener"> <em>brute force</em></a><em> </em>i okazuje się, że naprawdę ona działa lepiej niż większość innych technik obrony modeli. <br /><br /><br />Można powiedzieć, że w świecie naukowym przez jakiś czas nawet toczyła się mała wojna między tymi, którzy atakowali te modele i tymi, którzy ich bronili. Powiedziałbym, że w większości przypadków atakujący wygrywali.<br /><br /></p>



<p><strong>A jaka jest wartość dodana dla tego atakującego? Czy to jest po prostu zabawa czy coś więcej?</strong><br /><br /></p>



<p>Jeden z ciekawych, nieudanych ataków miał miejsce na systemy rozpoznawania mowy. Atakujący potrafił znaleźć wektor ataku i dodać go do danych wejściowych, żeby oszukać model. Jednak takie wartości zmodyfikowane nie były wysyłane bezpośrednio do modelu, ale odgrywane i wysłane jako dźwięk i wówczas ten model wracał do poprawnej klasyfikacji. <br /><br /><br />Okazuje się, że dodanie białego szumu pełniło rolę obrony. Na poziomie modelu ten biały szum powodował, że dane wejściowe były przesuwane z małego obszaru z błędną klasyfikacją do dużego obszaru, który oznaczał poprawną klasyfikację.<br /><br /><br /></p>



<p><strong>Niby to jest ciekawe, że można taką Alexę oszukać, ale jaka w tym przypadku jest wartość, jeżeli powiesz, żeby zagrała muzykę, a ona zagra coś innego? Czy chodzi o to, że przez Alexę zarządzamy czymś poufnym i możemy jakoś się wtrącić?</strong><br /><br /><br /><strong> </strong></p>



<p>Jako przykład ataku na systemy rozpoznawania mowy, możemy sobie wyobrazić, że użytkownik wydaje komendę, aby zamknąć wszystkie okna w domu. A tymczasem atakujący tę komendę zmienia tak, że zostają wyłączone w domu wszystkie alarmy.<br /><br /><br /></p>



<p><strong>Z jednej strony to wspaniałe, że sieci neuronowe, cały <em>deep learning,</em> czasem pokazuje bardzo fajne wyniki. Z drugiej natomiast powinna się pojawić świadomość, że takie delikatne zmiany w odpowiedni sposób (jeżeli wiesz co zmienić na wejściu) mogą wprowadzić w totalne zamieszanie naszą sieć, w efekcie czego ona zrobi zupełnie coś nieoczekiwanego. </strong><br /><br /><br /></p>



<p><strong>W których sytuacjach najbardziej trzeba uważać i te modele zabezpieczyć? Prawdopodobnie nie wszędzie chcemy to zabezpieczyć. Gdzie w ogóle warto zacząć o tym myśleć?</strong><br /><br /><br /></p>



<p>Na mojego laptopa loguję się przez <a href="https://en.wikipedia.org/wiki/Face_ID" target="_blank" rel="noreferrer noopener">Face ID</a>. Jeszcze kilka lat temu, tego typu systemy logowania można było bardzo łatwo oszukać, np. poprzez wydrukowanie zdjęcia z twarzą użytkownika. Jednak obecnie są dodatkowe czujniki, które tworzą obraz 3d twarzy i te płaskie zdjęcia nie są skuteczne.<br /><br /><br />Natomiast naukowcy z MIT wydrukowali na drukarce 3D model żółwia i pokazali, że wciąż możliwe jest, aby te modele oszukać tak, żeby klasyfikowały ten model żółwia jako np. karabin. Co jest ciekawe, to Face ID często myli jeszcze się np. w przypadku bliźniaków. <br /><br /><br /></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img decoding="async" src="https://media.giphy.com/media/xT9IgtEXOuMYcCZZkY/giphy.gif" alt=""/><figcaption>źródło: giphy.com, autor: Adweek</figcaption></figure></div>



<p><br /><br /><strong>Swoją drogą, jak masz założoną maskę, to też Cię rozpoznaje? To jest bardzo aktualny temat, w szczególności dla iPhone&#8217;ów. </strong><br /><br /><br /></p>



<p>Rzeczywiście, Face ID nie działa, gdy osoba ma założoną maskę. Ale np. ten Face ID potrafi dostosować się do sytuacji, gdy dana osoba np. ma okulary. Wydaje mi się, że gdybyśmy zrobili <em>fine-tuning </em>tego modelu to udało by się go tak wytrenować, żeby rozpoznawał twarz danej osoby, niezależnie od tego, czy ta osoba ma maskę, czy jej nie ma.<br /><br /></p>



<p><strong>Gorzej jak masz to i to założone.</strong><br /><br /></p>



<p>Tu kwestia jest taka, że zwykle im więcej mamy danych trenujących, tym lepiej można taki model wytrenować. Także powinniśmy te modele dla Face ID trenować na różnorodnych danych, gdzie osoby mają maski, okulary, makijaże, nakrycia głowy itp.<br /><br /></p>



<p><strong>Ciekawe, to jest takie dodatkowe wyzwanie dla modelu, które wygenerowały obecne czasy.</strong><br /><br /></p>



<p>Mieliśmy taki projekt na uczelni w Chicago, gdzie używaliśmy modeli <em>machine learning </em>do wykrywania liczby routerów w budynku. Otóż wytrenowaliśmy model, który działał świetnie i miał dużą precyzję (prawie 100%). <br /><br /><br />Po czym po weekendzie wracamy i ten model działa znaczne gorzej. Okazało się, że ktoś zmienił pozycje niektórych routerów i to miało dramatyczny wpływ na precyzję modeli. Tu wniosek jest taki, że często bardzo mała zmiana w środowisku, w którym działa dany model, powoduje bardzo dużą zmianę w precyzji tych modeli.<br /><br /></p>



<p><strong>Właśnie, poruszyłeś temat spójności na <em>train </em>i <em>test. </em>Jedna z Twoich <a href="https://www.aclweb.org/anthology/2020.acl-main.244/" target="_blank" rel="noreferrer noopener">publikacji</a> (swoją drogą, polecam obejrzeć wszystkie publikacje Adama) dotyczyła <a href="https://dataworkshop.eu/pl/nlp" target="_blank" rel="noreferrer noopener">NLP</a> (przetwarzanie języka naturalnego) i chodziło o to, żeby sprawdzić, na ile różne rodzaje modeli potrafią tę wiedzę uogólnić. Na czym polegał ten eksperyment i jakie są wnioski?</strong><br /><br /></p>



<p>Tak, jest to publikacja, gdzie <a href="https://www.aclweb.org/anthology/2020.acl-main.244/" target="_blank" rel="noreferrer noopener">porównujemy różne modele używane w NLP</a> i w NLP nastąpił przełom około 2 lat temu, gdy opublikowano tzw. <em>pretrained transformers</em>. Są to modele z mechanizmem <em><a href="https://en.wikipedia.org/wiki/Attention_(machine_learning)" target="_blank" rel="noreferrer noopener">self-attention</a>, </em>które mają setki milionów, a nawet miliardy parametrów. <br /><br /><br />Trenuje się je na setkach gigabajtów tekstu i te modele maksymalizują współbieżność wykonania. W naszej publikacji badaliśmy, jak te nowe modele działają w porównaniu z poprzednimi, np. typu <a href="https://en.wikipedia.org/wiki/Long_short-term_memory" target="_blank" rel="noreferrer noopener">LSTM</a>. Okazuje się, że nowe modele generalizują znacznie lepiej niż LSTM. <br /><br /></p>



<p>U nas porównujemy model na ocenach filmów napisanych przez zwykłych użytkowników i chcemy, aby taki model też poprawnie klasyfikował oceny filmów napisane przez ekspertów. Tutaj chodzi o to, że sugerujemy daną opinię o filmie jako opinię negatywną lub pozytywną. Te <em>pretrained transformers</em> zwykle mają podobną precyzję na tak dobranych danych trenujących i testujących. <br /><br /><br />Czyli mamy zmianę stylu wypowiedzi z użytkownika zwykłego na eksperta. Teraz okazuje się, że te LSTM modele, mogą tracić nawet 20% ich precyzji.<br /><br /></p>



<p><strong>W tej publikacji zdziwił mnie fakt, na ile LSTM sobie znacznie gorzej poradził. Właściwie czasem lepiej, a czasem gorzej niż <a href="https://en.wikipedia.org/wiki/Bag-of-words_model" target="_blank" rel="noreferrer noopener">bag-of-words</a> a średnio wyszło nawet gorzej, więc tutaj by to znaczyło, że LSTM plus <a href="https://en.wikipedia.org/wiki/Word2vec" target="_blank" rel="noreferrer noopener">word2vec</a> potrafi gorzej sobie radzić z takim uogólnieniem. Bardziej się przywiązuje do języka jako tako, stylu mówienia, a np. <a href="https://en.wikipedia.org/wiki/BERT_(language_model)" target="_blank" rel="noreferrer noopener">BERT</a> faktycznie bardzo fajnie wygląda. Różnice są zauważalne. To nie jest tylko kilka procent różnicy.</strong><br /><br /></p>



<p>Obecny trend, szczególnie dla NLP jest taki, że budujemy coraz większe modele, które mają miliardy parametrów. Trenujemy je na coraz większych zbiorach danych. Zwykle też pozwala nam to osiągnąć lepszą klasyfikację czy ogólnie lepsze wyniki w wielu benchmarkach z NLP. <br /><br /><br />Z drugiej strony powoduje to, że takich modeli nie możemy używać na naszych smartfonach czy innych urządzeniach mobilnych i wtedy konieczna jest ich kompresja. Ciekawe jest to, że jeden z pomysłów polegał na tym, aby zredukować model typu BERT, czyli ten transformer, do modelu typu LSTM. Taka kompresja ma oczywiście efekty uboczne. <br /><br />Jak już wspomnieliśmy, te skompresowane modele gorzej się generalizują. Tu główny problem jest taki, aby te modele typu BERT kompresować, ale też zachować pewne pożądane właściwości tych modeli. <br /><br /></p>



<p><strong>Zacząłeś mówić o destylacji wiedzy, czyli kiedy pomniejszamy gruby model i tam faktycznie jest kilka pomysłów z LSTM. Jakby ktoś się tym interesował, to jest taki model np. <a href="https://towardsdatascience.com/understanding-bigbird-is-it-another-big-milestone-in-nlp-e7546b2c9643?gi=a7e75f6765d1" target="_blank" rel="noreferrer noopener">BigBird</a> przez Google zaproponowany. </strong><br /><br /><br /><strong>Tam są różne podejścia do tego odchudzania, bo nie wszystkie możliwości z Birda potrzebujemy zawsze i np. część tych tasków da się osiągnąć, używając bardziej odchudzonego modelu. Rozmawiając o tym, po raz kolejny można zwrócić uwagę na to, na ile ten model faktycznie złapał takie uogólnienie. </strong><br /><br /><br /><strong>Zresztą z tą destylacją też jest takie podejście, że robimy to w taki sposób, żeby maksymalnie wygenerować jeszcze więcej danych i maksymalnie spróbować ten model kalibrować, żeby nie trenować na tych samych danych. M.in. wykorzystuje się <a href="https://en.wikipedia.org/wiki/GPT-3" target="_blank" rel="noreferrer noopener">GPT-3</a> chociażby do tego, żeby wygenerować jeszcze więcej danych.</strong><br /><br /><strong> Podejście z generowaniem nowych danych, trochę sztuczne, wprowadza kolejną erozję szumu, więc tu też pewnie trzeba uważać na to, jak to w ogóle zmierzyć, bo generujemy nowe dane, te dane są niekoniecznie prawdziwe. Pojawia się cały szereg wyzwań i myślę, że ten wątek można by było na osobny tekst rozłożyć. </strong></p>



<p><strong>Jak teraz nas czyta osoba, która sobie rozważa, że fajnie, że Adam fajnie zrobił studia w różnych miejscach. Warto, żebyś przypomniał, jak wyglądała Twoja ścieżka? Jak się odnaleźć w świecie, żeby maksymalnie wykorzystać swój potencjał? </strong><br /><br /><br /><strong>Fajnie by było, jakbyś teraz streścił swoją historię, jeżeli chodzi o rozwój, studia, czego się nauczyłeś. Mile widziane będą konkretne porady, wskazówki, czy warto np. się dostać na doktorat w Stanach? Jeżeli tak, to w jaki sposób najlepiej to zrobić? Co lepiej zrobić, żeby rozwinąć się w tym obszarze od strony naukowej, ale też łącząc to z zastosowaniem w praktyce?</strong><br /><br /></p>



<p>Doktorat w USA &#8211; już od dziecka marzyłem o wyjeździe do USA i o tym, żeby studiować na najlepszych uczelniach na świecie. Jeszcze przed wyjazdem za granicę, brałem kursy np. z NLP i <em>machine learning, </em>które były oferowane na platformie Coursera. Te kursy były wirtualną wersją tych z uczelni Stanford czy Princeton. <br /><br /><br />Myślę, że jeżeli ktoś naprawdę lubi pracować nad czymś nowym, czego może nikt wcześniej jeszcze nie zrobił lub nie wymyślił, np. może to być w ramach projektów na uczelni lub pracy inżynierskiej, a także magisterskiej, jeżeli ktoś to ogóle lubi, to jest to dobra wskazówka, że doktorat jest pewnie właściwym kolejnym krokiem dla tej osoby. <br /><br /><br />Odnośnie platformy Coursera jednym z trudności, jakie napotkali twórcy tej platformy, było to, że dużo więcej osób nie kończyło tych kursów w porównaniu ze standardowymi kursami na uczelniach na Stanfordzie czy w Princeton. Teraz okazuje się, że bezpośredni kontakt z innymi osobami, które ma się na tych uczelniach, osoby, które zmagają się z takimi samymi albo podobnymi tematami, one tworzą środowisko, w którym łatwiej jest danej osobie podjąć podobny trud. <br /><br /><br />Na przykład można uczyć się razem i też zdobywać tę wiedzę od innych studentów, a także powiedziałbym, że w wielu przypadkach jest to nawet taka mała rywalizacja między studentami. Także ten przykład z platformami Coursera i innymi platformami online do tych kursów, trochę źle wróży na rezultaty edukacji w czasie pandemii.<br /><br /></p>



<p>Natomiast jeżeli wrócimy do doktoratu w USA, to w moim przypadku myślę, że ważne jest to, że spotyka się tam z osobami z wielu krajów z całego świata, które także po wielu trudach, żeby tam się w ogóle dostać, przyjeżdżają do USA w końcu i mają podobne cele. <br /><br /><br />Chcą po prostu jak najlepiej się wykształcić. Myślę, że ta atmosfera na kampusach w USA czy w Kanadzie jest bardzo sprzyjająca ku temu, żeby zagłębić się w jakiś temat i po prostu uczyć się. Myślę, że jest to taka jedyna okazja w życiu, żeby w pełni w jakiś temat zagłębić się i próbować te trudne problemy rozwiązać.<br /><br /><br /> Jeżeli nam się znudzi już ta nauka w bibliotece i mamy już po prostu dość, to zawsze też można dołączyć do wielu różnych klubów na uczelni. Jest mnóstwo możliwości na kampusie, żeby rozwijać też naukowe pasje. Myślę, że tutaj każdy może znaleźć coś dla siebie &#8211; czy są to jakieś zajęcia z jogi, ze sztuk walki, malowania, teatry. <br /><br /><br />Także zachęca się studentów na uczelniach amerykańskich do odbywania praktyk w wakacje. W moim przypadku byłem na praktykach w firmach Microsoft i Google. </p>



<p>Też na doktoracie jest wiele otwartych drzwi do ciekawych, dalszych badań. Mogą dojść badania na uczelniach w ramach kolejnych programów po doktoracie albo też po prostu w firmach, gdzie są środki badawcze, gdzie prowadzi się te badania i też się publikuje. <br /><br /><br />Tutaj pomiędzy tymi dwoma opcjami, czyli pracą na uczelni, a pracą w firmie w tzw. ośrodku badawczym, to jest główna różnica, że w firmach te badania mają zwykle za cel, aby pomóc w rozwijaniu jakiegoś produktu lub serwisu. Na przykład w ramach moich praktyk w Microsofcie pracowałem nad projektem do rekomendacji indeksów i było to dla bazy danych <em>SQL Server. </em><br /><br />Natomiast w badaniach na uczelni, nie ma takich ograniczeń. Ten wachlarz możliwości co do tego, co chcemy robić, jest dużo szerszy. </p>



<p>Muszę też przyznać, że są wady doktoratu w USA. Dla mnie największym mankamentem jest to, że jestem bardzo daleko od rodziny. Co więcej, doktorat w USA to znacznie więcej niż tylko praca na cały etat. <br /><br /><br />Często musimy pracować dłużej, uczyć się więcej niż tylko 8 godzin w ciągu dnia. Jest też spora konkurencja i ten doktorat zwykle trwa co najmniej 5 lat.</p>



<p><strong>Spróbujmy wejść w Twoje buty i popatrzeć, jak Ty teraz widzisz dalsze, potencjalne kroki. Myślę, że to też będzie taka podpowiedź, czy komuś to odpowiada czy nie. Co planujesz robić dalej? Jakie masz plany?</strong><br /><br /></p>



<p>Po doktoracie aplikowałem na tzw. program Postdoc, po którym chciałbym aplikować dalej na pozycję profesora. Bardzo podoba mi się praca naukowa, na uczelni i obecnie jestem tutaj w Vector Institute w Toronto i też na University of Toronto, ale część mojej pracy magisterskiej była zrealizowana w Cern w Genewie, gdzie pracowałem nad przetwarzaniem danych i zajmowałem się głównie bazami danych. <br /><br /><br />Myślę, że w dziedzinie informatyki bardzo łatwo projekty z uczelni przekształcić np. w startupy. Chciałbym, by moje badania z uczelni w przyszłości, znalazły zastosowanie w przemyśle, biznesie lub nawet w naszym codziennym życiu. <br /><br /></p>



<p><strong>Mam nadzieję, że niejedna osoba może się tym zainspirować. Przynajmniej, jeżeli rozważa pójść tą ścieżką. </strong><br /><br /><br /><strong>Dzięki wielkie Adamie za rozmowę i za podzielenie się takim praktycznym spojrzeniem na tematy związane ze stabilnością modeli, potencjalnymi kłopotami, szyfrowaniem danych. Myślę, że to było interesujące, ale też co ważne &#8211; praktyczne. </strong><br /><br /><br /><strong>To są prawdziwe bolączki obecne w świecie ML, które w ten czy inny sposób trzeba rozwiązywać. Dzięki wielkie. Do usłyszenia.</strong></p>



<p>Dziękuję Vladimir za zaproszenie. Mam nadzieję, że te informacje będą przydatne dla osób, które słuchają podcastu Biznes Myśli i śledzą bloga.<br /><br /></p>



<p>Chciałem jeszcze podziękować mojemu przyjacielowi Łukaszowi Mrozowi, bez którego ten podcast nie byłby możliwy. Dzięki Łukasz.<br /><br /></p>



<p><strong>Poruszony temat tak naprawdę mógłby być znacznie szerszy. Tutaj przy okazji powiem, że z Adamem rozmawialiśmy kilka godzin, a podcast trwa mniej niż godzinę i było o czym porozmawiać. </strong><br /><br /><br /><strong>Zastanawiam się, czy jeszcze tutaj nie wrócić do niektórych wątków i nie rozszerzyć, bo w ogóle nie mówiliśmy na temat bazy danych, pewnych rzeczy związanych z architekturą, która jest ważna, jeżeli mówimy o wdrażaniu na produkcji ML. </strong><br /><br /><br /><strong>Również nie porozmawialiśmy na kilka innych tematów, więc czy warto to rozszerzyć, też zostawiam dla Ciebie. Daj znać, czy chciałbyś, żebym jeszcze raz zaprosił Adama i żebyśmy jeszcze kilka innych tematów poruszyli. </strong><br /><br /></p>



<p><strong>Przy okazji zwrócę uwagę, że m.in. mówiliśmy o NLP (przetwarzanie języka naturalnego) i tam było to, że BERT, czyli tzw. algorytm z rodziny transformerów, pokazuje, że radzi sobie całkiem dobrze, jeżeli chodzi o takie uogólnienie. </strong><br /><br /><br /><strong>On działa też bardziej kontekstowo i lepiej potrafi wyciągnąć semantykę poszczególnych słów w zależności od tego, gdzie dane słowo występuje, w odróżnieniu np. od innych podejść, które były wcześniej znane. </strong></p>



<p><strong>Tutaj mogę podpowiedzieć, że jest kurs, który prowadzę o NLP i tam pokazuję najnowsze techniki, więc jeżeli chcesz takie tematy zdobyć, to nie ma dużo miejsc, gdzie możesz się tego nauczyć. </strong><br /><br /><br /><strong>Jeżeli chcesz się rozwinąć w tym obszarze, to warto obserwować, bo pierwsza edycja jest już za nami i rozważamy teraz, kiedy będzie kolejna. Też patrzymy, jaki jest na to popyt, więc jeżeli chcesz, daj o tym znać i zapisz się na listę oczekujących.</strong></p>
<p>Artykuł <a href="https://biznesmysli.pl/cyberataki-na-sztuczna-inteligencje/">Cyberataki na sztuczną inteligencję</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/cyberataki-na-sztuczna-inteligencje/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Jak zmusić leniwe sieci neuronowe do produkcji leków?</title>
		<link>https://biznesmysli.pl/jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow/</link>
					<comments>https://biznesmysli.pl/jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 31 Aug 2020 05:58:47 +0000</pubDate>
				<category><![CDATA[Brak kategorii]]></category>
		<guid isPermaLink="false">https://biznesmysli.pl/?p=4299</guid>

					<description><![CDATA[<p>Z tego odcinka dowiesz się: Czy leki są konieczne? Jak sobie wyobrazić dawne czasy, to kiedyś leków nie było. Czy możemy stwierdzić, że ludzie byli bardziej chorzy? Już widzę te komentarze, że „tak”, ale z drugiej strony przeanalizujmy nasze obecne społeczeństwo, np. dzieci. Czy stan zdrowia był kiedykolwiek gorszy niż jest teraz, mimo tego że tych leków mamy tak dużo? Stąd pytanie: jak myślisz, czy leki są konieczne? Z drugiej strony, wcale nie próbuję powiedzieć, że nie, ale proces wykrywania leków jest dość magiczny. Mimo tego że zajmują się tym naukowcy, to dość często (nie wszyscy to przyznają wprost) nie do końca wiedzą, jak zrobić to najlepiej. To nie wynika z tego, że oni nie chcą zrozumieć jako naukowcy, chcą &#8211; tylko nasz świat naprawdę jest bardzo skomplikowany. Zresztą chociażby w książce „Antykruchość” jest powiedziane m.in. na temat medyków, że dość dużo tych największych odkryć wydarzyło się przez przypadek, a niekoniecznie w laboratorium. Jednocześnie rozważanie na temat tego, że odkrywamy tylko przez przypadek, działa. Tego nie możemy ukryć, ale fajnie byłoby mieć jakieś narzędzia, klucz do tego, żeby jednak w sposób bardziej kontrolowany wykrywać leki, które mogą być pomocne. Właśnie o tym dzisiaj będzie rozmowa. Czy jest możliwość, że uczenie maszynowe wesprze ten proces, mimo tego że ta cała branża jest bardzo skomplikowana &#8211; zrozumienie biologii, chemii i tych wszystkich relacji, które zachodzą pomiędzy i wiele innych rzeczy, o których często w ogóle się nie wspomina w szkole? Są w tej chwili dostępne na rynku pewne leki, które stwierdzono, że są dość stabilne, ale nadal nie do końca jest zrozumiałe, dlaczego one działają. To jest ciekawy stan, w którym jesteśmy. Czy jest szansa, że uczenie maszynowe może to wesprzeć?&#160; Gościem tego wywiadu jest Stanisław Jastrzębski, który m.in. teraz dołącza bardziej do startupu Molecule.one. Jego zadaniem będzie wspieranie procesów wykorzystując nowoczesne narzędzia. Ma pewne przemyślenia, że niektóre zmiany mogą nastąpić znacznie szybciej, niż może się wydawać. Ciężko jest określić, co oznaczają te zmiany, bo można je różnie zdefiniować, ale pod koniec poznasz na to odpowiedź. Zapraszam do przeczytania całej rozmowy, żeby znaleźć odpowiedzi. Padły też bardzo fajne dyskusje na tematy dookoła: co to oznacza prowadzić projekty R&#38;D? Jak oni sobie radzą z ryzykiem, które w tym przypadku występuje dość duże? Jakie są narzędzia, by nie wpadać w tzw. „czarne dziury”? Jeszcze przed rozpoczęciem malutkie ogłoszenie. Warto wspomnieć przynajmniej o trzech moich autorskich i praktycznych kursów: Jak chcesz zacząć używać uczenie maszynowe w praktyce po to, żeby przenosić namierzalną wartość, to warto być na moich kursach, bo pewnie ciężej będzie znaleźć bardziej prosty sposób, żeby to zrozumieć.  Cześć Staszku. Przedstaw się: jak się nazywasz, czym się zajmujesz i gdzie mieszkasz. Cześć. Nazywam się Staszek Jastrzębski. Jestem w takim trochę okresie przejściowym. Obecnie jestem post-dokiem w Nowym Jorku na New York University pod opieką Kyunghyun Cho i Krzysztofa Gerasa. Najpierw rozkręcałem zespół machine learningowy w Molecule.one, potem z pójściem na post-doc przełączyłem się na rolę advisora i doradzam w sprawach naukowych. Ale jest to okres przejściowy, post-doc&#8217;a kończę i już za miesiąc będę w Warszawie na pełen etat w Molecule.one i na Uniwersytecie Jagiellońskim.&#160; Czekamy na Ciebie tutaj. Myślę, że po tym podcaście więcej osób również będzie chciało się z Tobą poznać na żywo.&#160; Powiedz mi, co ostatnio ciekawego przeczytałeś? Dlaczego warto byłoby to przeczytać? Ostatnio przeczytałem 4 książki pod rząd Isaaca Asimova. To jest klasyczny pisarz science-fiction i bardzo mnie wciągnęły te lektury. Jest to seria o Robotach. Bardziej znana jest chyba jego seria Fundacja, która jest preludium do tego. To co jest tak najbardziej znane z serii o Robotach to oczywiście trzy prawa robotów. Pierwsze prawo jest takie, że robot nie może przez brak czynu lub czyn, w jakikolwiek sposób wyrządzić szkodę człowiekowi, ale bardzo jest ciekawe to, że interpretacja tego już nie jest oczywista. Co np. jeżeli robot powie coś, co zasmuci człowieka, mimo że jest prawdą? Wszystkie książki bawią się tym konceptem, jak ciężko jest zrobić, żeby robot naprawdę był bezpieczny. To, co jest dla mnie szczególnie interesujące to to, że te tematy dalej są bardzo aktualne w researchu na co dzień w sieciach neuronowych. Dalej nie wiemy jak zrobić, żeby roboty były bezpieczne. Jest wiele różnych pomysłów obecnie, ale żaden nie jest uznany. Widać, że Asimov już te 50 lat temu miał dobrego nosa, jakie problemy będziemy mieli dzisiaj.&#160; Jest taki film „Ja, robot” z 2004 r. &#8211; film z Hollywood, więc są różne rzeczy, które można spokojnie pominąć, ale były tam też pokazane dylematy koncepcyjne i warto pooglądać i porozważać na ten temat, bo faktycznie to są różne wyzwania i te wyzwania już się stają coraz mniej futurystyczne, tylko bardziej dotyczą naszej rzeczywistości albo za chwilę będą dotyczyć.&#160; Tak jest, film bardzo fajny. Na czym polega Twoja praca? Już część rzeczy masz wykonanych, dalej działasz na tym obszarze, masz pewne plany, więc podziel się dokąd dążą Twoje działania, eksperymenty. Co chcesz osiągnąć?&#160; Wydaje mi się, że jednym takim wątkiem, który przejawiał się w moich badaniach, można podsumować stwierdzeniem, że sieci neuronowe są leniwe. Właśnie na post-doc&#8217;u (przynajmniej patrząc na to z perspektywy czasu, bo to zdecydowanie nie było oczywiste na początku) to wszystkie te prace są w mniejszym lub większym stopniu inspirowane tą obserwacją. &#160; Co to znaczy, że sieci neuronowe są leniwe? Jest jeden taki eksperyment z sieciami neuronowymi, który wydaje mi się, że ładnie ilustruje, nawet jeżeli jest troszeczkę sztuczny lub niepraktyczny. Jeżeli wytrenujemy typową sieć konwolucyjną (czyli trochę to, od czego zaczęła się ta nowa rewolucja deep learningu) na typowym benchmarku rozpoznawania obrazów, który się nazywa CIFAR-10, sieć neuronowa (przynajmniej na początku, ale też w dużej mierze na końcu) będzie klasyfikować to, czy dane zdjęcie przedstawia samolot na podstawie tego, czy jest na niebieskim tle. Czyli użyła najprostszych cech i w ten sposób można powiedzieć, że jest leniwa. Uczy się tego, co w najprostszy sposób pozwala wykonywać jej zadanie. Oczywiście to nie brzmi, jakby to był problem, ale niestety jest problemem, jeżeli przez to nie nauczy się tego, na czym nam zależy w konkretnym problemie, który rozwiązujemy (biznesowym czy naukowym). Tutaj jest bardzo ciekawa sprzeczność, że z jednej strony to fajnie, że się uczy prostych rzeczy, ale z drugiej strony czasami jest to problem.&#160; W czasie post-doc&#8217;a pracowałem nad paroma projektami: dwa raczej teoretyczne, a trzeci bardziej praktyczny, to mogę opowiedzieć o tym bardziej praktycznym. Grupa Krzysztofa Gerasa zajmuje się w dużej mierze wykrywaniem raka piersi na podstawie mammogramów czy też innych modalności. Sieci neuronowe są leniwe, ale jednocześnie te same sieci neuronowe na tym zadaniu wykrywania raka ze zdjęć mammograficznym osiągają wyniki podobne lub zbliżone do radiologów. Badaliśmy to, ja wykonałem mało pracy, większość pracy była wykonana przez wspaniałych doktorantów. Analizowaliśmy przecięcie tych dwóch rzeczy. Na jakiej zasadzie sieć neuronowa, która uczy się prostych sieć, może dobrze rozwiązywać problem, który wymaga szkolenia radiologa tak długo, bo to są studia medyczne i potem parę lat specjalizacji radiologicznej. Jedna obserwacja jest taka, że sieci neuronowe są świetnie skonstruowane, żeby uczyć się jednego typu prostych cech: to są takie bardzo małe, teksturowe detale. Coś w stylu, że sieć neuronowa powie, że coś jest słoniem dlatego, że ma skórę słonia lub powie, że coś jest psem dlatego, że wykryje, że ma sierść taką jak pies. To są te detale, które np. usuwa kompresja *jpg. Jeżeli zapiszemy zdjęcie w *jpg, który ma niską rozdzielczość, to wtedy tych cech nie będzie, zdjęcie będzie bardziej rozmyte. Sieci neuronowe wspaniale używają tych cech. Są w stanie wycisnąć jak z cytryny wszystko. Oczywiście to są badania w toku, więc mamy jakiś tam papier workshopowy i pracujemy teraz nad dłuższą wersją, więc być może coś się tu jeszcze zmieni. To, co się okazało w naszych badaniach lub przynajmniej wydaje się obecnie prawdziwe, to to, że to bardzo pomaga w wykrywaniu raka piersi, bo na mammogramach te drobne cechy są jedną z kluczowych oznak tego, że dana zmiana w piersi jest faktycznie rakiem. Usunięcie tych cech przez np. lekkie rozmycie obrazka (tak jakby *jpg to zrobił) czy lekkie rozmycie mammogramu, bardzo pogarsza działanie sieci neuronowej.&#160; To jest bardzo ciekawy wątek. Jak powiedziałeś, sieci neuronowe są leniwe, przez co trochę przypominają ludzi. Przy okazji przypomnę konferencję, którą miałem okazję organizować w 2018 r., gdzie Mateusz Opala w swojej prezentacji podawał wiele przykładów m.in. związanych z computer vision, kiedy np. trzeba było rozpoznać buty sportowe. To, czego nauczyła się sieć to nie tyle, że potrafi odróżnić but sportowy, tylko jak właśnie jest trawa to będzie to prawdopodobnie but sportowy. Jak ktoś tam na szpilkach stanął na tej trawie to też rozpoznawał to jako but sportowy. To jest przykład na to, jak sieci neuronowe idą na skróty.&#160; Porozmawiajmy o produkcie, który będzie tworzony w ramach Molecule.one, ale najpierw może jakiś kontekst. Co to jest za firma i co próbuje zrobić?&#160; Można to opowiedzieć na różnym poziomie szczegółowości. Zacznę od takiego najwyższego, czyli co to jest proces odkrywania leków? Molecule.one jest jednym z bloczków w tym bardzo długim procesie, który na końcu daje nam np. aspirynę. Trzeba powiedzieć parę słów o tym procesie.&#160; Po pierwsze jest to bardzo długi proces i do tego bardzo kosztowny. Odkrycie jednego leku może kosztować 1 mld $, może trwać ponad 5 lat i mieć bardzo wiele etapów. W takim typowym procesie odkrywania leków zaczyna się od proponowania wielu struktur czy związków chemicznych, z których jeden mamy nadzieję będzie tą aspiryną, tym co naprawdę działa. Można sobie wyobrazić taki lejek, który zaczyna się od bardzo dużej ilości związków, możemy przesiewać miliony związków, a na końcu ten lejek się kończy jednym związkiem.&#160; Gdzie jest Molecule.one w tym lejku? Molecule.one jest na samym początku. Jeżeli chemik chce sprawdzić 10 tys. różnych struktur chemicznych, to to, że wymyślił tylko, że chce sprawdzić strukturę chemiczną, oczywiście nie wystarcza. Musi ją jeszcze zrobić w laboratorium i naprawdę mieć probówkę z tą specyficzną substancją i to jest to, czym zajmuje się Molecule.one. Do nas przychodzi chemik i mówi, co chce zrobić, a my mu mówimy jak to zrobić, czyli dajemy mu taki przepis na związki chemiczne. To jest jeden z pierwszych etapów w całym procesie drug discovery czy odkrywania leków. Jeden z takich istotnych powodów tego, że ten proces jest długi wiąże się ze śmieszną obserwacją &#8211; tak jak mamy Prawo Moore&#8217;a, że moc obliczeniowa tanieje nam z czasem, tak w procesie odkrywania leków, mamy coś odwrotnego. Z każdym rokiem odkrycie jednego związku chemicznego, który jest lekiem, kosztuje właściwie coraz więcej, jak się popatrzy na perspektywę ostatnich 50 lat.&#160; Jak to opowiadasz, to od razu pojawia się kilka innych pytań, ale zacznę chyba od końca. Dlaczego jest tak? Dlaczego to drożeje? Co jest przyczyną? Przyczyn jest parę, ale jeżeli miałbym podać główną przyczynę, to jest to to, że słabo rozumiemy biologię. Być może, w pewnym sensie wyczerpaliśmy to, co rozumieliśmy. Jest to jedno spojrzenie. Gdybyśmy bardziej szczegółowo zrozumieli biologię, ten proces na pewno byłby istotnie krótszy, bo byłoby mniej „nietrafionych” związków chemicznych.&#160; Najlepiej ilustruje to to, że mechanizm działania związków chemicznych, których codziennie używamy jak np. ibuprofen, dalej nie jest do końca jasny, mimo że są do kupienia w aptece. To jest jedna odpowiedź. Druga odpowiedź jest taka, że są inne elementy tego procesu, które go bardzo spowalniają. W szczególności jednym z nich jest to, że robienie związków chemicznych jako struktur w laboratorium jest po prostu trudne. To nie jest tak, że chemicy mogą sobie wymyślić jaką chcą strukturę dodać, jakiekolwiek atomy w jakiejkolwiek aranżacji. Wręcz odwrotnie, muszą się trzymać dosyć konkretnych reguł i związków, które da się łatwo zrobić. Wynika to z tego, że mimo tego, jak wielkie były odkrycia w chemii organicznej, dalej synteza czy przeprowadzenie reakcji jest w pewnym sensie trudne i działa w dosyć niestabilny sposób &#8211; czasami zadziała, a czasami nie. To jest jeden z tych innych elementów, które bardzo spowalniają ten proces.&#160; Co Molekule.one stara się rozwiązać? Chcemy zwiększyć skuteczność tego, na ile możemy polegać na reakcjach chemicznych i dzięki temu dać możliwość chemikom, próbować wszystkie ich pomysły, zamiast tylko ograniczać się do tych, które łatwo zrobić w laboratorium.&#160; Zatem w tym przypadku uczenie maszynowe, tak jak w wielu innych przypadkach, pojawia się w formie filtra. Mamy bardzo dużo przeróżnych możliwych kombinacji i to...</p>
<p>Artykuł <a href="https://biznesmysli.pl/jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow/">Jak zmusić leniwe sieci neuronowe do produkcji leków?</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1XLmXo wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-89-jak-zmusic-leniwe-sieci-neuronowe-" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/6EEdEny8P89yeGx60kcA2q" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p><br /></p>



<h2 class="wp-block-heading">Z tego odcinka dowiesz się:</h2>



<ol>
<li><strong>Czy leki są konieczne?</strong> Dyskusja o tym, czy współczesne społeczeństwo jest zdrowsze dzięki lekom, i jak kiedyś radzono sobie bez nich.</li>



<li><strong>Przypadkowe odkrycia w medycynie</strong>. Wiele odkryć medycznych miało miejsce przez przypadek, co pokazuje, jak skomplikowany jest świat nauki i jak trudne jest kontrolowane odkrywanie leków.</li>



<li><strong>Uczenie maszynowe w odkrywaniu leków.</strong> Rozważania nad tym, czy uczenie maszynowe może przyspieszyć i usprawnić proces odkrywania nowych leków, nawet w tak skomplikowanej dziedzinie jak biologia i chemia.</li>



<li><strong>Molecule.one i rola Stanisława Jastrzębskiego.</strong> Stanisław opowiada o swoim udziale w startupie Molecule.one, który wykorzystuje nowoczesne narzędzia do wspierania procesów odkrywania leków.</li>



<li><strong>Wyzwania i innowacje w R&amp;D.</strong> Omówienie trudności związanych z prowadzeniem projektów badawczo-rozwojowych (R&amp;D) w dziedzinie uczenia maszynowego i syntezy chemicznej oraz jak sobie z nimi radzić.</li>



<li><strong>Znaczenie uczenia maszynowego w praktyce. </strong>Przykłady, jak uczenie maszynowe może przyspieszyć i zoptymalizować procesy w różnych branżach, nie tylko w medycynie.</li>



<li><strong>Przyszłość AI w nauce i odkrywaniu leków. </strong>Spekulacje na temat przyszłości AI w nauce, potencjalnych przełomów i tego, jak mogą one wpłynąć na zdrowie i życie ludzi.</li>
</ol>



<p></p>



<p></p>



<p><strong>Czy leki są konieczne? Jak sobie wyobrazić dawne czasy, to kiedyś leków nie było. Czy możemy stwierdzić, że ludzie byli bardziej chorzy? Już widzę te komentarze, że „tak”, ale z drugiej strony przeanalizujmy nasze obecne społeczeństwo, np. dzieci. Czy stan zdrowia był kiedykolwiek gorszy niż jest teraz, mimo tego że tych leków mamy tak dużo? Stąd pytanie: jak myślisz, czy leki są konieczne? </strong><br /><br /></p>



<p><strong>Z drugiej strony, wcale nie próbuję powiedzieć, że nie, ale proces wykrywania leków jest dość magiczny. Mimo tego że zajmują się tym naukowcy, to dość często (nie wszyscy to przyznają wprost) nie do końca wiedzą, jak zrobić to najlepiej. To nie wynika z tego, że oni nie chcą zrozumieć jako naukowcy, chcą &#8211; tylko nasz świat naprawdę jest bardzo skomplikowany. </strong><br /><br /></p>



<p><strong>Zresztą chociażby w książce<a href="https://en.wikipedia.org/wiki/Antifragile" target="_blank" rel="noreferrer noopener"> <em>„Antykruchość” </em></a>jest powiedziane m.in. na temat medyków, że dość dużo tych największych odkryć wydarzyło się przez przypadek, a niekoniecznie w laboratorium. Jednocześnie rozważanie na temat tego, że odkrywamy tylko przez przypadek, działa. Tego nie możemy ukryć, ale fajnie byłoby mieć jakieś narzędzia, klucz do tego, żeby jednak w sposób bardziej kontrolowany wykrywać leki, które mogą być pomocne. </strong><br /><br /></p>



<p><strong>Właśnie o tym dzisiaj będzie rozmowa. Czy jest możliwość, że uczenie maszynowe wesprze ten proces, mimo tego że ta cała branża jest bardzo skomplikowana &#8211; zrozumienie biologii, chemii i tych wszystkich relacji, które zachodzą pomiędzy i wiele innych rzeczy, o których często w ogóle się nie wspomina w szkole? Są w tej chwili dostępne na rynku pewne leki, które stwierdzono, że są dość stabilne, ale nadal nie do końca jest zrozumiałe, dlaczego one działają. To jest ciekawy stan, w którym jesteśmy. Czy jest szansa, że uczenie maszynowe może to wesprzeć?&nbsp;</strong><br /><br /><br /><br /></p>



<span id="more-4299"></span>



<p><strong>Gościem tego wywiadu jest Stanisław Jastrzębski, który m.in. teraz dołącza bardziej do startupu <em><a href="https://molecule.one/" target="_blank" rel="noreferrer noopener">Molecule.one</a></em>. Jego zadaniem będzie wspieranie procesów wykorzystując nowoczesne narzędzia. Ma pewne przemyślenia, że niektóre zmiany mogą nastąpić znacznie szybciej, niż może się wydawać. </strong><br /><br /></p>



<p><strong>Ciężko jest określić, co oznaczają te zmiany, bo można je różnie zdefiniować, ale pod koniec poznasz na to odpowiedź. Zapraszam do przeczytania całej rozmowy, żeby znaleźć odpowiedzi. Padły też bardzo fajne dyskusje na tematy dookoła: co to oznacza prowadzić projekty R&amp;D? Jak oni sobie radzą z ryzykiem, które w tym przypadku występuje dość duże? Jakie są narzędzia, by nie wpadać w tzw. „czarne dziury”?</strong><br /><br /></p>



<p><strong>Jeszcze przed rozpoczęciem malutkie ogłoszenie. Warto wspomnieć przynajmniej o trzech moich autorskich i praktycznych kursów:</strong></p>



<ol>
<li><strong><a href="https://dataworkshop.eu/pl/intro-python?utm_source=bm&amp;utm_medium=post&amp;utm_term=jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow&amp;utm_content=post">Python dla analizy danych i Data Science</a></strong></li>



<li><strong><a href="https://dataworkshop.eu/pl/practical-machine-learning?utm_source=bm&amp;utm_medium=post&amp;utm_term=jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow&amp;utm_content=post">Machine Learning i Data Science</a></strong></li>



<li><strong><a href="https://dataworkshop.eu/pl/nlp?utm_source=bm&amp;utm_medium=post&amp;utm_term=jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow&amp;utm_content=post">Przetwarzanie języka naturalnego NLP</a></strong></li>
</ol>



<p><strong>Jak chcesz zacząć używać uczenie maszynowe w praktyce po to, żeby przenosić namierzalną wartość, to warto być na moich kursach, bo pewnie ciężej będzie znaleźć bardziej prosty sposób, żeby to zrozumieć. </strong><br /><br /></p>



<hr class="wp-block-separator has-css-opacity"/>



<p><br /><br /><strong>Cześć Staszku. Przedstaw się: jak się nazywasz, czym się zajmujesz i gdzie mieszkasz.</strong></p>



<p>Cześć. Nazywam się Staszek Jastrzębski. Jestem w takim trochę okresie przejściowym. Obecnie jestem post-dokiem w Nowym Jorku na New York University pod opieką Kyunghyun Cho i Krzysztofa Gerasa. Najpierw rozkręcałem zespół machine learningowy w <em>Molecule.one</em>, potem z pójściem na post-doc przełączyłem się na rolę <em>advisora</em> i doradzam w sprawach naukowych. Ale jest to okres przejściowy, post-doc&#8217;a kończę i już za miesiąc będę w Warszawie na pełen etat w <em>Molecule.one</em> i na Uniwersytecie Jagiellońskim.&nbsp;<br /><br /></p>



<p><strong>Czekamy na Ciebie tutaj. Myślę, że po tym podcaście więcej osób również będzie chciało się z Tobą poznać na żywo.&nbsp;</strong><br /><br /></p>



<p><strong>Powiedz mi, co ostatnio ciekawego przeczytałeś? Dlaczego warto byłoby to przeczytać?</strong><br /><br /></p>



<p>Ostatnio przeczytałem 4 książki pod rząd <a href="https://en.wikipedia.org/wiki/Isaac_Asimov" target="_blank" rel="noreferrer noopener">Isaaca Asimova</a>. To jest klasyczny pisarz science-fiction i bardzo mnie wciągnęły te lektury. Jest to seria o Robotach. Bardziej znana jest chyba jego seria Fundacja, która jest preludium do tego. To co jest tak najbardziej znane z serii o Robotach to oczywiście trzy prawa robotów. <br /></p>



<p>Pierwsze prawo jest takie, że robot nie może przez brak czynu lub czyn, w jakikolwiek sposób wyrządzić szkodę człowiekowi, ale bardzo jest ciekawe to, że interpretacja tego już nie jest oczywista. Co np. jeżeli robot powie coś, co zasmuci człowieka, mimo że jest prawdą? <br /><br /></p>



<p>Wszystkie książki bawią się tym konceptem, jak ciężko jest zrobić, żeby robot naprawdę był bezpieczny. To, co jest dla mnie szczególnie interesujące to to, że te tematy dalej są bardzo aktualne w researchu na co dzień w sieciach neuronowych.<br /><br /></p>



<p> Dalej nie wiemy jak zrobić, żeby roboty były bezpieczne. Jest wiele różnych pomysłów obecnie, ale żaden nie jest uznany. Widać, że Asimov już te 50 lat temu miał dobrego nosa, jakie problemy będziemy mieli dzisiaj.&nbsp;<br /><br /></p>



<p><strong>Jest taki film <em>„Ja, robot” </em>z 2004 r. &#8211; film z Hollywood, więc są różne rzeczy, które można spokojnie pominąć, ale były tam też pokazane dylematy koncepcyjne i warto pooglądać i porozważać na ten temat, bo faktycznie to są różne wyzwania i te wyzwania już się stają coraz mniej futurystyczne, tylko bardziej dotyczą naszej rzeczywistości albo za chwilę będą dotyczyć.&nbsp;</strong><br /><br /></p>



<p>Tak jest, film bardzo fajny.<br /><br /></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Ja, Robot | I, Robot (2004)" width="960" height="540" src="https://www.youtube.com/embed/jsSblF0um_o?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><strong>Na czym polega Twoja praca? Już część rzeczy masz wykonanych, dalej działasz na tym obszarze, masz pewne plany, więc podziel się dokąd dążą Twoje działania, eksperymenty. Co chcesz osiągnąć?&nbsp;</strong><br /><br /></p>



<p>Wydaje mi się, że jednym takim wątkiem, który przejawiał się w moich badaniach, można podsumować stwierdzeniem, że sieci neuronowe są leniwe. Właśnie na post-doc&#8217;u (przynajmniej patrząc na to z perspektywy czasu, bo to zdecydowanie nie było oczywiste na początku) to wszystkie te prace są w mniejszym lub większym stopniu inspirowane tą obserwacją.<br /><br />&nbsp;</p>



<p>Co to znaczy, że sieci neuronowe są leniwe?<br /><br /></p>



<p>Jest jeden taki eksperyment z sieciami neuronowymi, który wydaje mi się, że ładnie ilustruje, nawet jeżeli jest troszeczkę sztuczny lub niepraktyczny. Jeżeli wytrenujemy typową sieć konwolucyjną (czyli trochę to, od czego zaczęła się ta nowa rewolucja <em>deep learningu) </em>na typowym benchmarku rozpoznawania obrazów, który się nazywa <a href="https://en.wikipedia.org/wiki/CIFAR-10" target="_blank" rel="noreferrer noopener">CIFAR-10</a>, sieć neuronowa (przynajmniej na początku, ale też w dużej mierze na końcu) będzie klasyfikować to, czy dane zdjęcie przedstawia samolot na podstawie tego, czy jest na niebieskim tle. <br /><br /></p>



<p>Czyli użyła najprostszych cech i w ten sposób można powiedzieć, że jest leniwa. Uczy się tego, co w najprostszy sposób pozwala wykonywać jej zadanie. Oczywiście to nie brzmi, jakby to był problem, ale niestety jest problemem, jeżeli przez to nie nauczy się tego, na czym nam zależy w konkretnym problemie, który rozwiązujemy (biznesowym czy naukowym). Tutaj jest bardzo ciekawa sprzeczność, że z jednej strony to fajnie, że się uczy prostych rzeczy, ale z drugiej strony czasami jest to problem.&nbsp;<br /><br /></p>



<p>W czasie post-doc&#8217;a pracowałem nad paroma projektami: dwa raczej teoretyczne, a trzeci bardziej praktyczny, to mogę opowiedzieć o tym bardziej praktycznym. Grupa Krzysztofa Gerasa zajmuje się w dużej mierze wykrywaniem raka piersi na podstawie mammogramów czy też innych modalności. Sieci neuronowe są leniwe, ale jednocześnie te same sieci neuronowe na tym zadaniu wykrywania raka ze zdjęć mammograficznym osiągają wyniki podobne lub zbliżone do radiologów. <br /><br /></p>



<p>Badaliśmy to, ja wykonałem mało pracy, większość pracy była wykonana przez wspaniałych doktorantów. Analizowaliśmy przecięcie tych dwóch rzeczy. Na jakiej zasadzie sieć neuronowa, która uczy się prostych sieć, może dobrze rozwiązywać problem, który wymaga szkolenia radiologa tak długo, bo to są studia medyczne i potem parę lat specjalizacji radiologicznej. Jedna obserwacja jest taka, że sieci neuronowe są świetnie skonstruowane, żeby uczyć się jednego typu prostych cech: to są takie bardzo małe, teksturowe detale. <br /><br /><br /><br />Coś w stylu, że sieć neuronowa powie, że coś jest słoniem dlatego, że ma skórę słonia lub powie, że coś jest psem dlatego, że wykryje, że ma sierść taką jak pies. To są te detale, które np. usuwa kompresja *jpg. Jeżeli zapiszemy zdjęcie w *jpg, który ma niską rozdzielczość, to wtedy tych cech nie będzie, zdjęcie będzie bardziej rozmyte. Sieci neuronowe wspaniale używają tych cech. Są w stanie wycisnąć jak z cytryny wszystko. <br /><br /></p>



<p>Oczywiście to są badania w toku, więc mamy jakiś tam papier workshopowy i pracujemy teraz nad dłuższą wersją, więc być może coś się tu jeszcze zmieni.<br /><br /></p>



<p>To, co się okazało w naszych badaniach lub przynajmniej wydaje się obecnie prawdziwe, to to, że to bardzo pomaga w wykrywaniu raka piersi, bo na mammogramach te drobne cechy są jedną z kluczowych oznak tego, że dana zmiana w piersi jest faktycznie rakiem. Usunięcie tych cech przez np. lekkie rozmycie obrazka (tak jakby *jpg to zrobił) czy lekkie rozmycie mammogramu, bardzo pogarsza działanie sieci neuronowej.&nbsp;<br /><br /><br /></p>



<p><strong>To jest bardzo ciekawy wątek. Jak powiedziałeś, sieci neuronowe są leniwe, przez co trochę przypominają ludzi. Przy okazji przypomnę <a href="https://conf.dataworkshop.eu/2018" target="_blank" rel="noreferrer noopener">konferencję</a>, którą miałem okazję organizować w 2018 r., gdzie Mateusz Opala w swojej prezentacji podawał wiele przykładów m.in. związanych z <em>computer vision, </em>kiedy np. trzeba było rozpoznać buty sportowe. </strong> </p>



<p><br /><br /></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Mateusz Opala: Debugging Machine Learning - 5 największych pułapek, z którymi musiałem się zmierzyć" width="960" height="540" src="https://www.youtube.com/embed/E5dEepg0ZuY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p><br /><br /><strong>To, czego nauczyła się sieć to nie tyle, że potrafi odróżnić but sportowy, tylko jak właśnie jest trawa to będzie to prawdopodobnie but sportowy. Jak ktoś tam na szpilkach stanął na tej trawie to też rozpoznawał to jako but sportowy. To jest przykład na to, jak sieci neuronowe idą na skróty.&nbsp;</strong><br /><br /></p>



<p><strong>Porozmawiajmy o produkcie, który będzie tworzony w ramach <em>Molecule.one</em>, ale najpierw może jakiś kontekst. Co to jest za firma i co próbuje zrobić?&nbsp;</strong><br /><br /></p>



<p>Można to opowiedzieć na różnym poziomie szczegółowości. Zacznę od takiego najwyższego, czyli co to jest proces odkrywania leków? <em>Molecule.one</em> jest jednym z bloczków w tym bardzo długim procesie, który na końcu daje nam np. aspirynę. Trzeba powiedzieć parę słów o tym procesie.&nbsp;<br /><br /></p>



<p>Po pierwsze jest to bardzo długi proces i do tego bardzo kosztowny. Odkrycie jednego leku może kosztować 1 mld $, może trwać ponad 5 lat i mieć bardzo wiele etapów. W takim typowym procesie odkrywania leków zaczyna się od proponowania wielu struktur czy związków chemicznych, z których jeden mamy nadzieję będzie tą aspiryną, tym co naprawdę działa. <br /><br /><br />Można sobie wyobrazić taki lejek, który zaczyna się od bardzo dużej ilości związków, możemy przesiewać miliony związków, a na końcu ten lejek się kończy jednym związkiem.&nbsp;<br /><br /></p>



<p>Gdzie jest <em>Molecule.one</em> w tym lejku? <em>Molecule.one</em> jest na samym początku. Jeżeli chemik chce sprawdzić 10 tys. różnych struktur chemicznych, to to, że wymyślił tylko, że chce sprawdzić strukturę chemiczną, oczywiście nie wystarcza. Musi ją jeszcze zrobić w laboratorium i naprawdę mieć probówkę z tą specyficzną substancją i to jest to, czym zajmuje się <em>Molecule.one</em>. <br /><br /></p>



<p>Do nas przychodzi chemik i mówi, co chce zrobić, a my mu mówimy jak to zrobić, czyli dajemy mu taki przepis na związki chemiczne. To jest jeden z pierwszych etapów w całym procesie <em>drug discovery</em> czy odkrywania leków. Jeden z takich istotnych powodów tego, że ten proces jest długi wiąże się ze śmieszną obserwacją &#8211; tak jak mamy Prawo Moore&#8217;a, że moc obliczeniowa tanieje nam z czasem, tak w procesie odkrywania leków, mamy coś odwrotnego. <br /><br /></p>


<div class="wp-block-image">
<figure class="aligncenter size-large"><img decoding="async" src="https://media.giphy.com/media/6bdjm9EQSeqcbueBCY/giphy.gif" alt=""/><figcaption class="wp-element-caption">źródło: giphy.com</figcaption></figure></div>


<p>Z każdym rokiem odkrycie jednego związku chemicznego, który jest lekiem, kosztuje właściwie coraz więcej, jak się popatrzy na perspektywę ostatnich 50 lat.&nbsp;<br /><br /></p>



<p><strong>Jak to opowiadasz, to od razu pojawia się kilka innych pytań, ale zacznę chyba od końca. Dlaczego jest tak? Dlaczego to drożeje? Co jest przyczyną?</strong> <br /><br /></p>



<p>Przyczyn jest parę, ale jeżeli miałbym podać główną przyczynę, to jest to to, że słabo rozumiemy biologię. Być może, w pewnym sensie wyczerpaliśmy to, co rozumieliśmy. Jest to jedno spojrzenie. Gdybyśmy bardziej szczegółowo zrozumieli biologię, ten proces na pewno byłby istotnie krótszy, bo byłoby mniej „nietrafionych” związków chemicznych.&nbsp;<br /><br /></p>



<p>Najlepiej ilustruje to to, że mechanizm działania związków chemicznych, których codziennie używamy jak np. <em>ibuprofen</em>, dalej nie jest do końca jasny, mimo że są do kupienia w aptece. To jest jedna odpowiedź.<br /><br /></p>



<p>Druga odpowiedź jest taka, że są inne elementy tego procesu, które go bardzo spowalniają. W szczególności jednym z nich jest to, że robienie związków chemicznych jako struktur w laboratorium jest po prostu trudne. To nie jest tak, że chemicy mogą sobie wymyślić jaką chcą strukturę dodać, jakiekolwiek atomy w jakiejkolwiek aranżacji. <br /><br /></p>



<p>Wręcz odwrotnie, muszą się trzymać dosyć konkretnych reguł i związków, które da się łatwo zrobić. Wynika to z tego, że mimo tego, jak wielkie były odkrycia w chemii organicznej, dalej synteza czy przeprowadzenie reakcji jest w pewnym sensie trudne i działa w dosyć niestabilny sposób &#8211; czasami zadziała, a czasami nie. To jest jeden z tych innych elementów, które bardzo spowalniają ten proces.&nbsp;<br /><br /></p>



<p>Co <em>Molekule.one</em> stara się rozwiązać? Chcemy zwiększyć skuteczność tego, na ile możemy polegać na reakcjach chemicznych i dzięki temu dać możliwość chemikom, próbować wszystkie ich pomysły, zamiast tylko ograniczać się do tych, które łatwo zrobić w laboratorium.&nbsp;<br /><br /></p>



<p><strong>Zatem w tym przypadku uczenie maszynowe, tak jak w wielu innych przypadkach, pojawia się w formie filtra. Mamy bardzo dużo przeróżnych możliwych kombinacji i to również może być w zupełnie innych branżach, totalnie niezwiązanych z medycyną. </strong><br /><br /></p>



<p><strong>To, co można robić przy pomocy ML, to stwierdzić, na którą kombinację (1%, 0,5% czy 0,0001%) warto zwrócić uwagę. De facto oznacza to, że fizycznie trzeba po prostu tysiąc lub milion razy mniej spróbować różnych kombinacji.&nbsp;</strong><br /><br /></p>



<p><strong>Powiedz mi tak w liczbach, jeżeli chodzi o czas. Wiem, że to wszystko zależy itd., ale powiedzmy, jak to jest teraz (lata albo miesiące)? I jak to jest przy pomocy uczenia maszynowego? Jaka to jest mniej więcej skala?</strong><br /><br /></p>



<p>Bardzo się cieszę, że o tym wspomniałeś z tej perspektywy, że trzeba zrobić filtr. Jest to jeden ze sposobów, w jaki nasz system jest używany. Jest to praktyczny przykład, że ktoś przychodzi z milionem związków i chciałby wybrać z nich tysiąc, które akurat da się w miarę łatwo zrobić. <br /><br /></p>



<p>Jeżeli chodzi o czas, to też jest bardzo istotna rzecz, którą można poprawić dzięki machine learning. Tutaj nie ma jakiś oficjalnych benchmarków, więc też nie chciałbym podawać liczb bardzo konkretnie, ale na pewno można powiedzieć, że jeżeli pokubełkujemy sobie różne podejścia, załóżmy oparte o tradycyjne algorytmy, nie wykorzystujące w żaden sposób uczenia maszynowego i algorytmy, wykorzystujące ML, to spokojnie można mówić o przyspieszeniu rzędu 10 do 100 razy na związek, jeżeli używamy <em>machine learningu. </em><br /><br /></p>



<p>ML jest w stanie zgadnąć bardzo dużo rzeczy, które wcześniej musiał algorytm przeczesywać ręcznie. Żeby podeprzeć moje słowa, warto wspomnieć, że tego typu wyniki są widoczne w wielu dziedzinach, nie tylko w naszych. Przykładowo, jeżeli chcemy przewidywać własności chemiczne związku np. temperatura, w której się rozpuści, takie rzeczy tradycyjnie robiło się kosztownymi symulacjami kwantowymi. Ale bardzo dużo badań ostatnio pokazuje, że można mieć sieć neuronową, która jest 100 razy szybsza, a daje taką samą dokładność. Coś takiego tutaj obserwujemy.<br /><br /></p>



<p>To nie jest jedyny aspekt, jak poprawiamy wcześniejsze rozwiązania, ale niewątpliwie szybkość jest dosyć istotna.<br /><br /></p>



<p><strong>Skoro o tym wspomniałeś, to powiedz, jakie są jeszcze aspekty?</strong><br /><br /></p>



<p>Wydaje mi się, że drugi tak samo istotny aspekt jest taki, że te wcześniejsze rozwiązania, które nie opierały się o ML, zazwyczaj działały tylko i wyłącznie na związkach, które były w pewnym sensie albo znane (czyli ludzie zrobili go i jest na ten temat jakieś opracowanie w literaturze), albo bardzo konkretnie spełniają jakieś reguły. <br /><br /></p>



<p>Dużo rozwiązań wcześniejszych działało w ten sposób i dalej działa, że chemicy robili po prostu reguły, że ten związek da się tak uprościć i taką zrobić reakcję, a ten inny tak. Z tego powodu rozwiązania, które nie używają ML, mają ten konkretny problem, że chemicy wrzucają jakiś związek, a dany system mówi, że nie wie, jak go zrobić, bo jest zbyt daleki lub zbyt niepodobny do tego, co wcześniej zostało opisane regułami. Zatem drugim kluczowym aspektem, gdzie ML pomaga, oprócz szybkości jest to, że pozwala działać na nowych strukturach.<br /><br /></p>



<p><strong>To jest ciekawe. Tu też faktycznie jest taka rzecz, która pojawia się w dość nieoczywisty sposób, mówiąc ogólnie o uczeniu maszynowym, że klasycznie by było tak, że tak się złożyło, że zebrało się listę reguł, ale jednak przyznajmy, że te reguły, zależności są dość ograniczone. Mózg człowieka musiał to przepuścić przez siebie i to nie zawsze jest wydajny filtr. </strong><br /><br /></p>



<p><strong>Mózg człowieka ma swoje zalety też, których nadal ML nie potrafi wyrabiać, ale z drugiej strony też ma wady, które właśnie ML akurat w tym przypadku jest w stanie wychwycić i znaleźć nieoczywiste rzeczy, jakieś związki, o których wcześniej nikt nie pomyślał i to jest piękne.</strong><br /><br /></p>



<p><strong>Ciekaw jestem, jak często jesteście zaskakiwani takim właśnie wynikiem? Coś udało się wykryć, na co nikt wcześniej nie wpadł, ale z drugiej strony to też nie było zbyt skomplikowane. To bardziej chodzi o to, że to po prostu było gdzieś widoczne, ale nikt na to nie wpadł. Czy były takie sytuacje i czy to jest rzadkość, czy takie sytuacje zdarzają się w miarę regularnie?&nbsp;</strong><br /><br /></p>



<p>Wydaje mi się, że największą różnicą (chociaż niekoniecznie zaskoczeniem) jest to, że ten system oparty o ML faktycznie jest w stanie bardzo dużo związków zrobić, w porównaniu do systemu opartego o reguły. To może być różnica np. 30%. <br /><br /></p>



<p>Wcześniej co trzeci związek, w porównaniu do systemów opartych o ML, nie był syntetyzowany. To, co jest może trochę zaskakujące, to to, że cena związku ostatecznie to nie jest tylko to, jak go zrobić, czyli ten przepis kucharski, ale też koszt potrzebnych składników. <br /><br /></p>



<p>Ciasta mogą mieć bardzo różne koszty w zależności czy jedno używa drogich orzechów czy matchy, a drugie nie. Tutaj też mamy taki ciekawy efekt, że czasami jesteśmy w stanie zaproponować syntezy, które są bardzo tanie, dlatego że mamy w bazie danych ceny związków, których normalnie chemik nie ma w głowie. Tu są takie efekty, że np. jedna fabryka leków w Chinach przestała działać i przez to nagle dana grupa związków zaczyna być bardzo droga i przez to nie powinna być wyszukiwana jako potencjalne leki. <br /><br /></p>



<p>W pewnym sensie ekonomia potrafi w bardzo dziwny sposób wpływać na ceny leków czy sterować procesem wyszukiwania leków przez to, że bardzo potrafi zmieniać koszta. Albo np. powstaje jakaś nowa klasa związków, bo ktoś wymyślił nową reakcję i nagle proces odkrywania leków jest bardziej możliwy, bo te związki nagle potaniały. Takie rzeczy faktycznie się pojawiają i one wynikają nawet nie tyle z uczenia maszynowego, co z kombinacji ML z tym, że znamy ceny związków na rynku i możemy je sprawdzać.&nbsp;<br /><br /></p>



<p><strong>Pierwsza rzecz, na którą wpływacie, to jest czas &#8211; szybciej udaje się znaleźć rozwiązania. Druga rzecz to zmiana sposobu działania, czyli takie rzeczy, które przedtem były z jakiś tam powodów ograniczane i w ogóle nie dochodziło do analizy. </strong><br /><br /></p>



<p><strong>Trzecia rzecz to wartość biznesowa, czyli co z tego, że udało się coś znaleźć, ale ile to kosztuje? To mi przypomina trochę, jak pracowałem w <em>General Electric, </em>byłem akurat w <em>Healthcare</em> i tam problem był podobny. Taki zwykły inżynier potrafi to skonstruować, żeby to było trwałe, działało dobrze, ale on za bardzo się nie zna, czy to jest drogie. Jego to w ogóle zwykle nie obchodzi. </strong><br /><br /></p>



<p><strong>Dopiero potem, gdzieś na samym końcu, kiedy już to przeszło weryfikacje przeróżne, ktoś dokonuje obliczeń i wychodzi na to, że to jest zbyt drogie. Tam też budowałem system, który szybko oddawał informację zwrotną, ile to jest warte. To chyba działało dość podobnie, że była taka baza, chociaż ta baza też jest bardzo ciekawa, bo to nie jest taka trywialna baza. </strong><br /><br /></p>



<p><strong>Podejrzewam, że u Was jest podobnie, bo nie zawsze da się łatwo znaleźć, ile kosztuje to coś, bo to zależy od wielu kontekstów &#8211; np. w którym kraju jesteś. Te wszystkie konteksty trzeba uwzględnić, ale myślę, że to też podobna historia, kiedy osoba, która projektuje, zwykle nie ma takiej wiedzy ekonomicznej, która by była przydatna na etapie projektowania.&nbsp;</strong><br /><br /></p>



<p><strong>Teraz spróbujmy wejść w szczegóły, jeżeli chodzi o robienie takich projektów R&amp;D. Uczenie maszynowe samo w sobie to jest wyzwanie, bo tam są pewne rzeczy mniej określone, większe ryzyko. W zależności od tego, jak skomplikowany jest projekt, to to ryzyko się podnosi. Jak wsłuchuję się w to, co mówisz, to czuć, że tego ryzyka jest dość dużo, bo wiele rzeczy mogło pójść nie tak. </strong></p>



<p><strong>Zastanawiam się, jak do tego w ogóle podchodzicie z praktycznego punktu widzenia. Czy tutaj też macie np. takie zastosowanie Prawa Pareta, że próbujecie znaleźć te 20% przypadków, gdzie warto zainwestować w wysiłek, bo to przynosi 80% wartości? Być może jakoś inaczej wewnątrz to nazywacie? Ciekaw jestem, jak zarządzacie ryzykiem w projekcie, który to ryzyko ma dość duże?</strong><br /><br /></p>



<p>Bardzo się cieszę, że o tym wspomniałeś, to jest kluczowe w tym, co robimy, ale pozwolę sobie trochę odpowiedzieć inaczej na to pytanie i potem wrócić do niego, bo żeby narysować tę odpowiedź, muszę troszeczkę więcej opowiedzieć o tym, jak ten produkt wygląda od strony AI. <br /><br /></p>



<p>Wydaje mi się, że to fajnie pokaże zestaw wyzwań, które tam są. Myślę, że wszyscy czytelnicy będą kojarzyć <em>AlphaGo. </em>Jest to system sztucznej inteligencji zrobiony przez <em>DeepMind </em>(tutaj specjalnie używam słowa „system”, bo to wiąże ze sobą algorytmy szukania i sieci neuronowe), który umie grać w <em>Go. </em><br /><br /></p>



<p><em>Go </em>jest niesamowicie trudną grą, wcześniej ludzie myśleli, że rozwiąże ją ktoś 10 lat później, niż <em>DeepMind</em> to zrobił. To jest bardzo skomplikowana gra, ludzie myśleli, że to jest poza możliwościami AI. Wynika to z tego, że jest po prostu bardzo dużo ruchów. To jest gra, w której kładziemy białe i czarne kamienie na bardzo dużej planszy i przez to, to drzewo wyszukiwań ruchów jest po prostu niewyobrażalnie większe niż szachy. Takie algorytmy jak w szachach, gdzie to jest bardziej taka heurystyka plus szukanie, raczej nie działają. <br /><br /></p>



<p><em>DeepMind </em>udało się to zrobić, w szczególności dzięki temu, że byli w stanie zagrać ok. 100 mld różnych ruchów w tej grze w czasie uczenia i dzięki temu, nauczyć się jak grać w tę grę optymalnie. To był kluczowy element tego, że im się to udało, poza niesamowicie oczywiście genialnymi rozwiązaniami z zakresu sztucznej inteligencji.&nbsp;<br /><br /></p>



<p>To, co jest ciekawe i to dlaczego przytoczyłem to, to nasz problem może być tak samo sformułowany, tylko jest jeszcze trudniejszy niż <em>Go. </em>Też możemy sobie wyobrażać robienie syntezy związku jako grę. Zaczynamy od tego związku, którego chemik chce i dać mu przepis kucharski, jak go zrobić. <br /><br />Musimy przeszukać całe drzewo gry, gdzie każdy ruch to jest rozbicie tego związku na dwa prostsze, aż dojdziemy do związków, które można kupić. Czyli widać taki obrazek, że mamy drzewko, gdzie na górze mamy cały związek, a potem go tniemy, np. na pół, znowu na pół, aż dojdziemy do takiej rzeczy, którą można kupić, typu jakiś kwas, wodę, cokolwiek. Rzecz, którą załóżmy można kupić w sklepie i zmieszać.<br /><br /></p>



<p>Dlaczego to jest dużo trudniejsze niż <em>Go</em>?<em> </em>Nie dość, że ten czynnik możliwych ruchów jest załóżmy podobny lub przynajmniej wyobrażalnie podobny, to najgorsze jest to, że nie wiemy, jakie ruchy można robić. W momencie jak mamy związek, nie jest tak, że po prostu wiemy, jaką reakcję można zastosować, tylko musimy nauczyć się tego z danych, których niestety jest nie 100 mld, tylko bardziej 1 mln.<br /><br /></p>



<p> Z tej perspektywy, mam nadzieję, że widać, że jest to taki problem bardzo R&amp;D w naturze. Po prostu nie ma tutaj jakiś takich rozwiązań, że zapytamy bazę danych o cenę związków, wręcz odwrotnie. To jest tylko jeden z elementów, ale najtrudniejszym elementem jest rozbicie związku głównego na mniejsze związki, które można kupić. Ta droga to jest ta gra w <em>Go </em>i to jest kluczowy problem AI czy problem technologiczny.&nbsp;<br /><br /></p>



<p>Bardzo byśmy chcieli, żeby był <em>reinforcement learning</em> i nawet próbowaliśmy w którymś momencie, ale przez to, że nie mamy 100 mld ruchów, tylko 1 mln zaszumionych danych o reakcjach (swoją drogą, one pochodzą z patentów w Stanach), to po prostu <em>reinforcement learning</em> tutaj jeszcze nie pomaga. Bardziej trzeba się skupić na tym, żeby dobrze przewidywać ruchy, bo w <em>Go </em>ruchy to są reguły. <br /><br /></p>



<p>Wiemy, gdzie można postawić biały i czarny kamień, że w szczególności nie można postawić kamienia na kamieniu. My musimy nauczyć się tych ruchów i to jest na razie kluczowy problem.&nbsp;<br /><br /></p>



<p>Ale tak, <em>reinforcement learning</em> w przyszłości bardzo prawdopodobne, że będzie przydatny.<br /><br /></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="AlphaGo - The Movie | Full award-winning documentary" width="960" height="540" src="https://www.youtube.com/embed/WXuK6gekU1Y?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Film dokumentalny o AlphaGo | prod. DeepMind</figcaption></figure>



<p><br /><br /><strong>Z zaszumionymi danymi i patentami to brzmi trochę tak, że w tej chwili przez przypadek to, co zrobiliście, to jest taki system weryfikacyjny jakości tych patentów i czuć, że tam jest szum, prawda?</strong><br /><br /></p>



<p>Można powiedzieć, że jest to istotnie drugi wynik. Faktycznie są to dane bardzo zaszumione. Ktoś tam czasami wpisze temperaturę sto razy za dużą albo zapomni wpisać, że dodał tam jakiś kwas czy coś, więc te dane są faktycznie bardzo zaszumione i to jest kluczowy problem: jak modelować chemię? W gruncie rzeczy, chcemy się nauczyć natury czy fizyki, a mamy tylko milion danych i to jest bardzo mało w tym kontekście.&nbsp;<br /><br /></p>



<p>To tak chciałem po prostu narysować, bo wydaje mi się, że to troszeczkę pomoże odpowiedzieć na to pytanie. Zapytałeś, jak myślimy o tym, jak budować wartość z użyciem AI i czy jest to zasada Pareto?&nbsp;<br /><br /></p>



<p>Właśnie bardzo tak. Nasz kluczowy pomysł, jak budować wartość z takim produktem, który daje przepisy kucharskie, jak stworzyć dany związek jest taki, żeby skupić się na tym podzbiorze chemii czy tym podzbiorze reakcji, którego umiemy się nauczyć. <br /><br /></p>



<p>Mimo że te dane są niesamowicie zaszumione i bardzo niedoreprezentowane, jest podzbiór reakcji, których jesteśmy w stanie dobrze użyć (nazwijmy ją popularną chemią). Ta zasada Pareto tutaj bardzo wchodzi, ponieważ robimy AI, ale skupiamy się na niesamowicie wąskim wycinku chemii (czyli załóżmy te 120% z zasady Pareto), ale to już nam daje 80% wartości. <br /><br /></p>



<p>Jeżeli jesteśmy w stanie używać popularnej chemii, to już jesteśmy w stanie zrobić bardzo dużo związków, bo one w odkrywaniu leków są zwykle robione dosyć podobnymi reakcjami z różnych powodów, m.in. dlatego, że to są leki, więc mają podobne struktury. Zasada Pareto jest bardzo istotna w tym, jak myślimy o tym produkcie.&nbsp;<br /><br /></p>



<p><strong>Spróbujmy zrozumieć, co to znaczy w praktyce. Łatwo jest powiedzieć, że jak najbardziej Wam rezonuje skupianie się na rzeczach, które są najbardziej wartościowe przy najmniejszym wysiłku, ale co to znaczy w praktyce?</strong><br /><br /></p>



<p><strong>Jakie są kryteria, że wy rozumiecie, że akurat trzeba się skupić na tym: jakie są alarmy, gdy zaświeci się „zielona lampka”, czy da się szybko zidentyfikować, co robicie? Jak to wygląda od strony praktycznej, jeżeli chodzi o planowanie, logistykę?</strong><br /><br /></p>



<p>Opowiem najpierw historię z Tesli, z wykładu o ich autopilocie. Potem opowiem podobną historię u nas i może w ten sposób zilustruję, co robimy w tym kontekście. To jest jeden aspekt tego, jak sobie radzimy z wprowadzeniem zasady Pareto w praktyce, bo rozumiem, że to jest głównie pytanie.&nbsp;<br /><br /></p>



<p>Przykład Tesli, jak oni podchodzą do autopilota &#8211; jednym z aspektów autopilota w Tesli jest oczywiście to, żeby rozpoznać znak STOP. Bardzo źle by było, jakby autopilot nie rozpoznał znaku stopu. Okazało się, że słabo sobie radzą w którymś momencie ich pracy (teraz już zakładam, że sobie dobrze radzą) z tym, że znaki STOP są w różnej ilości konfiguracji, bo np. znak STOPu okazuje się, że może być trzymany przez człowieka na ulicy, może być trzymany przez człowieka na odwrót (znak STOPu trzyma, ale go obrócił o 180 stopni), może być za drzewem, może być z naklejoną naklejką.<br /><br /><br /> Tesla podchodzi do tej klasy problemu, robiąc sobie pętlę uczenia aktywnego, czyli znajdują takie przykłady, gdzie jest ciężko, a potem zbierają je z całej swojej floty (czyli zbierają podobne przykłady, które mają podobną właściwość), budują zbiór danych. Teraz włączając ten zbiór danych do ich zbioru całego, po nauczeniu się znowu sieci neuronowej czy całego systemu, potencjalnie będzie on już odporny na te znaki STOPu.&nbsp;<br /><br /></p>



<p>Analogicznie my realizujemy zasadę Pareto w ten sposób, że po prostu testujemy to, co chcemy. To brzmi prosto, ale jest bardzo rzadko realizowane w praktyce, przynajmniej w tej dziedzinie. Zresztą wydaje mi się, że często ogólnie w AI przemyśle. <br /><br /></p>



<p>Budujemy testy, które bardzo specyficznie sprawdzają wiedzę chemiczną modelu versus to, że on umie dobrze przewidywać reakcję. Dzięki temu, nasz model działa dużo bardziej stabilnie od tej popularnej chemii i będzie działał u większej ilości klientów.&nbsp;<br /><br /></p>



<p>Czyli analogicznie, jak Tesla by chciała, żeby rozpoznawać znak STOPu, który jest odwrócony o 180 stopni, my też chcemy, żeby nasz model działał stabilnie w sytuacjach, w których dostajemy dziwne związki.&nbsp;</p>



<p>Na przykład wyszło nam coś ciekawego w czasie pracy &#8211; sprawdzaliśmy jedną właściwość chemiczną, która jest kluczowa &#8211; nazywa się regioselektywność. Polega na tym, że jeżeli mamy jakąś reakcję, to tam są dwa substraty. Jeden substrat przykleja się do drugiego, ale może się przykleić w różnych miejscach. <br /><br /></p>



<p>Czy jeżeli model rozumie regioselektywność to wybierze dobre miejsce do przyklejenia się? To, co się ciekawego okazało, to regioselektywność nie była kluczowym aspektem dla modelu, żeby dobrze działać. Właśnie nauczyła się jakiś skrótów, była trochę leniwa. Uczyła się świetnie rozbijać związek, ale niestety nie wiedziała do końca, gdzie co się przyklei, bo nie było to dla niej konieczne z pewnych powodów. <br /><br /></p>



<p>Zrobiliśmy wewnętrzny test, który to sprawdza, a potem wprowadziliśmy to jakby bardziej bezpośrednio do trenowania. Tego typu podejście, gdzie trochę jak Tesla, identyfikujemy, gdzie nie działamy z tej popularnej chemii i wprowadzamy to do systemu albo poprawiając to bezpośrednio, albo poprawiając trenowanie, pozwala nam w bardziej systematyczny sposób myśleć o tym, co i jak realizować tą zasadą Pareto i jak ją testować.&nbsp;<br /><br /></p>



<p><strong>Skąd wiecie, że nie przegapiliście czegoś ważnego? Wyobraźmy sobie, że jest 100% rzeczy, które można wykonać, są te 20% najciekawsze, atrakcyjne i teraz skąd wiecie, że akurat top 5 albo top 10 nie przegapiliście?&nbsp;</strong><br /><br /></p>



<p>Różnie to można powiedzieć, np. jest tak, że są fale popularności różnych imion dzieci. Trochę to jest tak, że jest pewien zestaw reakcji, które są obecnie istotne. Te trendy się zmieniają z czasem, ale w miarę można je zidentyfikować. Po prostu wiemy, jaki zestaw reakcji jest najczęściej używany, żeby syntetyzować związki chemiczne, które są lekopodobne i na nich się skupiamy. <br /><br /></p>



<p>Na nich się skupiamy też w tych testach, o których wspomniałem. To troszeczkę jest tak, że analizujemy trendy, które są na rynku i na tej podstawie skupiamy się na danym podzbiorze chemii.&nbsp;<br /><br /></p>



<p><strong>Jak to się stało, że zostałeś naukowcem?</strong></p>



<p>To był kontrolowany zbieg okoliczności, ale głównie zbieg okoliczności. Na pewno zawsze miałem coś takiego, że bardzo lubiłem rozumieć rzeczy, ale tak ogólnie to był to proces stochastyczny.&nbsp;<br /><br /></p>



<p>Pierwszy element jest taki, że programowałem od bardzo małego. Mój tata z jakiś powodów (z czego się bardzo cieszę) uczył mnie programować od małego, od podstawówki. Wtedy programowaliśmy np. jakiś bardzo prosty silnik fizyczny. To wprowadziło mnie w świat programowania bardzo wcześnie i było to jednym z kluczowych moich zainteresowań. Ja zawsze chciałem zostać fizykiem, ale nie zostałem. Miałem taki ze sobą zakład w liceum, że jeżeli zostanę laureatem Olimpiady Fizycznej, to pójdę na medycynę, bo też chciałem być lekarzem. Jeżeli dojdę do finału, to pójdę na fizykę.&nbsp;<br /><br /></p>



<p>Jak można zgadnąć, ani laureatem, ani do finału się nie dostałem, więc stwierdziłem, że jak już mi tak pójdzie źle, to pójdę na informatykę. Tak wyszło, że poszedłem na tę informatykę na UJ. Okazało się to fantastycznym zbiegiem okoliczności. W 2011 r. to było. Wtedy sieci neuronowych tych głębokich w Polsce po prostu nie było. <br /><br /></p>



<p>Tak upraszczam, ale myślę, że to jest w miarę dobre uproszczenie. Były oczywiście sieci neuronowe, ale tego podejścia <em>deep learningowego</em> prawie w ogóle nie było, ale akurat na UJ był profesor Igor Podolak, który był moim opiekunem na studiach indywidualnych. On w gruncie rzeczy zaciekawił mnie tym tematem i dzięki niemu bardzo się nim zainteresowałem. </p>



<p>To był bardzo istotny zbieg okoliczności i też wtedy stworzyła się grupa GMUM (<em>Group of Machine Learning Research</em>) na UJ, która chyba teraz jest największą grupą <em>deep learningu</em> w Polsce, a wtedy w ogóle się nie zajmowała sieciami neuronowymi, więc też taki ciekawy zbieg okoliczności.</p>



<p>Ja się interesuje tym, że te sieci neuronowe leniwie się uczą, ale to też jest strasznie duży przypadek. Pamiętam, że wysłałem aplikację na staż u profesora Yoshua Bengio i potem ten list został w skrzynce spamowej całego Instytutu w Montrealu przez rok. W ogóle nikt go nie otworzył, bo wpadł do skrzynki spamowej, nie wiem czemu (wysłałem go z Gmaila).<br /><br /></p>



<p> Dopiero po roku odpowiedzieli mi i trochę przez to, że wpadł do tej skrzynki spamowej, może miałem trochę inny proces na rekrutację. W gruncie rzeczy dzięki temu, że pojechałem tam rok później, to miałem okazję pracować w tematach optymalizacyjnych. To był taki kolejny zbieg okoliczności. One stały się podstawą mojego doktoratu i w ogóle teraz zainteresowań.&nbsp;<br /><br /></p>



<p>Tych przypadków było jeszcze trochę, więc tak koniec końców to, że zostałem naukowcem i to, że w szczególności działam w optymalizacji, jest kontrolowanym zbiegiem okoliczności. Jednak zawsze mnie interesowała nauka i teraz się bardzo cieszę, że to, co robię, łączy ze sobą wszystkie aspekty, które gdzieś tam po drodze lubiłem, bo jest chemia, fizyka, programowanie, sztuczna inteligencja, praca z ludźmi. Jakoś się to wszystko tak ułożyło, że łączy ze sobą te elementy, które mnie interesują.&nbsp;<br /><br /><br /></p>



<p><strong>To jest ciekawe, bo z jednej strony to jest zbieg okoliczności, ale z drugiej to warto przyznać, jaka jest Twoja postawa, bo jeżeli wziąć losową osobę, postawić w to miejsce, to podejrzewam, że wyniki byłyby zupełnie inne. </strong><br /><br /><br /><strong>Tu chciałem, żeby też wybrzmiało, na ile po prostu jesteś otwarty na świat i lubisz eksperymentować i poznawać różne rzeczy. Po prostu, jak przydarzy Ci się jakaś okazja, to próbujesz to potestować. Potem, co Ci się udaje i myślę, że to też nie przypadek, dlaczego pracujesz teraz w <em>Molecule.one. </em>Właśnie próbujesz łączyć różne kropki.</strong><br /><br /></p>



<p>To też był straszny przypadek, że pracuję w <em>Molecule.one</em>, bo wszystko dzięki temu, że mieliśmy wspólnego znajomego i po prostu, wtedy byłem jedną z niewielu osób w Polsce, która interesowała się równolegle sieciami neuronowymi i chemią.&nbsp;<br /><br /></p>



<p><strong>Masz część związaną ze światem naukowym, z drugiej strony teraz jesteś zaangażowany w startup, czyli projekt biznesowy. Jak się to łączy? W Stanach Zjednoczonych naukowcy faktycznie czasem robią biznes, w Polsce to się dzieje coraz częściej, w szczególności jeżeli mówimy o młodszych naukowcach. </strong><br /><br /></p>



<p><strong>Natomiast myślę, że to nadal jest dość rzadkie zjawisko i wiele osób albo siedzi na uczelniach, albo robi biznes. Nie jest takie popularne, że jesteś tu i tu. Chociaż to jest takie fajne, żeby się nawzajem uzupełniać. Jak to jest u Ciebie, jak to łączysz i jakie są plany? Czy jest szansa, że na któryś z obszarów bardziej się zdecydujesz czy jednak chcesz balansować pomiędzy?</strong><br /><br /></p>



<p>Teraz jestem bardziej po stronie nauki. Tak jak wspominałem, o ile zaczynałem rozkręcać ten zespół <em>machine learningowy, </em>teraz jestem bardziej <em>advisorem </em>naukowym, ale to się zmienia za miesiąc, bo będę już na stałe w <em>Molecule.one</em>, więc możemy powiedzieć, że się uśrednia na to, że jestem pół na pół. Faktycznie tak jak mówisz, to jest bardzo ciekawe spostrzeżenie, że w Polsce (przynajmniej ogólnie) to jest dużo bardziej rzadkie niż w Ameryce &#8211; szkoda. <br /><br /></p>



<p>Wydaje mi się, że bardzo naturalnym jest, żeby było więcej spin-offów z uczelni, patentów i tych patentów i spin-offów w Polsce jest mało. Ciężko powiedzieć, z czego to wynika. Nie chcę tutaj hipotetyzować.<br /><br /></p>



<p>Wydaje mi się, że jednym z najciekawszych kierunków, w które idzie sztuczna inteligencja teraz, jest automatyczne odkrywanie naukowych rzeczy (<em>automatic scientific discovery</em>). W szczególności w perspektywie kolejnych 5, 10 lat, sieci neuronowe i AI będą bardzo kluczowe w kontekście odkryć naukowych, już na skalę nagrody Nobla. <br /><br /></p>



<p>Z tej perspektywy bardzo mnie interesuje to przecięcie. Są tu problemy naukowe, jak sieci neuronowe mogą takie odkrycia robić czy pomagać naukowcom, ale też wręcz z definicji wynika, że trzeba mieć również biznes, który, przynajmniej jeżeli chodzi o odkrywanie leków, operuje jakimiś dużymi pieniędzmi, potem może robić te eksperymenty w laboratorium itd. <br /><br /></p>



<p>Oczywiście są takie dziedziny naukowe, gdzie nie trzeba mieć dużych pieniędzy, ale akurat w moim obszarze zainteresowań eksperymenty potrafią być drogie.&nbsp;<br /><br /></p>



<p>Jeżeli mnie interesuje lub widzę potencjał w tym przecięciu, że AI pomaga w nauce, chemii czy w odkrywaniu leków, to nie ma właściwie wyjścia i trzeba być gdzieś tam pośrodku tych dwóch bardzo fascynujących pól i ich przecięcia. Motywacja wychodzi z naturalności tego działania.<br /><br /></p>



<p>Jest też motywacja bardziej filozoficzna. Proces odkrywania leków, jak wspominałem, jest bardzo drogi i bardzo nieefektywny. Wydaje mi się, że to jest ciekawy problem do rozwiązania i to też bardzo mnie motywuje, żeby nad nim pracować długofalowo czy w biznesie, czy w nauce.<br /><br /></p>



<p><strong>Ciekawy jestem, czy masz jakiś określony pułap, co chciałbyś minimum osiągnąć, żeby uznać, że ten cały proces zaangażowania się w ten projekt, poświęcania swojej energii, po prostu miał sens?&nbsp;</strong><br /><br /></p>



<p>Nie, w sumie nie. Po prostu traktuję to tak, że to jest to, na czym się skupiam i zobaczymy. Nie wiem, kto to zrobi, ale nie ma jeszcze takiego przykładu klarownego, że sieć neuronowa bardzo pomogła w odkryciu jakiegoś leku. Jest trochę papierów, które tak twierdzą, ale ja bym tutaj z rezerwą podchodził do tych stwierdzeń. <br /><br /></p>



<p>Bardziej one były formą narzędzia, ale nie były kluczowe. O ile nie jest tak, że jest to mój personalny cel, to wydaje mi się, że będzie taki troszeczkę <em>milestone</em> całego tego pola, jeżeli faktycznie kluczową częścią leku, który będzie do kupienia w aptece, było użycie AI. Wydaje mi się, że wtedy naprawdę jako cała społeczność zobaczymy, że faktycznie AI jest w stanie pomagać procesowi odkrywania leków i w szczególności pomagać ogólnie nauce. <br /><br />W tym momencie to, co mnie fascynuje, czyli to przecięcie AI i procesu naukowego, ma dużo fajnych drobnych sukcesów, ale nie ma jeszcze czegoś takiego, że faktycznie AI pomogło coś odkryć. Raczej to są takie rzeczy, że osiąga podobne wyniki, jak jacyś lekarze, ale nie ma czegoś takiego, że np. AI powiedziało coś nowego o raku piersi. Bardzo jestem ciekawy, kiedy zaczną się pojawiać takie pierwsze wyniki. Wydaje mi się, że to będzie element kolejnej rewolucji w <em>deep learningu </em>i AI.<br /><br /></p>



<p><strong>Właśnie o to chciałem zapytać, czyli ten moment, kiedy to nastąpi, brzmi trochę jak rewolucja, ale odwołując się do <em>AlphaGo</em> to ograniczeniem obecnie jest po prostu mniejsza ilość danych, których próbka jest zaszumiona. </strong><br /><br /><br /><strong>Jeżeli powstanie takie rozwiązanie, które będzie w stanie niezależnie, samodzielnie coś wytworzyć, wykombinować, to to by trochę brzmiało, że to coś będzie w stanie wygenerować też więcej próbek, bo będzie lepiej rozumieć rzeczywistość (przynajmniej pewien wycinek rzeczywistości). To tworzy zupełnie inne możliwości niż mamy teraz. To coś podobnego, jak był <em>computer vision </em>przed <em>ImageNet</em> i właściwie po 2012 r. To jest coś takiego? Taki <em>milestone?</em></strong><br /><br /></p>



<p>Tak, to jest absolutnie fascynująca możliwość, prawdziwa interakcja. Możemy tu się skupić na wielu zastosowaniach AI, nie tylko robieniu reakcji. W momencie, kiedy faktycznie AI zacznie wykonywać te eksperymenty bardziej samodzielnie, to też ma ten potencjał, że to będzie, tak jak mówisz, coś zupełnie nowego. <br /><br /></p>



<p>W szczególności jestem bardzo podekscytowany tą interakcją, tzn. jeżeli AI będzie samo proponować eksperymenty, np. które reakcje wykonać to bardzo ciekawa jest interakcja tego z chemikiem i co razem mogą zrobić. Tutaj troszeczkę naciągam analogię, ale są takie fajne wyniki, że ludzie używając <em>AlphaGo</em> potrafią się nauczyć nowych rzeczy o <em>Go. </em>Jest dużo takich przykładów od <em>DeepMindu. </em>Fajnie, że to się dzieje w <em>AlphaGo</em>, ale co jeśli zacznie się to gdzieś w nauce? <br /><br /></p>



<p>Myślę, że to będzie wymagać dużych postępów, nie tylko w ilości danych czy w ilości pieniędzy, ale też w technikach AI i to jest część motywacji, dla której jestem na tym przecięciu nauki i biznesu.&nbsp;<br /><br /></p>



<p><strong>Faktycznie w przypadku <em>AlphaGo </em>to się wydarzyło przy okazji. Tego nikt wprost nie planował, że wykryły się inne takie wzorce, na które nikt wcześniej nie wpadł.&nbsp;</strong><br /><br /></p>



<p><strong>Aż kusi zapytać o jeszcze jedną rzecz. Skoro jest magiczny punkt X, być może uda się go osiągnąć (teraz trochę oczywiście to wróżenie), ale powiedzmy czy to jest perspektywa 5, 20, 50 lat? Jak czujesz?</strong><br /><br /></p>



<p>Mi się wydaje, że to jest bardziej perspektywa 5-10 lat. Oczywiście, myśmy nigdy nie zdefiniowali, co mamy na myśli, więc to, ile to będzie, jest tym bardziej wróżeniem z fusów, bo tu jasnej definicji nie postawiliśmy. W każdym razie moment, w którym ogólnie będą pierwsze bardzo jasne wyniki, że AI odkryło coś naukowego, postawiłbym w stylu 5-10 lat, bo już teraz nie jesteśmy daleko w różnych innych dziedzinach. <br /><br /></p>



<p>Konkretnie w odkrywaniu leków i chemii, gdzie troszeczkę mam więcej informacji. Bardzo ekscytujące jest to, że równolegle z poprawą AI, poprawiają się też nasze umiejętności symulacji. Przypominam, że chemia jest procesem fizycznym, więc w gruncie rzeczy, jakbyśmy umieli zasymulować to wszystko, to dużą ilość problemów byśmy zniwelowali. <br /><br />Wydaje mi się, że bardzo tu jest istotna symulacja i ta symulacja postępuje równolegle z mocą AI i z mocą obliczeniową AI, sprawia, że ten postęp może być szybszy, niż nam się wydaje.&nbsp;<br /><br /></p>



<p>Tutaj warto wspomnieć chociażby o komputerach kwantowych, które mogą mieć duże znaczenie w chemii. Tu może być perspektywa bardziej 50 lat.<br /><br /></p>



<p>Tak bym postawił, 5-10 lat to jest tutaj moja hipoteza. Pewnie nie mam racji, ale chętnie sprawdzę za 5-10 lat.<br /><br /></p>



<p><strong>My faktycznie nie zdefiniowaliśmy, co to jest, ale w miarę określiliśmy, że to będzie taki punkt przełomowy i tu plus minus da się zrozumieć, o co chodziło.&nbsp;</strong><br /><br /></p>



<p><strong>W obecnych czasach ciężko jest pominąć temat COVIDu, więc pytanie czy to, czym się zajmujecie, w jakichś sposób może się przełożyć na znalezienie leku lub szczepionki? Czy działacie w tym kierunku?</strong><br /><br /></p>



<p>Najbardziej obiecującym procesem znalezienia leku na COVID jest szczepionka. Nie mniej, inne sposoby to właśnie znalezienie nowej struktury, która działa jak lek i w tym kontekście, udostępniliśmy nasze rozwiązania dla wszystkich naukowców, którzy szukają leku na koronawirusa i współpracujemy z paroma grupami. <br /><br /></p>



<p>W szczególności warto wspomnieć o takim projekcie z Montrealu, grupy profesora Yoshua Bengio, który się nazywa <em>LambdaZero </em>(to jest oczywiście w analogii do <em>AlphaZero</em>). Idea jest taka, żeby zaprząc podobny algorytm do szukania leków, które przyczepiają się do białek, które są istotne w kontekście mechanizmu działania COVIDa. Tam kluczowa innowacja jest taka, że przeszukują straszne ilości tych związków. <br /><br /></p>



<p>W tym kontekście była potrzeba użycia bardzo szybkiego algorytmu do oceny syntetyzowalności i właśnie w ramach tego zawiązaliśmy współpracę z dwoma osobami w tym projekcie. Użyli naszego darmowego rozwiązania, przepuściwszy przez nasz system 100-200 tys. związków, które im oceniliśmy z punktu widzenia syntetyzowalności. Takie coś byłoby dosyć trudne z użyciem innych rozwiązań ze względów czasowych.&nbsp;<br /><br /></p>



<p><strong>Kiedy się dowiemy, czy to gdzieś pomogło? Jakie są dalsze kroki?</strong><br /><br /></p>



<p>Tutaj nie mogę szczegółów podawać. Tyle co jest widoczne na stronie <em>LambdaZero,</em> mogę powiedzieć. Projekt działa już od jakiegoś roku i na stronie jest pokazane, że znaleźli związek, który dobrze w symulatorze działa i da się go zrobić teoretycznie w laboratorium. Ale czy są praktyczne wyniki, to jeszcze nie jest nic ogłoszone i też jakiś <em>timeline</em> ciężko podać.&nbsp;<br /><br /></p>



<p><strong>Na koniec chciałbym zapytać, być może trochę filozoficznie, trochę etycznie: jak myślisz, dokąd to wszystko dąży, jeżeli chodzi o sens tego, co się dzieje? Jaki to będzie miało wpływ na ludzi? Czy ludzie staną się zdrowsi przez te rozwiązania, które mogą powstać?</strong><br /><br /></p>



<p>Myślę, że najlepiej się skupić na tym, ile ten proces kosztuje i jaki jest długi. Jak wspomniałem, proces odkrywania leków czyli od góry tego lejka do jednego związku, może kosztować załóżmy 1 mld $. Stąd prosta implikacja, że dla chorób, które dotyczą tylko np. 10 tys. osób, niestety po prostu ten proces nie jest opłacalny. <br /><br /></p>



<p>Zmniejszenie kosztów tego procesu, do czego wydaje mi się, że połączenie AI i symulacji ma ogromny potencjał, ma szansę sprawić przeprowadzenie całego procesu dostatecznie tanim. Nawet dla tych chorób, które dotyczą małej populacji. Jest takich chorób niestety bardzo dużo. To są w szczególności jakieś genetyczne zmiany, które prowadzą do konkretnych schorzeń, które często wiemy, jak wyleczyć, jaki jest mechanizm tej choroby, ale po prostu nie opłaca się od strony rynkowej i dowolne rozwiązania polityczne tego nie zmienią. <br /><br /></p>



<p>Tutaj to jest największy potencjał ogólnie zastosowań metod AI czy lepszych symulacji w procesie odkrywania leków.<br /><br /></p>



<p><strong>Mamy nadzieję, że jeżeli proces będzie tańszy, to w praktyce to oznacza, że leki staną się po prostu dostępne, bo niestety są inne analogie, jak np. z ropą. Kiedy ropa tanieje lub nawet czasem jest ujemna (czyli ktoś płaci, żeby ktokolwiek tę ropę kupił), a benzyna delikatnie być może spada, a może czasem niekoniecznie. </strong><br /><br /></p>



<p><strong>Te procesy w ekonomii czasem są dość ciekawe, jeżeli chodzi o to, że regularnie rosną, ale nie zawsze chcą spadać. Trzymajmy kciuki, żeby w tym przypadku to faktycznie wpłynęło korzystnie na ludzi, bo technologia ma ogromny potencjał. </strong><br /><br /></p>



<p><strong>Oczywiście są pewne rzeczy, które jeszcze trzeba lepiej zrozumieć, sprawdzić i to jest właśnie to, czym się zajmujesz. Pięknie będzie, jeżeli to rozwiązanie faktycznie się przyczyni do tego, żeby problemy życiowe, które w tej chwili są pomijane, bo tak jak chociażby wspomniałeś, że nie zawsze to jest opłacalne, czyli nie ma możliwości tych leków zbudować tymi metodami, które w tej chwili są dostępne, to przynajmniej tutaj mamy nadzieję, że to będzie osiągalne, namacalne rozwiązanie dla większej grupy osób.</strong><br /><br /><br /><strong> Być może też nie dla wszystkich, chociaż być może to w tym kierunku mogłoby dążyć, bo ostatecznie technologie, jak już ta mądrość pojawi się na poziomie cyfrowym, to technologicznie to już nie będzie drogie. Bardziej problem jest w tym, żeby się dostać do tego punktu. W tej chwili jak <em>AlphaGo</em> się pojawiła, jej uruchomienie już nie jest takie skomplikowane, to już są zdecydowanie mniejsze pieniądze.&nbsp;</strong><br /><br /></p>



<p><strong>To chyba tyle na dzisiaj. Dzięki wielkie za rozmowę, życzę żeby udało Ci się rozwinąć jako człowiek, jako osoba, która lubi poznawać świat. Mam nadzieję, że to się przyczyni ku temu, żebyśmy my jako ludzie, cywilizacja znaleźli się na nowym, lepszym poziomie naszego rozwoju. Dzięki wielkie.</strong><br /><br /></p>



<p>Dzięki bardzo za zaproszenie i rozmowę. Do usłyszenia.<br /><br /></p>



<hr class="wp-block-separator has-css-opacity"/>



<p><br /><br /><strong>Jeśli spodobał Ci się ten wywiad to bardzo proszę, poleć co najmniej jednej osobie, żeby również mogła go wysłuchać. Będę Ci wdzięczny za różnego rodzaju potwierdzenie, czyli w iTunes możesz postawić 5 gwiazdek, napisać komentarz. Dzięki temu, ten podcast będzie bardziej dostępny dla innych ludzi.&nbsp;</strong><br /><br /></p>



<p><strong>Zapraszam Cię również do zapisania się na <a href="https://biznesmysli.pl/newsletter/" target="_blank" rel="noreferrer noopener">newsletter</a>, bo dzięki temu będziesz dostawać najnowsze informacje. Nie spamujemy, za to przypominamy, kiedy wychodzą nowe odcinki i też przesyłamy prezenty, gdy takie się pojawią. </strong><br /><br /><br /></p>



<p><strong>Pytanie, które zadałem na końcu Staszkowi: dokąd to dąży, bo fajnie, że uda się znaleźć takie narzędzia, mechanizm, na podstawie którego można znajdować leki szybciej, sprawniej, trafniej, ale co to oznacza dla ludzi? Czy to nie będzie tak, że zachłanność kogoś poniesie za daleko? Po nagraniu podcastu rozmawialiśmy i między innymi Staszek jest bardzo optymistycznie nastawiony na to, że w tej chwili nie ma lepszego systemu niż kapitalizm. </strong><br /><br /></p>



<p><strong>Np. w Stanach Zjednoczonych jako taki mechanizm pewnego hamulca, to są różne zabezpieczenia albo patenty, które trwają X lat, a później można sobie spokojnie te leki produkować i rynek powinien to regulować, żeby cena była adekwatna. Jest nastawiony tutaj bardziej optymistycznie, chociaż też wspomniał o przykładzie niefajnym, który się wydarzył w swoim czasie, kiedy jedna firma skupowała patenty, a potem jak już je skupiła, to podnosiła ceny i to były leki, które człowiek musiał zużywać, bo to była kwestia życia i śmierci. </strong><br /><br /></p>



<p><strong>Firma oczywiście miała duże zyski, przychody, ale kosztem czego? Zdaje sobie sprawę, że takie sytuacje mogą występować, ale mimo tego jest nastawiony optymistycznie i chciałbym też trzymać się tej myśli. Z drugiej strony warto mieć na uwadze, czy faktycznie technologia przyczyni się ku temu, znajdzie się we właściwych rękach?</strong><br /><br /><strong>&nbsp;</strong></p>



<p><strong>Tu pytanie też na koniec dla Ciebie: jak myślisz, co powinno się stać, żeby taka technologia była we właściwych rękach i jak te właściwe ręce można zdefiniować? Skąd dowiemy się, że te ręce są właściwe?</strong><br /><br /></p>
<p>Artykuł <a href="https://biznesmysli.pl/jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow/">Jak zmusić leniwe sieci neuronowe do produkcji leków?</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/jak-zmusic-leniwe-sieci-neuronowe-do-produkcji-lekow/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Sztuczna inteligencja i branża ubezpieczeń</title>
		<link>https://biznesmysli.pl/sztuczna-inteligencja-w-pzu/</link>
					<comments>https://biznesmysli.pl/sztuczna-inteligencja-w-pzu/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 25 Nov 2019 04:00:39 +0000</pubDate>
				<category><![CDATA[Brak kategorii]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=1680</guid>

					<description><![CDATA[<p>Uczenie maszynowe nieustannie zmienia wiele branż. Czasem te zmiany są rewolucyjne, czasem bardziej ewolucyjne. Jak sprawa wygląda w branży ubezpieczeń? W czym uczenie maszynowe może tam pomóc? Dzisiejszym gościem jest Marcin Kurczab &#8211; szef innowacyjnego laboratorium w PZU, gdzie powstają projekty tworzone własnymi siłami lub współpracując z partnerami. Marcin mówi, że w labie skupiają się na tym, aby więcej robić, mniej mówić&#8230; Posłuchaj całego wywiadu, warto!&#160; Zapraszam. Cześć Marcin! Przedstaw się, proszę. Powiedz, kim jesteś, czym się zajmujesz, gdzie mieszkasz.&#160; Cześć Vladimir! Jestem szefem laboratorium innowacji PZU, czyli wewnętrznej komórki, która zajmuje się generowaniem pomysłów na nowe rozwiązania i ich testowaniem wspólnie z jednostkami biznesowymi PZU. Pracuje w PZU od 6 lat. Zaczynałem jako stażysta w 2013 r. Początkowo w biurze strategii i projektów, a od 2 lat mam przyjemność prowadzić laboratorium innowacji. Mieszkam w Warszawie na Bielanach, a pochodzę z południa Polski &#8211; z pięknej miejscowości Limanowa, do której zapraszam wszystkich słuchaczy w wolnej chwili. Pozostały czas poświęcam na moje pasje &#8211; muzykę i sport. Dzięki wielkie. Co ostatnio ciekawego przeczytałeś? Mam dwie pozycje, które mi się ostatnio spodobały. Pierwsza &#8211; raport CB Insights na temat bieżących trendów na rynku health-tech i start-upów medycznych. Zawierał bardzo dużo ciekawych rzeczy na temat tego, co dzieje się na zachodzie w tym obszarze i w jakim kierunku rozwija się ta branża. Osobiście obstawiam, że to będzie jeden z bardziej gorących tematów w ciągu najbliższych lat. Publikacja dotyczy tego, jak start-upy technologiczne są w stanie nam pomóc w tym, żeby żyć dłużej i w lepszej kondycji. Ten raport polecam wszystkim. Jeśli chodzi o &#8222;grubsze&#8221; lektury, to jedną z ciekawszych książek, jaką ostatnio miałem okazję przeczytać, było &#8222;The Sales Acceleration Formula&#8221;, autorstwa Roberge Mark, który założył kilkanaście lat temu start-up HubSpot w Stanach Zjednoczonych. Autor podzielił się tam bardzo ciekawymi refleksjami na temat tego, w jaki sposób budować zespół i biznes od zera &#8211; w oparciu o dane, technologie, Internet, social media. Były tam poruszane bardzo różne warstwy tego, w jaki sposób można zbudować start-up z sukcesem, który działa w formule &#8222;Software as a Service&#8221;. Poruszał wątki, m.in. w jaki sposób dbać o to, żeby właściwi ludzie byli zatrudnieni w Twoim start-upie, w jaki sposób zapewniać im szkolenia, zarządzać zespołem. No i co najważniejsze, w jaki sposób wyrobić &#8222;growth hacking&#8221;, czyli w jaki sposób tworzyć popyt i zainteresowanie potencjalnych klientów na Twoje produkty. Czytam takie książki m.in. z tego względu, że w PZU w ramach Innovative Lab, jedną z rzeczy, jaką się zajmujemy jest tworzenie nowych modeli biznesowych dla PZU i budowanie biznesów od zera. PZU wchodzi w piątkę największych firm w Polsce oraz jest największą w branży ubezpieczeń. Sam jestem Waszym klientem. Wprowadzenie innowacji (mam na myśli teraz obszar uczenia maszynowego) w tak dużych firmach może przynieść wiele korzyści, ale często jest tak, że większe firmy mają bardzo dużo wewnętrznych oporów, żeby zacząć działać. Jak to zaczynało się u Was (z góry czy z dołu)? Jak to się stało, że pojawiło się Innovative Lab w PZU? Sam obszar innowacji jest bardzo gorącym tematem, nie tylko w branży finansowej, ale również poza nią. PZU trochę ponad 2 lata temu zdecydowało się, że chce w tym celu powołać dedykowaną komórkę (którą właśnie nazwaliśmy Laboratorium Innowacji), której celem będzie szybkie testowanie pomysłów na nowe rozwiązania biznesowe przy udziale najnowszych technologii. Podstawową dewizą, którą kierujemy się w PZU przy robieniu innowacji jest &#8222;Mniej mówić, więcej robić&#8221;. Chodzi o to, żeby unikać “over-analyzing” tematu. Mam na myśli sytuację, w której tematy innowacyjne dzieją się na slajdach, w raportach, na spotkaniach, w dyskusjach, a nie w rzeczywistości. Zależy nam na tym, żeby tematy, w które wierzymy i które chcemy testować, jak najszybciej wziąć “na pokład” i je zrealizować. Sztuka polega na tym, żeby potencjalny pilotaż, walidację pomysłu zrobić w sposób efektywny, zarówno pod kątem zaangażowania zasobów, jak i pod kątem wykorzystanego czasu, czy też środków finansowych. Tutaj też mogę się pewnymi refleksjami podzielić. Po co w ogóle PZU inwestuje w innowacje? Inwestujemy, ponieważ wierzymy, że jeżeli będziemy stać w miejscu, to się nie rozwijamy. Jeżeli się nie rozwijamy, to de facto cofamy się. Często na spotkaniach wewnętrznych przywołuję przykład Nokii, gdzie 5 lat temu prezes Nokii na konferencji prasowej (gdzie Nokia była przejmowana przez Microsoft) powiedział, że oni właściwie nie zrobili nic złego, ale z jakiegoś względu przegrali tę rozgrywkę rynkową. To dla mnie książkowy przykład tego, w jaki sposób taka nadmierna wstrzemięźliwość może niestety przełożyć się na negatywny scenariusz rynkowy dla firm. Pomimo tego, że Nokia doskonale sobie zdawała sprawę, że smartfony są i się rozwijają (de facto była jedną z pierwszych firm, która ten telefon wynalazła). Odwołując się do Twojego pytania odnośnie uczenia maszynowego, to uważam, że jest to bardzo gorący teraz temat jeśli chodzi o branżę. Mam kilka refleksji. Pierwsza jest taka, że 2 lata temu, kiedy zaczynaliśmy Laboratorium Innowacji, jedną z technologii, którą zaczęliśmy się zajmować była sztuczna inteligencja, uczenie maszynowe. Było bardzo dużo hype’u wokół AI. Można powiedzieć, że dwa lata temu cała branża finansowa twierdziła, że sztuczna inteligencja będzie ich lekarstwem na wszystko. Wierzono, że wszystkie problemy biznesowe, które w ciągu ostatnich dziesiątek lat nie zostały rozwiązane, rozwiąże sztuczna inteligencja. Projekty, które branża zaczęła robić, mocno to zweryfikowały. Takim głównym hasłem, które się przewija w kontekście sztucznej inteligencji w branży ubezpieczeń jest według mnie słowo selektywność. Jest wiele projektów, gdzie wykorzystanie uczenia maszynowego przynosi bardzo dobre rezultaty. Istnieją również projekty, które się totalnie nie udają i nie ma wartości dodanej z tej technologii. Uważam, że na bazie tego, jakie projekty robimy i co widzimy, takie General AI &#8211; nie jest jeszcze w tym miejscu na mapie rozwoju i dojrzałości, gdzie powinno być, jeśli chodzi o biznesowe wykorzystanie tej technologii. Natomiast wąskie AI, czyli tzw. Narrow AI &#8211; ta technologia jest już bardzo rozwinięta. Takie zastosowanie AI do rozwiązywania określonych problemów jest już na takim etapie rozwoju, że uzasadnienie biznesowe i liczba use case’ów, jakie może generować ta technologia, jest już bardzo znacząca. Jeśli chodzi o samo podejście do projektów z rodziny sztucznej inteligencji, to w PZU mamy kilka modelowych ścieżek realizacji tego typu przedsięwzięć. Robimy te projekty zarówno sami wewnętrznie, jak również korzystamy z siły ekosystemu start-upów i partnerów zewnętrznych. Jeżeli chodzi o start-upy i partnerów zewnętrznych, to mamy dwie formuły współpracy. Posiadamy projekt data lab, którego celem jest stworzenie ekosystemu do testowania hipotez analitycznych, razem z partnerami zewnętrznymi, którzy świadczą data science z service. Takie projekty mają pierwszą kategorię projektów AI, jakie robimy. Druga kategoria to są projekty, gdzie start-upy posiadają gotowe rozwiązania. My jako PZU jesteśmy ich klientem. Jeżeli mamy jakiś problem, który wymaga zaadresowania, możemy nawiązać współpracę zarówno ze start-upem jak i z naszym partnerem zewnętrznym w ramach data labu. Z reguły odbywa to się tak, że jeżeli widzimy, że start-upy nie posiadają rozwiązań, które są nam potrzebne, bądź rozwiązania są jakościowo niesatysfakcjonujące &#8211; w takich przypadkach nawiązujemy współpracę z jednym z partnerów data labu. Jeżeli jest taka możliwość (bo tutaj jest jeszcze wiele czynników, jeżeli chodzi o jakość i możliwość działania na danych), to z partnerami tworzymy od zera takie rozwiązania. Natomiast niezależnie od samego data labu i start-upów, posiadamy również wewnętrzny zespół, który realizuje projekty z rodziny sztucznej inteligencji. Tutaj należy wymienić przede wszystkim zespół fabryki sztucznej inteligencji, który również tego typu inicjatywy realizuje. Jeśli mnie zapytasz, w jaki sposób wybieramy wehikuł do realizacji danego tematu, to odpowiedź jest bardzo złożona i wielowymiarowa. Tutaj się nakładają zarówno kwestia kompetencji wewnętrznych, jak i posiadania danych i możliwości realizacyjne w danym momencie. Jeśli chodzi o sztuczną inteligencję w PZU, to nie zamykamy sobie ścieżek i projekty realizujemy zarówno wewnętrznie, jak i z najlepszymi start-upami i partnerami data science. W swoim zespole posiadam też jedną osobę zajmującą się data science &#8211; Michała Woźniaka, który jest bardzo dużym talentem. Jest studentem 4 roku studiów Uniwersytetu Warszawskiego. Pomimo młodego wieku, ma już bardzo rozbudowane portfolio projektów data science. Wymień, przynajmniej częściowo, jakie projekty związane z uczeniem maszynowym już udało się zrobić i jakie aktualnie są w toku? Oczywiście pytam o taką informację, którą możesz podzielić się publicznie.&#160; Podstawowe kategorie procesów wewnętrznych, które widzimy, że uczenie maszynowe czy deep learning jest w stanie optymalizować bardzo dobrze &#8211; to po pierwsze: Image Recognition. Są to wszelkiego rodzaju procesy, gdzie ubezpieczyciel ma do czynienia ze zdjęciami, bądź ze skanami obrazów. Tutaj widzimy bardzo duży potencjał do wykorzystania tej technologii. Właściwie jeżeli przeanalizować możliwe zastosowania sztucznej inteligencji, to jestem największym fanem właśnie tej technologii. Uważam, że Image Recognition to jest jeden z tych obszarów AI, gdzie jego zastosowanie w biznesie ma jedną z największych wartości. Skuteczność algorytmów potrafi być co najmniej tak dobra, jak oko ludzkie. A w wielu przypadkach, jeżeli mamy wystarczająco dużą próbkę uczącą zbiór treningowy, to jesteśmy w stanie osiągać nawet lepsze efekty niż w przypadku oka ludzkiego. Więc wszelkiego rodzaju projekty związane ze zdjęciami (czy to w obszarze obsługi szkód i świadczeń, gdzie my jako ubezpieczyciel, każdego dnia otrzymujemy dziesiątki tysięcy różnych zdjęć od naszych klientów, czy to zdjęcia uszkodzonych pojazdów, czy zdjęcia zalanych mieszkań) to te wszystkie obszary, jesteśmy w stanie optymalizować tą technologią. Drugi obszar to tradycyjna analityka. Tylko tutaj trzeba być bardzo ostrożnym. Nie wszędzie uczenie maszynowe jest rekomendowane &#8211; w pełni się z tym zgadzam. Natomiast są pewne elementy analityczne, takie jak chociażby kwestia CRM-u, czyli poprawienie obecnych modeli poprzez najnowsze algorytmy i biblioteki machine-learningowe. Poza tym, mamy też takie obszary jak pricing, czyli w jaki sposób kwotować dane ryzyko w ubezpieczeniach. To jest obszar ubezpieczeń, który od setek lat jest gorącym tematem w ubezpieczeniach. Z natury rzeczy do tego właśnie się sprowadza cała sztuka ubezpieczeniowa, żeby ryzyko umieć właściwie wycenić klientowi i zaproponować mu dobrą ofertę. Takie pozostałe obszary to są m.in. obszary fraud&#8217;ów ubezpieczeniowych, czyli wszelkiego rodzaju rozwiązania, które pomagają nam lepiej wychwytywać ewentualne nieprawidłowości czy oszustwa ubezpieczeniowe (z tym branża też ma na co dzień do czynienia). Pod koniec marca pojawiła się wiadomość &#8211; “Sztuczna inteligencja pomaga przy obsłudze szkód komunikacyjnych w PZU”. Zaciekawiła mnie ta wiadomość, więc zacząłem sprawdzać szczegóły techniczne. Udało się znaleźć informacje, że to był projekt pilotażowy. Trenowano model na 20 tys. szkód komunikacyjnych i prognozowanie odbywa się w czasie rzeczywistym. Korzyści,&#160; przynajmniej te które zostały wymieniony, to czas prognozowanie to 30 sekund i 90% mniej dokumentacji. Rozważałem tutaj, dlaczego akurat 30 sekund. Czy to chodziło o pojedynczy przypadek, czy 10,000 przypadków? Jeżeli sprawa trafia do PZU, to nasze algorytmy sztucznej inteligencji w ciągu 30 sekund są w stanie przeanalizować zdjęcia, które otrzymujemy i zrobić pierwszą weryfikację danej sprawy. Zastosowane rozwiązanie pozwala na 10-krotne usprawnienie procesu weryfikacji dokumentacji technicznej oraz ograniczony czas potrzebny na obsługę zgłoszenia. Brzmi wspaniale. Jaki ma status obecnie ten projekt? Czy to jest już coś więcej niż pilotaż?&#160; Udało się to uruchomić na większą skalę? Właściwie ten projekt nie jest już tylko w fazie pilotażowej. Jest on od kilku miesięcy wdrożony w PZU. Czyli już jesteśmy na takim etapie, że analizę szkód w danym procesie to narzędzie obejmuje. One właśnie trafiają na tę ścieżkę. Sam projekt powstał przy współpracy z jednym z czołowych start-upów w branży AI z Wielkiej Brytanii. Jest on wynikiem pracy zarówno zespołu PZU jak i zewnętrznego partnera. Te 20,000 szkód komunikacyjnych, o których wspomniałeś, tj. tak, że one nawet nie tyle były zbiorem trenującym same algorytmy, co bardziej kalibracyjnym. Czyli nasz partner w Wielkiej Brytanii stworzył rozwiązanie, które potrafi robić rzeczy, o których wspomniałeś w pytaniu. My, w ramach współpracy, dostosowaliśmy to narzędzie do specyfiki polskiego rynku, do tego jakiego typu samochody mamy na polskich drogach itd. Jest ono już teraz produkcyjnie wykorzystywane w PZU. My się bardzo z tego projektu cieszymy, ponieważ ta technologia pomaga wszystkim stronom, które w tym procesie uczestniczą. Po pierwsze wpływa ona na obniżenie czasu oczekiwania klienta. W związku z tym, że maszyna robi pierwszą weryfikację w ciągu 30 sekund (ta dokumentacja już po pierwszym sprawdzeniu i pierwszej opinii, trafia do naszych ekspertów) to sama szkoda jest dużo szybciej obsługiwana, z czego nasi klienci się bardzo cieszą. Z drugiej strony, nasi pracownicy dzięki tej technologii, są w stanie się skupić na tych sprawach, które wymagają ich wiedzy eksperckiej. Na te sprawy poświęcają najwięcej czasu. Natomiast jeżeli mamy do czynienia...</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-w-pzu/">Sztuczna inteligencja i branża ubezpieczeń</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-isIir wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-69-sztuczna-inteligencja-w-pzu" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/3mkCNtsaximemUY6mmQCte" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p><strong>Uczenie maszynowe nieustannie zmienia wiele branż. </strong><strong>Czasem te zmiany są rewolucyjne, czasem bardziej ewolucyjne.</strong><strong> </strong><strong>Jak sprawa wygląda w branży ubezpieczeń? W czym uczenie maszynowe może tam pomóc? Dzisiejszym gościem jest Marcin Kurczab &#8211; szef innowacyjnego laboratorium w PZU, </strong><strong>gdzie powstają projekty tworzone własnymi siłami lub współpracując z partnerami.</strong><strong> </strong><strong>Marcin mówi, że w labie skupiają się na tym, aby więcej robić, mniej mówić&#8230; Posłuchaj całego wywiadu, warto!&nbsp; Zapraszam.</strong></p>



<p><strong>Cześć Marcin! Przedstaw się, proszę. Powiedz, kim jesteś, czym się zajmujesz, gdzie mieszkasz.&nbsp;</strong></p>



<span id="more-1680"></span>



<p>
Cześć Vladimir! <br />Jestem szefem laboratorium innowacji PZU, czyli wewnętrznej komórki, która zajmuje się generowaniem pomysłów na nowe rozwiązania i ich testowaniem wspólnie z jednostkami biznesowymi PZU. Pracuje w PZU od 6 lat. Zaczynałem jako stażysta w 2013 r. Początkowo w biurze strategii i projektów, a od 2 lat mam przyjemność prowadzić laboratorium innowacji. Mieszkam w Warszawie na Bielanach, a pochodzę z południa Polski &#8211; z pięknej miejscowości Limanowa, do której zapraszam wszystkich słuchaczy w wolnej chwili. Pozostały czas poświęcam na moje pasje &#8211; muzykę i sport.

</p>



<p><strong>Dzięki wielkie. Co ostatnio ciekawego przeczytałeś</strong>? </p>



<p>
Mam dwie pozycje, które mi się ostatnio spodobały. Pierwsza &#8211; raport CB Insights na temat bieżących trendów na rynku health-tech i start-upów medycznych. Zawierał bardzo dużo ciekawych rzeczy na temat tego, co dzieje się na zachodzie w tym obszarze i w jakim kierunku rozwija się ta branża. Osobiście obstawiam, że to będzie jeden z bardziej gorących tematów w ciągu najbliższych lat. Publikacja dotyczy tego, jak start-upy technologiczne są w stanie nam pomóc w tym, żeby żyć dłużej i w lepszej kondycji. Ten raport polecam wszystkim.

</p>



<p> Jeśli chodzi o &#8222;grubsze&#8221; lektury, to jedną z ciekawszych książek, jaką ostatnio miałem okazję przeczytać, było &#8222;The Sales Acceleration Formula&#8221;, autorstwa Roberge Mark, który założył kilkanaście lat temu start-up HubSpot w Stanach Zjednoczonych. Autor podzielił się tam bardzo ciekawymi refleksjami na temat tego, w jaki sposób budować zespół i biznes od zera &#8211; w oparciu o dane, technologie, Internet, social media. Były tam poruszane bardzo różne warstwy tego, w jaki sposób można zbudować start-up z sukcesem, który działa w formule &#8222;Software as a Service&#8221;. Poruszał wątki, m.in. w jaki sposób dbać o to, żeby właściwi ludzie byli zatrudnieni w Twoim start-upie, w jaki sposób zapewniać im szkolenia, zarządzać zespołem. No i co najważniejsze, w jaki sposób wyrobić &#8222;growth hacking&#8221;, czyli w jaki sposób tworzyć popyt i zainteresowanie potencjalnych klientów na Twoje produkty. Czytam takie książki m.in. z tego względu, że w PZU w ramach Innovative Lab, jedną z rzeczy, jaką się zajmujemy jest tworzenie nowych modeli biznesowych dla PZU i budowanie biznesów od zera. </p>



<p><strong>PZU wchodzi w piątkę największych firm w Polsce oraz jest największą w branży ubezpieczeń. Sam jestem Waszym klientem. Wprowadzenie innowacji (mam na myśli teraz obszar uczenia maszynowego) w tak dużych firmach może przynieść wiele korzyści, ale często jest tak, że większe firmy mają bardzo dużo wewnętrznych oporów, żeby zacząć działać. Jak to zaczynało się u Was (z góry czy z dołu)? Jak to się stało, że pojawiło się <a href="https://www.pzu.pl/innowacje">Innovative Lab</a> w PZU?</strong></p>



<figure class="wp-block-image"><img decoding="async" width="800" height="565" src="https://biznesmysli.pl/wp-content/uploads/2019/11/0-1.jpg" alt="" class="wp-image-1685" srcset="https://biznesmysli.pl/wp-content/uploads/2019/11/0-1.jpg 800w, https://biznesmysli.pl/wp-content/uploads/2019/11/0-1-300x212.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2019/11/0-1-768x542.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2019/11/0-1-382x270.jpg 382w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<p> Sam obszar innowacji jest bardzo gorącym tematem, nie tylko w branży finansowej, ale również poza nią. PZU trochę ponad 2 lata temu zdecydowało się, że chce w tym celu powołać dedykowaną komórkę (którą właśnie nazwaliśmy Laboratorium Innowacji), której celem będzie szybkie testowanie pomysłów na nowe rozwiązania biznesowe przy udziale najnowszych technologii. Podstawową dewizą, którą kierujemy się w PZU przy robieniu innowacji jest <em>&#8222;Mniej mówić, więcej robić&#8221;</em>. </p>



<p> Chodzi o to, żeby unikać “over-analyzing” tematu. Mam na myśli sytuację,  w której tematy innowacyjne dzieją się na slajdach, w raportach, na  spotkaniach, w dyskusjach, a nie w rzeczywistości. Zależy nam na tym,  żeby tematy, w które wierzymy i które chcemy testować, jak najszybciej  wziąć “na pokład” i je zrealizować. Sztuka polega na tym, żeby  potencjalny pilotaż, walidację pomysłu zrobić w sposób efektywny,  zarówno pod kątem zaangażowania zasobów, jak i pod kątem wykorzystanego  czasu, czy też środków finansowych. Tutaj też mogę się pewnymi  refleksjami podzielić.  <br /></p>



<p> Po co w ogóle PZU inwestuje w innowacje? Inwestujemy, ponieważ wierzymy, że jeżeli będziemy stać w miejscu, to się nie rozwijamy. Jeżeli się nie rozwijamy, to de facto cofamy się. Często na spotkaniach wewnętrznych przywołuję przykład Nokii, gdzie 5 lat temu prezes Nokii na konferencji prasowej (gdzie Nokia była przejmowana przez Microsoft) powiedział, że oni właściwie nie zrobili nic złego, ale z jakiegoś względu przegrali tę rozgrywkę rynkową. To dla mnie książkowy przykład tego, w jaki sposób taka nadmierna  wstrzemięźliwość może niestety przełożyć się na negatywny scenariusz  rynkowy dla firm. Pomimo tego, że Nokia doskonale sobie zdawała sprawę,  że smartfony są i się rozwijają (de facto była jedną z pierwszych firm,  która ten telefon wynalazła).  <br /></p>



<p>
Odwołując się do Twojego pytania odnośnie uczenia maszynowego, to uważam, że jest to bardzo gorący teraz temat jeśli chodzi o branżę. Mam kilka refleksji. Pierwsza jest taka, że 2 lata temu, kiedy zaczynaliśmy Laboratorium Innowacji, jedną z technologii, którą zaczęliśmy się zajmować była sztuczna inteligencja, uczenie maszynowe. Było bardzo dużo hype’u wokół AI.

</p>



<p>
Można powiedzieć, że dwa lata temu cała branża finansowa twierdziła, że sztuczna inteligencja będzie ich lekarstwem na wszystko. Wierzono, że wszystkie problemy biznesowe, które w ciągu ostatnich dziesiątek lat nie zostały rozwiązane, rozwiąże sztuczna inteligencja. Projekty, które branża zaczęła robić, mocno to zweryfikowały. Takim głównym hasłem, które się przewija w kontekście sztucznej inteligencji w branży ubezpieczeń jest według mnie słowo selektywność. 

</p>



<p>
Jest wiele projektów, gdzie wykorzystanie uczenia maszynowego przynosi bardzo dobre rezultaty. Istnieją również projekty, które się totalnie nie udają i nie ma wartości dodanej z tej technologii. Uważam, że na bazie tego, jakie projekty robimy i co widzimy, takie General AI &#8211; nie jest jeszcze w tym miejscu na mapie rozwoju i dojrzałości, gdzie powinno być, jeśli chodzi o biznesowe wykorzystanie tej technologii. Natomiast wąskie AI, czyli tzw. Narrow AI &#8211; ta technologia jest już bardzo rozwinięta. Takie zastosowanie AI do rozwiązywania określonych problemów jest już na takim etapie rozwoju, że uzasadnienie biznesowe i liczba use case’ów, jakie może generować ta technologia, jest już bardzo znacząca.<br /></p>



<p>Jeśli chodzi o samo podejście do projektów z rodziny sztucznej inteligencji, to w PZU mamy kilka modelowych ścieżek realizacji tego typu przedsięwzięć. Robimy te projekty zarówno sami wewnętrznie, jak również korzystamy z siły ekosystemu start-upów i partnerów zewnętrznych. Jeżeli chodzi o start-upy i partnerów zewnętrznych, to mamy dwie formuły współpracy. Posiadamy projekt data lab, którego celem jest stworzenie ekosystemu do testowania hipotez analitycznych, razem z partnerami zewnętrznymi, którzy świadczą data science z service<em>. </em>Takie projekty mają pierwszą kategorię projektów AI, jakie robimy. </p>



<p>Druga kategoria to są projekty, gdzie start-upy posiadają gotowe rozwiązania. My jako PZU jesteśmy ich klientem. Jeżeli mamy jakiś problem, który wymaga zaadresowania, możemy nawiązać współpracę zarówno ze start-upem jak i z naszym partnerem zewnętrznym w ramach data labu<em>. </em>Z reguły odbywa to się tak, że jeżeli widzimy, że start-upy nie posiadają rozwiązań, które są nam potrzebne, bądź rozwiązania są jakościowo niesatysfakcjonujące &#8211; w takich przypadkach nawiązujemy współpracę z jednym z partnerów data labu<em>. </em>Jeżeli jest taka możliwość (bo tutaj jest jeszcze wiele czynników, jeżeli chodzi o jakość i możliwość działania na danych), to z partnerami tworzymy od zera takie rozwiązania. </p>



<p>
Natomiast niezależnie od samego data labu i start-upów, posiadamy również wewnętrzny zespół, który realizuje projekty z rodziny sztucznej inteligencji. Tutaj należy wymienić przede wszystkim zespół fabryki sztucznej inteligencji, który również tego typu inicjatywy realizuje. Jeśli mnie zapytasz, w jaki sposób wybieramy wehikuł do realizacji danego tematu, to odpowiedź jest bardzo złożona i wielowymiarowa. Tutaj się nakładają zarówno kwestia kompetencji wewnętrznych, jak i posiadania danych i możliwości realizacyjne w danym momencie. Jeśli chodzi o sztuczną inteligencję w PZU, to nie zamykamy sobie ścieżek i projekty realizujemy zarówno wewnętrznie, jak i z najlepszymi start-upami i partnerami data science.

</p>



<p>
W swoim zespole posiadam też jedną osobę zajmującą się data science &#8211; Michała Woźniaka, który jest bardzo dużym talentem. Jest studentem 4 roku studiów Uniwersytetu Warszawskiego. Pomimo młodego wieku, ma już bardzo rozbudowane portfolio projektów data science.

</p>



<p><strong>Wymień, przynajmniej częściowo, jakie projekty związane z uczeniem maszynowym już udało się zrobić i jakie aktualnie są w toku? Oczywiście pytam o taką informację, którą możesz podzielić się publicznie.&nbsp;</strong></p>



<p>Podstawowe kategorie procesów wewnętrznych, które widzimy, że uczenie maszynowe czy deep learning jest w stanie optymalizować bardzo dobrze &#8211; to po pierwsze: Image Recognition. Są to wszelkiego rodzaju procesy, gdzie ubezpieczyciel ma do czynienia ze zdjęciami, bądź ze skanami obrazów. Tutaj widzimy bardzo duży potencjał do wykorzystania tej technologii. Właściwie jeżeli przeanalizować możliwe zastosowania sztucznej inteligencji, to jestem największym fanem właśnie tej technologii. Uważam, że Image Recognition to jest jeden z tych obszarów AI, gdzie jego zastosowanie w biznesie ma jedną z największych wartości.   </p>



<figure class="wp-block-embed-youtube wp-block-embed is-type-video is-provider-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="How computers learn to recognize objects instantly | Joseph Redmon" width="960" height="540" src="https://www.youtube.com/embed/Cgxsv1riJhI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p> Skuteczność algorytmów potrafi być co najmniej tak dobra, jak oko ludzkie. A w wielu przypadkach, jeżeli mamy wystarczająco dużą próbkę uczącą zbiór treningowy, to jesteśmy w stanie osiągać nawet lepsze efekty niż w przypadku oka ludzkiego. Więc wszelkiego rodzaju projekty związane ze zdjęciami (czy to w obszarze obsługi szkód i świadczeń, gdzie my jako ubezpieczyciel, każdego dnia otrzymujemy dziesiątki tysięcy różnych zdjęć od naszych klientów, czy to zdjęcia uszkodzonych pojazdów, czy zdjęcia zalanych mieszkań) to te wszystkie obszary, jesteśmy w stanie optymalizować tą technologią. <br /></p>



<p>Drugi obszar to tradycyjna analityka. Tylko tutaj trzeba być bardzo ostrożnym. Nie wszędzie uczenie maszynowe jest rekomendowane &#8211; w pełni się z tym zgadzam. Natomiast są pewne elementy analityczne, takie jak chociażby kwestia CRM-u, czyli poprawienie obecnych modeli poprzez najnowsze algorytmy i biblioteki machine-learningowe. Poza tym, mamy też takie obszary jak pricing, czyli w jaki sposób kwotować dane ryzyko w ubezpieczeniach. To jest obszar ubezpieczeń, który od setek lat jest gorącym tematem w ubezpieczeniach. </p>



<p> Z natury rzeczy do tego właśnie się sprowadza cała sztuka ubezpieczeniowa, żeby ryzyko umieć właściwie wycenić klientowi i zaproponować mu dobrą ofertę. Takie pozostałe obszary to są m.in. obszary fraud&#8217;ów ubezpieczeniowych, czyli wszelkiego rodzaju rozwiązania, które pomagają nam lepiej wychwytywać ewentualne nieprawidłowości czy oszustwa ubezpieczeniowe (z tym branża też ma na co dzień do czynienia). <br /></p>



<p><strong>Pod koniec marca pojawiła się wiadomość &#8211; “Sztuczna inteligencja pomaga przy obsłudze szkód komunikacyjnych w PZU”. Zaciekawiła mnie ta wiadomość, więc zacząłem sprawdzać szczegóły techniczne. Udało się znaleźć informacje, że to był projekt pilotażowy. Trenowano model na 20 tys. szkód komunikacyjnych i prognozowanie odbywa się w czasie rzeczywistym. Korzyści,&nbsp; przynajmniej te które zostały wymieniony, to czas prognozowanie to 30 sekund i 90% mniej dokumentacji. </strong><strong>Rozważałem tutaj, dlaczego akurat 30 sekund. Czy to chodziło o pojedynczy przypadek, czy 10,000 przypadków?</strong></p>



<p>
Jeżeli sprawa trafia do PZU, to nasze algorytmy sztucznej inteligencji w ciągu 30 sekund są w stanie przeanalizować zdjęcia, które otrzymujemy i zrobić pierwszą weryfikację danej sprawy.

</p>



<p><strong>Zastosowane rozwiązanie pozwala na 10-krotne usprawnienie procesu weryfikacji dokumentacji technicznej oraz ograniczony czas potrzebny na obsługę zgłoszenia. Brzmi wspaniale. Jaki ma status obecnie ten projekt? Czy to jest już coś więcej niż pilotaż?&nbsp; Udało się to uruchomić na większą skalę?</strong></p>



<p>Właściwie ten projekt nie jest już tylko w fazie pilotażowej. Jest on od kilku miesięcy wdrożony w PZU. Czyli już jesteśmy na takim etapie, że analizę szkód w danym procesie to narzędzie obejmuje. One właśnie trafiają na tę ścieżkę. Sam projekt powstał przy współpracy z jednym z czołowych start-upów w branży AI z Wielkiej Brytanii. Jest on wynikiem pracy zarówno zespołu PZU jak i zewnętrznego partnera. Te 20,000 szkód komunikacyjnych, o których wspomniałeś, tj. tak, że one nawet nie tyle były zbiorem trenującym same algorytmy, co bardziej kalibracyjnym. Czyli nasz partner w Wielkiej Brytanii stworzył rozwiązanie, które potrafi robić rzeczy, o których wspomniałeś w pytaniu. </p>



<p>My, w ramach współpracy, dostosowaliśmy to narzędzie do specyfiki polskiego rynku, do tego jakiego typu samochody mamy na polskich drogach itd. Jest ono już teraz produkcyjnie wykorzystywane w PZU. My się bardzo z tego projektu cieszymy, ponieważ ta technologia pomaga wszystkim stronom, które w tym procesie uczestniczą. Po pierwsze wpływa ona na obniżenie czasu oczekiwania klienta.  </p>



<p> W związku z tym, że maszyna robi pierwszą weryfikację w ciągu 30 sekund (ta dokumentacja już po pierwszym sprawdzeniu i pierwszej opinii, trafia do naszych ekspertów) to sama szkoda jest dużo szybciej obsługiwana, z czego nasi klienci się bardzo cieszą. Z drugiej strony, nasi pracownicy dzięki tej technologii, są w stanie się skupić na tych sprawach, które wymagają ich wiedzy eksperckiej. Na te sprawy poświęcają najwięcej czasu. Natomiast jeżeli mamy do czynienia ze szkodami powtarzalnymi, prostymi &#8211; to tutaj większość czynności jest zautomatyzowana. Te wszystkie elementy przekładają się na to, że mamy bardzo pokaźne oszczędności na całym procesie. Jeżeli chodzi o wymiar finansowy, to jesteśmy z tego projektu bardzo zadowoleni.&nbsp; &nbsp;<br /></p>



<p><strong>Stosowaliście tzw. transfer wiedzy (ang. <em>transfer learning</em>).&nbsp;</strong></p>



<p><strong>Rozmawialiśmy trochę przed nagraniem o <em>no show</em>, czyli tzw. przypadku &#8222;odwołania w ostatnim momencie&#8221;. Powiedz trochę więcej o tym problemie, który jako firma PZU macie. Jak próbujecie go rozwiązać albo właściwie już rozwiązaliście?</strong></p>



<p>PZU poza tym, że działa w obszarze ubezpieczeń majątkowych i w obszarze ubezpieczeń życiowych, to jest również jednym z liderów prywatnej opieki medycznej. Mamy dedykowaną firmę PZU Zdrowie, która świadczy usługi opieki medycznej. Już dzisiaj posiadamy ponad 2 mln klientów, którzy korzystają z naszych usług. W związku z tym, że 2 mln klientów oznacza bardzo dużo racji i bardzo dużo wizyt w ciągu roku &#8211; potrzebowaliśmy narzędzia, które będzie w stanie kontrolować procesy rozliczeń, pomiędzy płatnikiem czyli PZU, a wykonawcami usług medycznych (placówkami medycznymi). </p>



<p>Działamy w takim modelu, że mamy zarówno własne placówki medyczne, jak i korzystamy z placówek zewnętrznych. To, co zrobiliśmy w trakcie projektu (to był akurat projekt, który realizowaliśmy w formule Data Lab-u, czyli z jednym z partnerów, który działa w formule data science service), to zadaliśmy sobie pytania, jakie mogą być potencjalne przypadki nadużyć na linii PZU &#8211; placówka medyczna. Zespół data science wypracował 20-25 różnych hipotez analitycznych, które następnie walidowaliśmy na danych PZU. </p>



<p>Około 12-13 z nich zostało pozytywnie zwalidowanych, czyli potwierdziły się nasze wnioski odnośnie tego, gdzie przykładowo placówki medyczne mogą popełniać błędy. To też nie jest tak, że to jest działanie ze złą intencją, ale są też błędy ludzkie. Po opracowaniu tych hipotez, opracowaliśmy algorytmy, które pomogły tam w sposób real time-owy albo quasi real time-owy, wychwytywać podejrzane przypadki i przekazywać do zespołu ekspertów, który będzie wyjaśniał z placówkami medycznymi.&nbsp; </p>



<p>Temat, o którym wspomniałeś, to jest właśnie jedno z zagadnień, które w ramach projektu wyszło, czyli temat <em>no show, </em>polegający na tym, że część klientów korzystających z naszych usług medycznych odwołuje swoją wizytę w ostatnim możliwym momencie. Ta informacja nie zawsze trafiała do PZU. Placówka medyczna mogła nam wystawić rachunek za klienta, który de facto do niej nie trafiał. Tutaj usprawnienia miały charakter dwuwarstwowy. </p>



<p>Po pierwsze były to usprawnienia procesowe, polegające na tym, że np. wybranych klientów, którzy mieli odbyć wizytę, pytaliśmy sms-em, czy rzeczywiście ta wizyta miała miejsce. Mogli potwierdzić albo nie. Należytą placówką też pytaliśmy o to. Jak i również analityczny, czyli działając na całej populacji naszych pacjentów placówek medycznych, jesteśmy też w stanie zawężać krąg poszukiwań do tych jednostek, które potencjalnie cechują się wyższym ryzykiem błędnego raportowania <em>no-show</em>. Tutaj też te działania przyniosły bardzo pozytywne efekty dla wszystkich stron.&nbsp; </p>



<p><strong>Kolejny przypadek, którego chciałbym dotknąć, to wykrywanie oszustw, choć pewnie niewiele możesz o tym powiedzieć&#8230; W lipcu pojawił się artykuł, gdzie prezes PZU Życie &#8211; Roman Pałac &#8211; właśnie mówił o korzyściach płynących z wykorzystania uczenia maszynowego i w tym przypadku chodziło o tak zwany “fraud detection” lub mówiąc po prostu &#8211; wyłudzanie pieniędzy. Powiedz proszę, na ile udało się to wdrożyć? Wiem, że temat trochę delikatny i nie można zbytnio o tym mówić, bo też można to wykorzystać przeciwko wam, ale przynajmniej nakreśl zarys, gdzie jesteście, jak na to patrzycie i jakie korzyści z tego czerpiecie?</strong><br /></p>



<p>
Szacuje się, że nawet od 4% do 5% wypłat w branży ubezpieczeniowej, to mogą być wszelkiego rodzaju wyłudzenia. Mając na uwadze to, że PZU co roku wypłaca kilka miliardów zł odszkodowań, to możecie sobie Państwo wyobrazić, z jakiego typu zjawiskiem mamy tutaj do czynienia. Jeżeli chodzi o szczegóły tego projektu to tak jak wspomniałeś, niestety ja nie mogę tutaj zbyt wiele zdradzić. Natomiast mogę powiedzieć to, że projekt był realizowany przez dedykowany zespół FMS.

</p>



<p>Posiadamy jeden z najbardziej zaawansowanych (w tej części Europy) systemów do wychwytywania wyłudzeń. On bazuje de facto na wielu warstwach. Tutaj mamy do czynienia zarówno z mapą powiązań, siecią kontaktów, jak i różnego rodzaju narzędziami (również z rodziny Image Recognition itp.).&nbsp; </p>



<p><strong>Dobrze. To przejdźmy do kolejnego przypadku. Powiedz trochę więcej na temat &#8222;Asystenta PZU&#8221;. Jak to działa, jakie problemy rozwiązuje, na jaką skalę i z jaką jakością?</strong></p>



<p>Asystent PZU to jest jeden z projektów, który mieliśmy przyjemność zrealizować w 2019 r. z jednym ze start-upów w Polsce. Opracowaliśmy rozwiązanie na Asystenta Google, które de facto jest interfejsem głosowym do komunikowania się z PZU. Przypadek użycia, który wdrożyliśmy na Asystencie Google polega na tym, że można porozmawiać z PZU o podróży turystycznej, jaką się planuje. Asystent PZU po zadaniu kilku pytań, jest w stanie przedstawić koszt ubezpieczenia turystycznego. </p>



<p>Proces, który standardowo w takim klasycznym przykładzie w branży ubezpieczeniowej, zajmuje z reguły kilka minut, żeby dostać cenę ubezpieczenia &#8211; my byliśmy w stanie na Asystencie Google, zrobić w taki sposób, że klient może w ciągu 30-40 sekund otrzymać propozycję ubezpieczenia. Jeśli chodzi o skalę i jakość tego rozwiązania (to wracając do tego co powiedziałem na początku naszej rozmowy o tym, że nie wszędzie AI jest gotowe, żeby w biznesie odgrywać dużą rolę) ja na to patrzę tak, że w tego typu rozwiązaniach jak Asystent PZU, gdzie jest dana mapa rozmowy na temat ubezpieczenia turystycznego &#8211; AI sprawuje się właściwie i radzi sobie dobrze. </p>



<p>Natomiast w mojej ocenie silniki Googla i innych firm, które się zajmują tego typu rozwiązaniami, nie są jeszcze dzisiaj na tyle dobre, żeby klient, który dzwoni na contact center, mógł otrzymać rozmowę telefoniczną jakościowo tak dobrą jaką wymagałby od człowieka. Oczywiście można implementować i testować proste przypadki, typu umówienie wizyty. Natomiast na bardziej złożone przykłady, myślę że przyjdzie nam trochę poczekać, aż technologia będzie we właściwym miejscu. </p>



<p><strong>Zmienię teraz trochę temat. Rynek, świat w którym żyjemy &#8211; szybko się zmienia.&nbsp; Branże, które przez wiele lat wyglądały podobnie (jedynie delikatnie doskonaliły się), teraz zaczynają działać inaczej. Na przykład Uber, mimo tego, że jest w dużym minusie i ciężko to nazwać standardowym start-upem, zmienia sposób myślenia ludzi. Najpierw to była taksówka, potem dostarczanie jedzenia czy paczek, dalej już to dotknęło pracowników. Obserwując te zmiany, coraz lepiej rozumiesz, że świat zmienia się szybciej niż myślisz. Czy są w planach podobne (rewolucyjne) zmiany w ramach PZU i kiedy mogą się pojawić?</strong></p>



<p>Bardzo dobre pytanie, które pojawia się często na różnego rodzaju dyskusjach i konferencjach. Tutaj generalnie jest tak, że w branży ubezpieczeniowej mamy do czynienia z ewolucją, a nie rewolucją. Zmiany mają miejsce. Jednym z takich głównych trendów, który się teraz w ubezpieczeniach dzieje jest to, że ubezpieczyciele (w tym PZU), nie chcą być z klientem tylko wtedy, kiedy przytrafi się mu coś złego, zdarzy mu się wypadek, spłonie dom lub dotkną go inne trudne historie. My chcemy być z naszym klientem też w momentach wcześniejszych, żeby pomóc mu uniknąć tych niebezpieczeństw. Bardzo wiele teraz robimy w PZU w zakresie prewencji i proaktywnego podejścia do ryzyka.  </p>



<p>Bardzo wiele projektów, zarówno w obszarze ubezpieczeń majątkowych, życiowych, korporacyjnych, jak i zdrowotnych, mamy właśnie, aby pomóc naszym klientom unikać nieprzyjemnych sytuacji. Jednym z naszych core’owych&nbsp; projektów, który w tym roku miał już wdrożenie, tj. projekt PZU GO. Polega on na tym, że nasi klienci posiadający ubezpieczenie komunikacyjne w PZU, mogą nabyć u nas beacona, który następnie jest parowany z aplikacją w telefonie. Beacon posiada algorytmy crash detection, które w razie wystąpienia wypadku lub stłuczki komunikacyjnej &#8211; automatycznie informują PZU o tym, że miało miejsce takie zdarzenie. Dzięki temu jesteśmy w stanie lepiej pomagać naszym klientom w sytuacjach takich jak np. to, że klient ma poważny wypadek komunikacyjny i traci świadomość. My widzimy to, że taki wypadek był i jeżeli klient nie odbiera od nas telefonu, to my automatycznie wysyłamy karetkę na miejsce wypadku, czyli pomagamy klientom w tych ciężkich chwilach. </p>



<p>
Jednym z projektów, który w zeszłym roku realizowaliśmy w zakresie proaktywnego podejścia do klientów, tj. projekt re-obsługa, który polega na tym, że PZU monitoruje media telewizyjne, Internet. Tam co jakiś czas pojawia się informacja, że w danym mieście, na danej ulicy był wypadek, coś się złego stało (np. zapalił się jakiś budynek, bądź był wybuch gazu). Mamy taki specjalny zespół, który jeżeli pojawi się tego typu informacja w mediach, to sprawdza czy w tym zdarzeniu mógł brać udział nasz klient.

</p>



<p>
Sprawdzają, czy np. to mieszkanie, o którym jest mowa w tym artykule, mogło być mieszkaniem naszego klienta. Jeżeli jest wysokie prawdopodobieństwo, że nasz klient ucierpiał w tym wydarzeniu, to PZU automatycznie kontaktuje się z tą osobą, w celu udzielenia jej pomocy. Jest często tak, że osoby które mają wypadki są w szoku i nie są w stanie racjonalnie działać na samym początku tych zdarzeń. Więc uważamy, że taka pomoc jest jak najbardziej adekwatna i pokazuje ludzki wymiar ubezpieczeń. My chcemy ludziom pomagać, bo oni nam ufają. To jest nasza misja, żeby pomagać im w tych trudnych momentach.&nbsp;

</p>



<p>Wracając do pytania o “ubery” tego świata w branży ubezpieczeniowej. Jest tak, że na ten moment, nie ma “ubera” w ubezpieczeniach. Nie ma żadnego start-upu, który by z dnia na dzień totalnie zmienił rynek. Jeden z takich większych sukcesów, o których się mówi, to jest amerykański start-up Lemonade. Natomiast, kiedy przeanalizujemy sobie wyniki, które ten start-up osiągnął na przestrzeni ostatnich 3 lat, to zgromadzili oni składkę około 100,000,000 $. Jeżeli porównamy to do skali biznesu PZU czy innych ubezpieczycieli, to to jest bardzo niewielki procent biznesu. To jest jedno z większych success story. Dzisiaj w branży ubezpieczeniowej nie ma takiego challengera, który by totalnie wywrócił rynek do góry nogami. To nie oznacza, że on się nie pojawi, bo myślę, że taka przestrzeń może się w przyszłości nadarzyć. </p>



<p>Natomiast to co ja obserwuję, to de facto widzę odwrotną tendencję. Jeszcze 2-3 lata temu celem większości start-upów, które działały w obszarze insure tech, było to, żeby zastąpić tradycyjnych ubezpieczycieli. Nosili oni na swoich sztandarach <em>Kill the insurers. </em>To co się z większością tych start-upów stało, to zamknięcie biznesu. Jest jeszcze część start-upów, które funkcjonują i próbują prowadzić swój biznes. Natomiast jest bardzo dużo start-upów, które nie przetrwały próby czasu i ich biznes został zamknięty. Teraz jest na czasie w branży ubezpieczeniowej&nbsp; powstawanie start-upów, które pomagają prowadzić biznes ubezpieczyciela w lepszy sposób. Większość start-upów zmieniła swoją strategię i niekoniecznie chce już być alternatywą dla ubezpieczyciela, tylko chcą pomagać w bardziej efektywny sposób prowadzić swój biznes.  </p>



<p> Osobiście się z tego bardzo cieszę, ponieważ PZU jako jeden z największych zakładów ubezpieczeniowych w tej części Europy ma okazję współpracować z wieloma, fantastycznymi start-upami. One też potrafią nam bardzo dużo wartości wygenerować w naszym biznesie. Tu jest taka sytuacja, że wygrywamy zarówno my, jak i start-up, który ma dużego klienta u siebie w portfolio. <br /></p>



<p><strong>Zapytam jeszcze o proaktywne działanie, bo bardzo rezonuje ze mną takie prospołeczne wdrażanie. O ile dobrze rozumiem, to udało się wdrożyć i już faktycznie pomaga. Macie takie konkretne przypadki?</strong><br /></p>



<p>Na ten moment pomogliśmy w sposób proaktywny, gdy zauważyliśmy w naszym monitoringu mediów, że nasz klient ma problem &#8211; już blisko 500 razy w ciągu prawie 2 lat. Ten projekt został doceniony przez wiele organizacji i sporo nagród za niego dostaliśmy, m.in. nagrodę Złotej Słuchawki za największą innowację roku w obszarze contact center.  </p>



<p><strong>Super! Jak słyszę o takich zastosowaniach to bardzo się cieszę. Od razu czuć wartość uczenia maszynowego albo działań innowacyjnych, które przynoszą korzyść zwykłym ludziom. </strong></p>



<p> <strong>Już od 2 lat kierujesz innowacyjnym Labem. Jaką największą lekcję dotychczas miałeś okazję odrobić? Jakie wnioski z tego wyciągnąłeś? </strong><br /></p>



<p>Jedna z takich ciekawszych lekcji, jaką na przestrzeni 2 lat wyciągnęliśmy w Laboratorium Innowacji, to jest kwestia konwersji. Chodzi o to, że my w Laboratorium Innowacji rocznie realizujemy od 10 do 15 projektów pilotażowych rocznie. To co jest ciekawe to to, że aby zrobić te 10-15 projektów, co roku analizujemy ponad 2,000 różnego rodzaju pomysłów, koncepcji, start-upów, technologii itp. To jest coś co mnie zaskoczyło, natomiast tak wygląda rzeczywistość. Selektywność na początkowym etapie doboru projektów do tworzenia portfolio projektowego jest jednym z kluczowych elementów dobrego prowadzenia Innovative Labu. </p>



<p> Jak wspominałem, jedną z podstawowych zasad jest <em>Mniej mówić, więcej robić. </em>To wygląda tak, że mamy team, który jest na bieżąco z różnego rodzaju trendami, start-upami, wydarzeniami, technologiami. Bardzo dużo rzeczy analizuje, weryfikuje. Zawsze tam, gdzie widzimy, że jest dla nas albo dla naszych klientów okazja na poprawę bieżących procesów przy wykorzystaniu technologii, to decydujemy się dany projekt jak najszybciej zwalidować. Natomiast to nie jest też tak, że <em>Mniej mówić, więcej robić</em> oznacza, że w ślepo realizujemy każdy z projektów, który widzimy na konferencji. Wręcz przeciwnie, mamy bardzo mocno rozwinięty dział analityczny, który robi pierwsze filtrowanie różnego rodzaju projektów i start-upów.&nbsp; <br /></p>



<p> <strong>Jeszcze na koniec kilka krótkich pytań. Jestem bardzo ciekaw, co na nie odpowiesz. Często występujesz w roli prelegenta. Jakie najczęściej pytanie dostajesz na tych konferencjach? Jak na nie odpowiadasz? </strong></p>



<p>Generalnie jest tak, że te pytania są z reguły natury “uberowej”, czyli to, o co pytałeś odnośnie potencjalnych start-upów, które mogą wywrócić całą branżę do góry nogami. Jest też dużo pytań odnośnie takiego praktycznego zastosowania nowych technologii w ubezpieczeniach. Tutaj z wielkim uśmiechem na twarzy mogę opowiadać o naszych projektach, ponieważ uważam, że mamy bardzo fajne przypadki i wiele dobrego udało się zrobić w ostatnich latach. </p>



<p>To co jeszcze cechuje konferencje różnego rodzaju i czym chciałbym się podzielić to to, że czasami tematy za bardzo odbiegają od rzeczywistego wykorzystania nowych technologii w biznesie. Moje podejście do konferencji jest takie, że ja je lubię i chętnie raz na jakiś czas się na nich pojawiam. Natomiast uważam, że najlepszy sposób na robienie innowacji to nie jest chodzenie po konferencjach, tylko twarda, trudna i ciężka praca z zespołem i z osobami, które tworzą firmę. </p>



<p><strong>Co Cię najbardziej martwi, jak myślisz o przyszłości w kontekście uczenia maszynowego, tzw. sztucznej inteligencji?</strong></p>



<p>Przy wszelkiego rodzaju nowych technologiach, w tym przy uczeniu maszynowym, pojawiają się dwie skrajne emocje, według mnie tak działa ludzki mózg. Z jednej strony czujemy zachwyt tym, co może zostać wytworzone przez tego typu rozwiązania. Z drugiej strony czujemy strach. Osobiście uważam, że bardzo wiele tych argumentów, które są podnoszone wokół uczenia maszynowego i które bazują na strachu, na dzień dzisiejszy są raczej troszkę przesadzone. </p>



<p> Nie oznacza to, że kiedyś  to się nie zmieni. Być może ta technologia rzeczywiście zrobi jeszcze jeden krok na przód i General AI na tyle się rozwinie, że będziemy mieli do czynienia z tego typu problemami. Natomiast na tym etapie na jakim jesteśmy dzisiaj, to jest to w dużej mierze nie zasadne, żeby twierdzić, że ta technologia przejmie nad nami kontrolę. Na dzień dzisiejszy, w takim zakresie technologii, który my wykorzystujemy w PZU, nie widzę wielu takich wyzwań. </p>



<p><strong>Masz bardzo dobry zmysł i talent do liczb (jednym z dowodów jest to, że ukończyłeś Uniwersytet Ekonomiczny w Krakowie&nbsp; z oceną 5.0). Mógłbyś robić różne rzeczy (np. pójść bardziej w kierunku ekonomicznym),  wyjechać też za granicę, ale jednak jesteś w Polsce i zajmujesz się tematami związanymi z uczeniem maszynowym. Czy to splot wydarzeń zadecydował, czy jednak świadoma strategia działania? Podziel się swoimi przemyśleniami..</strong></p>



<p>Nie uważam za jakąś szczególnie wybitną jednostkę, ale dzięki że tak mówisz.&nbsp; Generalnie, jest tak, że obszar uczenia maszynowego to jest jeden z obszarów, którym się obecnie zajmuje. Natomiast zakres projektów i zadań, które realizujemy w ramach laboratorium innowacji jest dużo szerszy. Jeśli chodzi o uczenie maszynowe, to zajmujemy się nim przede wszystkim z tego względu, że to jest obszar, który był do tej pory nie zagospodarowany w naszej firmie &#8211; to jest pierwszy punkt.  </p>



<p>Drugi punkt jest taki, że jest właśnie bardzo dużo use case’ów, gdzie to uczenie maszynowe może przynieść wartość biznesową. W związku z tym, że my jesteśmy laboratorium innowacji, czyli Ci którzy testują nowe rozwiązania, to właśnie nas to bardzo mocno zainteresowało. Ja ogólnie jestem osobą, która lubi liczby. Decyzje wolę podejmować na podstawie faktów niż opinii. Więc tutaj naturalnie też mnie ta działka interesuje pod kątem zawodowym jak i prywatnym. </p>



<p>
Jak to się stało, że trafiłem do ubezpieczyciela i tego typu tematami mam się okazję zajmować? To splot wielu okoliczności. Przede wszystkim mam bardzo duże szczęście do trafiania na dobrych ludzi w swoim codziennym życiu. Jak przychodziłem 6 lat temu do PZU miałem przyjemność pracować u boku takich osób jak Krzysztof Bachta, Alicja Jasińska, którzy mi bardzo wiele pomogli na początkowym etapie mojej pracy.

</p>



<p>
Obecnie moim szefem jest Szymon Mitoraj, który jest jednym z wybitnych ekspertów w zakresie technologii digital. Dostajemy od niego wielkie wsparcie jako zespół. Co do zasady, to podstawowym czynnikiem, który nam pozwala dobrze działać w zakresie innowacji, uczenia maszynowego jest to, że ja też mam bardzo fajny zespół u siebie zbudowany. Bardzo nam zależy na tym, żeby te rzeczy się działy i żeby nowe technologie, innowacje były wdrażane w PZU.

</p>



<p><strong>Marcin, bardzo dziękuję Ci za to, że udało się znaleźć czas, podzielić się swoim doświadczeniem i rozważaniami na różne tematy. Życzę, aby wasze projekty były jeszcze bardziej zaawansowane i pomocne dla ludzi.</strong></p>



<p>Dziękuję Ci bardzo za rozmowę i pozdrawiam wszystkich słuchaczy.</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-w-pzu/">Sztuczna inteligencja i branża ubezpieczeń</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/sztuczna-inteligencja-w-pzu/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
