<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>chatbot &#8211; Biznes Myśli</title>
	<atom:link href="https://biznesmysli.pl/tag/chatbot/feed/" rel="self" type="application/rss+xml" />
	<link>https://biznesmysli.pl/tag/chatbot/</link>
	<description>by Vladimir, sztuczna inteligencja w biznesie</description>
	<lastBuildDate>Sun, 21 Jun 2020 11:20:04 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://biznesmysli.pl/wp-content/uploads/2017/03/cropped-bm-sq-1-32x32.jpg</url>
	<title>chatbot &#8211; Biznes Myśli</title>
	<link>https://biznesmysli.pl/tag/chatbot/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Przetwarzanie języka naturalnego w biznesie</title>
		<link>https://biznesmysli.pl/bm64-przetwarzanie-jezyka-naturalnego-w-biznesie/</link>
					<comments>https://biznesmysli.pl/bm64-przetwarzanie-jezyka-naturalnego-w-biznesie/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 02 Sep 2019 03:00:23 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[5dwchallenge]]></category>
		<category><![CDATA[Aditya Guglani]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[dataworkshop]]></category>
		<category><![CDATA[dwcc]]></category>
		<category><![CDATA[Mikhail Burtsev]]></category>
		<category><![CDATA[natural language processing]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Tomas Mikolov]]></category>
		<category><![CDATA[Valentin Malykh]]></category>
		<category><![CDATA[word2vec]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=1635</guid>

					<description><![CDATA[<p>W 47 odcinku po raz pierwszy poruszyłem temat przetwarzania języka naturalnego. Dzisiaj wrócę do tej kwestii i wyjaśnię, do czego nam to jest potrzebne. Jakie problemy można rozwiązywać i czy te rozwiązania wnoszą wartość dodaną? Dodatkowo omówię podstawowe algorytmy, które są łatwiejsze niż mogą się wydawać. Na początku mam dla Ciebie dwa ogłoszenia. Po pierwsze, 27-28 września odbędzie się międzynarodowa konferencja w Warszawie DWCC 2019. Będzie dużo praktyki, eksperci światowej klasy z różnych zakątków, z takich firm jak DeepMind, Facebook, Uber, Stanford, Huawei, Alpha itd. Stawiamy duży nacisk na networking, wsparcie merytorycznych dyskusji (dobór właściwych osób we właściwym czasie) i połączenie ze sztuką. Będzie tak zwana AMA, czyli Ask Me Anything. To jest specjalna formuła, kiedy po prezentacji nie ma pytań, wówczas prelegent będzie w wyznaczonym miejscu dostępny do prywatnych rozmów i wymiany zdań. Będzie to w formie bardziej przyjacielskiej rozmowy z mniejszą ilością stresu, bo tam będzie po prostu mniej ludzi. Organizowana jest także wyjątkowa strefa sztuki. Zapraszam i do zobaczenia. Druga wiadomość. Dziasiaj (2 września), rusza bezpłatne online wyzwanie od DataWorkshop “Też potrafisz”. Wyzwanie potrwa 5 dni, i każdego dnia o 5 rano udostępniane będzie nowe zadanie do wykonania, które może zająć czasem nie więcej jak 10 minut (w zależności od umiejętności i złożoności problemu). To wyzwanie będzie dotyczyło obszaru NLP, więc jeśli chcesz spróbować tego, o czym dzisiaj piszę, to koniecznie dołącz. To jest w 100% bezpłatne, a do tego przyjemna zabawa. Czego się spodziewać się? Poznasz podstawy przetwarzania języka naturalnego (NLP). Przerobisz koncepcję Word Embeddings (Word2Vec &#38; Doc2Vec). Samodzielnie wytrenujesz model i może znajdziesz ofertę pracy swoich marzeń. Poznasz techniki modelowania tematycznego (topic modeling). Nauczysz się wizualizować wielowymiarowe dane. Poznasz bibliotekę gensim i inne. Uwaga, dołączyć się można tylko 2 września. Jeśli nie udało Ci się zdążyć, to zapisz się na newsletter, dzięki czemu będziesz otrzymywać informacje o nowych wyzwaniach i innych ciekawych rzeczach bezpośrednio na swoją skrzynkę. Natural language processing W języku angielskim przetwarzanie języka naturalnego nazywa się natural language processing lub używa się skrótu NLP. W języku polskim skrót NLP też dość często się pojawia. Warto odróżnić, że pod akronimem NLP czasem kryje się programowanie neurolingwistyczne, ale jest to coś innego.&#160; Mała dygresja. Jakiś czas temu był rozkwit w computer vision, począwszy od 2012 roku i przez kilka kolejnych lat wiele się działo. Teraz z widzeniem komputerowym nadal są przeprowadzane prace badawcze, ale jak na razie nie widać żadnych rewolucji, to po prostu już działa całkiem dobrze (w różnych testach, lepiej niż wizualna percepcja człowieka).&#160; Dlaczego o tym mówię? Bo mam teraz déjà vu, kiedy widzę podobną dynamikę, tylko że&#160; rewolucja tym razem dotarła do obszaru NLP. W roku 2019 wiele się dzieje. Pojawiają się kolejne ciekawsze podejścia i już ciężko być na bieżąco. Obserwując to, co dzieje się, można powiedzieć, że jest rozkwit NLP. Swoją drogą, właśnie z tego powodu na konferencji DWCC, o której wspomniałem, NLP będzie jednym z popularnych tematów &#8211; aż 4 z 15 prezentacji będą poświęcone tej tematyce. Kolejna ważna rzecz, na którą zwrócę uwagę. Gdy mówimy o przetwarzaniu języka naturalnego, to przede wszystkim kojarzy się z tekstem. To ma sens. Natomiast ciekawostka jest taka, że algorytmy, które były wymyślone dla NLP da się stosować w nieco innych kontekstach. Osobiście teraz używam ten algorytm w jednym z projektów, który wdrażamy na produkcję. Udało się stosunkowo małym nakładem pracy osiągnąć dobry wynik. O tym projekcie postaram się powiedzieć jeszcze więcej (jak uzyskam zgodę na to, to nagram na to osobny odcinek).&#160;&#160; Jako ciekawostkę warto dodać, że to działa też w drugą stronę. Dla przykładu, sieci konwolucyjne były wymyślone w obszarze widzenia komputerowego (computer vision). Okazuje się, że też da się je zastosować w kontekście NLP (mimo tego, że tekst to nie obrazki). Natomiast ma to wiele wspólnego. Dla uproszczenia: słowa, które są obok siebie, są podobnie powiązane jak piksele na zdjęciu. Są pewne relacje pomiędzy nimi. W uczeniu maszynowym na wejściu mamy dane, a na wyjściu to, co chcemy uzyskać to klasyfikacja (np. odpowiadamy na pytanie tak lub nie) lub regresja (wtedy prognozujemy wartość). Danymi w NLP jest tekst, czyli słowa poukładane w zdanie. Ludzie z branży NLP zwykle to nazywają korpusem. Jakie problemy można rozwiązywać dzięki NLP? Podobnie jak w ML, na wejściu mamy korpus i na wyjście dość często robimy albo klasyfikację albo regresję. Większość zastosowań, o których dalej będzie mowa, tego używa.&#160; Krótka historia rozwoju algorytmów NLP W uczeniu maszynowym wszystko musimy sprowadzić do liczb. Jeśli działamy ze zdjęciami, filmem czy tekstem, to i tak musimy to sprowadzić do liczb, bo pod spodem algorytmów są działania matematyczne. Wcześniej tworzyło się w tym celu słownik. Każdemu słowu przypisywało się unikalne ID i wtedy zamiast słów mieliśmy zbiór liczb. To podejście było używane dość długo, ale ma ono bardzo dużo wad. Totalnie traciliśmy przy tym relacje pomiędzy słowami. Jeśli mamy słowo “dom” jako 1, “kot” jako 2 oraz “budynek” jako 3. To wtedy dom, kot i pies numerycznie są obok siebie.&#160; Mówiąc o Word2Vec od razu przechodzi się na rozmowę o wektorach lub jeszcze ciekawej mówi się o wielowymiarowych przestrzeniach. Sama koncepcja leżąca w Word2Vec jest bardzo prosta, natomiast, co jest najważniejsze, jest wiele prostych teoretycznych koncepcji, ale tylko mała część z nich działa w praktyce. Jednym słowem tę koncepcję można wyjaśnić pewnie przez słowo porządek. Podam Ci przykład. Załóżmy, że nasz świat składa się z jedynie trzech wymiarów, czyli te które dostrzegamy okiem. Wyobraź sobie na moment rzeźbiarza, zegarmistrza czy chirurga. Jak to wygląda? Gdzie są ich narzędzia? Czy są rozrzucone po pokoju czy jednak mają swój porządek? Jeśli weźmiesz mistrza swojego dzieła, to z zamkniętymi oczami będzie w stanie poruszać się w tym pokoju. Inny namacalny przykład. W zależności od tego jaką rolę odgrywasz w domu, np. jesteś mistrzem garażu, kuchni czy jeszcze czegoś &#8211; jak często masz uczucie dyskomfortu, kiedy druga połówka posprząta na Twoim terenie? Najciekawsze jest to, że z zewnątrz po takim sprzątaniu może przestrzeń wyglądać nawet czyściej, ale to totalnie mija się z celem. Dlaczego? Bo nagle okazuje się, że nie możemy się w tym odnaleźć. Nie wiadomo, gdzie co leży. To oznacza, że przed tym mieliśmy w głowie pewną mapę wszystkich przedmiotów i relacje, jakie mają pomiędzy sobą &#8211; garnki leżą obok innych garnków albo śrubokręty są obok siebie. Właśnie teraz przerobiliśmy esencję algorytmu Word2Vec. Ten algorytm ma zadanie uporządkować słowa, rozłożyć je do swoich szuflad. Do dyspozycji akurat ma trochę więcej wymiarów niż tylko trzy. To może być np. 100 lub 300, dzięki czemu ma znacznie większy stopień wolności. Nawigacja w trzech wymiarach wymaga trzech liczb, czyli na jakiej szerokości, długości oraz wysokości coś jest. Mówimy, że w tym przypadku wektor ma trzy wartości. Mówiąc wektor, można powiedzieć nawet prościej &#8211; to jest liczba. Dla wielowymiarowej przestrzeni, ta liczba może być np. 100 czy 300. Ciężko jest ludziom wyobrazić sobie, co tyle wymiarów oznacza w praktyce, ale z punktu widzenia algorytmu, to oznacza, żeby znaleźć obiekt w przestrzeni potrzebujemy znać np. 100 liczb (zamiast 3, jak to jest w trójwymiarze). Pojawia się pytanie: to w jaki sposób słowa są uporządkowane? Na tym polega cała sztuka i nauka modelu. Robi się to tak: bierze się bardzo duży korpus (czyli tekst), najlepiej w 10-kach tysięcy, 100 tysiącach wyrazów (czy nawet w milionach). Następnie wybiera się szerokość pływającego okienka w tekście, np. 5 czy 10 słów. Wszystkie słowa, które pojawią się obok siebie oznaczają, że mają relacje. Już podaje Ci przykład. Warszawa i Polska będą zlokalizowane obok siebie. Bo w wielu miejscach tekstu można znaleźć: Warszawa to stolica Polski Stolica Polski to Warszawa Będę w Warszawie w naszej stolicy Takie podejście ma szereg zalet. Jedno z najbardziej rewolucyjnych rzeczy jest to, że teraz każde słowo (lub nawet zdanie czy paragraf) możemy zaprezentować w postaci liczb i możemy porównywać dwa słowa w sposób numeryczny. Dzięki czemu wyrazy, które mają zupełnie inne literki, np. “dom”, “budynek”, “blok”, “willa” czy nawet “chałupa” będą miały podobny wektor. To te słowa mają podobny sens. Osoby, które zajmują się językami powiedzą, że mają podobną semantykę. Co to oznacza “podobne”? Załóżmy, że nasz wektor ma 100 wymiarów, czyli każde słowo opisujemy przy pomocy 100 liczb. Wtedy mamy 100 liczb dla słowa “dom” i 100 liczb dla słowa “budynek”. Zaczniemy następnie porównywać te wektory. Co to znaczy porównywać? Pamiętasz, jakie kiedyś w szkole trzeba była dodawać liczby pisemnie w słupkach? To mamy podobnie, tylko teraz nic nie dodajemy. Mamy dwa wiersze i krok po kroku porównujemy liczby, czyli jaka jest wartość dla pierwszych liczb, jaka jest dla drugich itd. i okazuje się, że “dom” i “budynek” mają bardzo podobne wartości. Kolejność liczb w wektorze jest ważna, każdy wymiar ma swoją odpowiedzialność. Tylko w tym modelu, nie ma możliwości interpretować tego jawnie, nie wiemy, za co jest odpowiedzialny wymiar piąty czy dziesiąty, natomiast możemy być pewni, że za tym stoi jakaś logika. Tłumacząc działania algorytmu Word2Vec po przez analogię, chce się przypomnieć cytat Hemingwaya “Po­wiedz mi, kim są twoi przy­jaciele, a po­wiem Ci, kim jesteś.” Wprowadzenie Word2Vec stało się rewolucją. Zwykle mówi się, że Google wymyślił ten algorytm, ale Google to brand, a sam brand jest tylko otoczką, za tym stoją ludzie. Twórcą Word2Vec jest Tomas Mikolov, który obecnie pracuje w Facebooku. Co prawda, jak to zwykle bywa, osoby, które wymyślają podobne rzeczy inspirują się innymi faktami, które gdzieś ktoś wynalazł. Natomiast Mikolov to połączył i dopracował w taki sposób, żeby to zaczęło działać. Dlatego trzeba przyznać mu, że wynalazł Word2Vec w takiej postaci, żeby to działało. Tomas jest bardzo ciekawym, inteligentnym i skromnym człowiekiem. Jak o tym mówię, to zastanawiam się, co jest przyczyną, a co jest skutkiem :). Można rozważać, czy jest ciekawy, dlatego że jest inteligentny czy może dlatego że jest skromny? Zaprosiłem Tomasa na konferencję DWCC 2019 i 28 września będzie w Warszawie. Będzie opowiadał o Word2Vec oraz algorytmie fastText. Prosiłem go, żeby opowiedział o pewnych szczegółach, trikach, które są mniej oczywiste dla innych, chociaż dla niego jako twórcy mogą być oczywiste. Też będzie brać udział w AMA i można z nim będzie na spokojnie porozmawiać. Podsumowując temat Word2Vec. Zwykle wszystkie rozwiązania dotyczące NLP (na ten moment) wdrożone na produkcję, używają Word2Vec. To stało się de facto standardem i najlepszym osiągnięciem. Oczywiście są pewne odmiany tego podejścia, ale to już inna historia. Mówię o tym, żeby podkreślić ważność tego rozwiązania. W uczeniu maszynowym jest bardzo dużo dostępnych algorytmów i ich implementacji. Natomiast na palcach można policzyć te, które działają dobrze w praktyce. Word2Vec to jest przykład tego, co działa i czasem nawet lepiej niż można się tego na początku spodziewać. Modelowanie tematów Gdy działamy z dużą ilością tekstu, przeczytać to manualnie i następnie wychwycić, jakie tematy pojawiły się w tekście, może być trudne fizycznie. Też czasem w tych tekstach można wykryć inne tematy. Podam Ci przyklad. Jest firma, która ma dużo klientów, którzy piszą do firmy różne wiadomości. Zarząd myśli, że klienci piszą tylko z dwóch powodów: narzekać lub podziękować. Treści jest tak dużo, że ciężko jest je wszystkie analizować. Jeśli jednak przepuścimy całą treść przez odpowiednie algorytmy, to możemy zobaczyć pewne grupy “schowanych” tematów (latent topics). To są tematy, które nasi klienci poruszają, a my nie zdajemy sobie z tego sprawy. Co to za algorytmy? Jest ich kilka, np. LDA. Jest to statyczny algorytm, który działa nawet całkiem dobrze, natomiast ma kilka wad. Po pierwsze, skoro został wymyślony przez statystyków (tym bardziej jakiś czas temu) to prawie zawsze to oznacza, że ten algorytm bardzo słabo skaluje się na dużą ilość danych (bo był tworzony w zupełnie innej rzeczywistości). Tak jest z LDA &#8211; kiepsko sobie radzi z większą ilością danych. Druga wada jest taka, że słabo sobie radzi z literówkami lub odmianami słów (język polski pod tym względem jest bardzo bogaty). Swoją drogą na bezpłatnym wyzwaniu online, o którym wspomniałem wcześniej, pokażę jak się robi modelowanie tematów.&#160; Czy da się jakoś sobie poradzić z tymi ograniczeniami? Tak. Są pewne pomysły na to, jak wykorzystać nowoczesną wiedzę z NLP, między innymi Word2Vec. O tym będzie osobna prezentacja Valentina na konferencji DWCC. Valentin Malykh ma sporo doświadczenie i miał potrzebę uruchomienia modelowania tematów (topic modeling) na naprawdę bardzo dużych zbiorach danych. Warto posłuchać, bo okazuje się, że te tematy nie...</p>
<p>Artykuł <a href="https://biznesmysli.pl/bm64-przetwarzanie-jezyka-naturalnego-w-biznesie/">Przetwarzanie języka naturalnego w biznesie</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-Z2hwPpQ wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/bm-64-przetwarzanie-jezyka-naturalnego-w" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://open.spotify.com/episode/03ScQEIGlIMwsgCLe5sEYB" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>


<p>W 47 odcinku po raz pierwszy poruszyłem temat <a href="/przetwarzanie-jezyka-naturalnego-rowniez-polskiego">przetwarzania języka naturalnego</a>. Dzisiaj wrócę do tej kwestii i wyjaśnię, do czego nam to jest potrzebne. Jakie problemy można rozwiązywać i czy te rozwiązania wnoszą wartość dodaną? Dodatkowo omówię podstawowe algorytmy, które są łatwiejsze niż mogą się wydawać.</p>



<figure class="wp-block-image"><img decoding="async" fetchpriority="high" width="1000" height="563" src="https://biznesmysli.pl/wp-content/uploads/2019/09/BM-64-cover.jpg" alt="" class="wp-image-1636" srcset="https://biznesmysli.pl/wp-content/uploads/2019/09/BM-64-cover.jpg 1000w, https://biznesmysli.pl/wp-content/uploads/2019/09/BM-64-cover-300x169.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2019/09/BM-64-cover-768x432.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2019/09/BM-64-cover-480x270.jpg 480w" sizes="(max-width: 1000px) 100vw, 1000px" /></figure>



<p>Na początku mam dla Ciebie dwa ogłoszenia. Po pierwsze, 27-28 września odbędzie się międzynarodowa <a href="http://bit.ly/2L7cJQ8">konferencja w Warszawie DWCC 2019</a>. Będzie dużo praktyki, eksperci światowej klasy z różnych zakątków, z takich firm jak DeepMind, Facebook, Uber, Stanford, Huawei, Alpha itd. Stawiamy duży nacisk na networking, wsparcie merytorycznych dyskusji (dobór właściwych osób we właściwym czasie) i połączenie ze sztuką. Będzie tak zwana AMA, czyli <em>Ask Me Anything</em>. To jest specjalna formuła, kiedy po prezentacji nie ma pytań, wówczas prelegent będzie w wyznaczonym miejscu dostępny do prywatnych rozmów i wymiany zdań. Będzie to w formie bardziej przyjacielskiej rozmowy z mniejszą ilością stresu, bo tam będzie po prostu mniej ludzi. Organizowana jest także wyjątkowa strefa sztuki. Zapraszam i do zobaczenia.</p>



<span id="more-1635"></span>



<p>Druga wiadomość. Dziasiaj (2 września), rusza <a href="http://bit.ly/2ZzCQDj">bezpłatne online wyzwanie</a> od DataWorkshop “Też potrafisz”. Wyzwanie potrwa 5 dni, i każdego dnia o 5 rano udostępniane będzie nowe zadanie do wykonania, które może zająć czasem nie więcej jak 10 minut (w zależności od umiejętności i złożoności problemu). To wyzwanie będzie dotyczyło obszaru NLP, więc jeśli chcesz spróbować tego, o czym dzisiaj piszę, to koniecznie dołącz. To jest w 100% bezpłatne, a do tego przyjemna zabawa. </p>



<p>Czego się spodziewać się?</p>



<ul><li>Poznasz podstawy przetwarzania języka naturalnego (NLP).</li><li>Przerobisz koncepcję Word Embeddings (Word2Vec &amp; Doc2Vec).</li><li>Samodzielnie wytrenujesz model i może znajdziesz ofertę pracy swoich marzeń.</li><li>Poznasz techniki modelowania tematycznego (<em>topic modeling</em>).</li><li>Nauczysz się wizualizować wielowymiarowe dane.</li><li>Poznasz bibliotekę <em><a href="https://radimrehurek.com/gensim/">gensim</a></em> i inne.</li></ul>



<p><strong>Uwaga, dołączyć się można tylko 2 września. </strong>Jeśli nie udało Ci się zdążyć, to zapisz się na newsletter, dzięki czemu będziesz otrzymywać informacje o nowych wyzwaniach i innych ciekawych rzeczach bezpośrednio na swoją skrzynkę.</p>






<h2 class="wp-block-heading">Natural language processing</h2>



<p>W języku angielskim przetwarzanie języka naturalnego nazywa się <em>natural language processing</em> lub używa się skrótu NLP. W języku polskim skrót NLP też dość często się pojawia. Warto odróżnić, że pod akronimem NLP czasem kryje się <a href="https://pl.wikipedia.org/wiki/Programowanie_neurolingwistyczne">programowanie neurolingwistyczne</a>, ale jest to coś innego.&nbsp;<br /></p>



<p>Mała dygresja. Jakiś czas temu był rozkwit w <em>computer vision</em>, począwszy od 2012 roku i przez kilka kolejnych lat wiele się działo. Teraz z widzeniem komputerowym nadal są przeprowadzane prace badawcze, ale jak na razie nie widać żadnych rewolucji, to po prostu już działa całkiem dobrze (w różnych testach, lepiej niż wizualna percepcja człowieka).&nbsp;</p>



<p>Dlaczego o tym mówię? Bo mam teraz <em>déjà vu</em>, kiedy widzę podobną dynamikę, tylko że&nbsp; rewolucja tym razem dotarła do obszaru NLP. W roku 2019 wiele się dzieje. Pojawiają się kolejne ciekawsze podejścia i już ciężko być na bieżąco. Obserwując to, co dzieje się, można powiedzieć, że jest rozkwit NLP. Swoją drogą, właśnie z tego powodu na konferencji DWCC, o której wspomniałem, NLP będzie jednym z popularnych tematów &#8211; aż 4 z 15 prezentacji będą poświęcone tej tematyce.</p>



<p>Kolejna ważna rzecz, na którą zwrócę uwagę. Gdy mówimy o przetwarzaniu języka naturalnego, to przede wszystkim kojarzy się z tekstem. To ma sens. Natomiast ciekawostka jest taka, że algorytmy, które były wymyślone dla NLP da się stosować w nieco innych kontekstach. Osobiście teraz używam ten algorytm w jednym z projektów, który wdrażamy na produkcję. Udało się stosunkowo małym nakładem pracy osiągnąć dobry wynik. O tym projekcie postaram się powiedzieć jeszcze więcej (jak uzyskam zgodę na to, to nagram na to osobny odcinek).&nbsp;&nbsp;</p>



<p>Jako ciekawostkę warto dodać, że to działa też w drugą stronę. Dla przykładu, sieci konwolucyjne były wymyślone w obszarze widzenia komputerowego (<em>computer vision</em>). Okazuje się, że też da się je zastosować w kontekście NLP (mimo tego, że tekst to nie obrazki). Natomiast ma to wiele wspólnego. Dla uproszczenia: słowa, które są obok siebie, są podobnie powiązane jak piksele na zdjęciu. Są pewne relacje pomiędzy nimi.</p>



<p>W uczeniu maszynowym na wejściu mamy dane, a na wyjściu to, co chcemy uzyskać to klasyfikacja (np. odpowiadamy na pytanie tak lub nie) lub regresja (wtedy prognozujemy wartość). Danymi w NLP jest tekst, czyli słowa poukładane w zdanie. Ludzie z branży NLP zwykle to nazywają korpusem. Jakie problemy można rozwiązywać dzięki NLP? Podobnie jak w ML, na wejściu mamy korpus i na wyjście dość często robimy albo klasyfikację albo regresję. Większość zastosowań, o których dalej będzie mowa, tego używa.&nbsp;</p>



<h2 class="wp-block-heading">Krótka historia rozwoju algorytmów NLP</h2>



<p>W uczeniu maszynowym wszystko musimy sprowadzić do liczb. Jeśli działamy ze zdjęciami, filmem czy tekstem, to i tak musimy to sprowadzić do liczb, bo pod spodem algorytmów są działania matematyczne.<br /></p>



<p>Wcześniej tworzyło się w tym celu słownik. Każdemu słowu przypisywało się unikalne ID i wtedy zamiast słów mieliśmy zbiór liczb. To podejście było używane dość długo, ale ma ono bardzo dużo wad. Totalnie traciliśmy przy tym relacje pomiędzy słowami. Jeśli mamy słowo “dom” jako 1, “kot” jako 2 oraz “budynek” jako 3. To wtedy dom, kot i pies numerycznie są obok siebie.&nbsp;</p>



<p>Mówiąc o Word2Vec od razu przechodzi się na rozmowę o wektorach lub jeszcze ciekawej mówi się o wielowymiarowych przestrzeniach. Sama koncepcja leżąca w Word2Vec jest bardzo prosta, natomiast, co jest najważniejsze, jest wiele prostych teoretycznych koncepcji, ale tylko mała część z nich działa w praktyce. Jednym słowem tę koncepcję można wyjaśnić pewnie przez słowo porządek. Podam Ci przykład. Załóżmy, że nasz świat składa się z jedynie trzech wymiarów, czyli te które dostrzegamy okiem. Wyobraź sobie na moment rzeźbiarza, zegarmistrza czy chirurga. Jak to wygląda? Gdzie są ich narzędzia? Czy są rozrzucone po pokoju czy jednak mają swój porządek? Jeśli weźmiesz mistrza swojego dzieła, to z zamkniętymi oczami będzie w stanie poruszać się w tym pokoju.</p>



<p>Inny namacalny przykład. W zależności od tego jaką rolę odgrywasz w domu, np. jesteś mistrzem garażu, kuchni czy jeszcze czegoś &#8211; jak często masz uczucie dyskomfortu, kiedy druga połówka posprząta na Twoim terenie? Najciekawsze jest to, że z zewnątrz po takim sprzątaniu może przestrzeń wyglądać nawet czyściej, ale to totalnie mija się z celem. Dlaczego? Bo nagle okazuje się, że nie możemy się w tym odnaleźć. Nie wiadomo, gdzie co leży. To oznacza, że przed tym mieliśmy w głowie pewną mapę wszystkich przedmiotów i relacje, jakie mają pomiędzy sobą &#8211; garnki leżą obok innych garnków albo śrubokręty są obok siebie.</p>



<p>Właśnie teraz przerobiliśmy esencję algorytmu Word2Vec. Ten algorytm ma zadanie uporządkować słowa, rozłożyć je do swoich szuflad. Do dyspozycji akurat ma trochę więcej wymiarów niż tylko trzy. To może być np. 100 lub 300, dzięki czemu ma znacznie większy stopień wolności. Nawigacja w trzech wymiarach wymaga trzech liczb, czyli na jakiej szerokości, długości oraz wysokości coś jest. Mówimy, że w tym przypadku wektor ma trzy wartości. Mówiąc wektor, można powiedzieć nawet prościej &#8211; to jest liczba. Dla wielowymiarowej przestrzeni, ta liczba może być np. 100 czy 300. Ciężko jest ludziom wyobrazić sobie, co tyle wymiarów oznacza w praktyce, ale z punktu widzenia algorytmu, to oznacza, żeby znaleźć obiekt w przestrzeni potrzebujemy znać np. 100 liczb (zamiast 3, jak to jest w trójwymiarze).</p>



<p>Pojawia się pytanie: to w jaki sposób słowa są uporządkowane? Na tym polega cała sztuka i nauka modelu. Robi się to tak: bierze się bardzo duży korpus (czyli tekst), najlepiej w 10-kach tysięcy, 100 tysiącach wyrazów (czy nawet w milionach). Następnie wybiera się szerokość pływającego okienka w tekście, np. 5 czy 10 słów. Wszystkie słowa, które pojawią się obok siebie oznaczają, że mają relacje.</p>



<p>Już podaje Ci przykład. Warszawa i Polska będą zlokalizowane obok siebie. Bo w wielu miejscach tekstu można znaleźć:</p>



<ul><li>Warszawa to stolica Polski</li><li>Stolica Polski to Warszawa</li><li>Będę w Warszawie w naszej stolicy</li></ul>



<p>Takie podejście ma szereg zalet. Jedno z najbardziej rewolucyjnych rzeczy jest to, że teraz każde słowo (lub nawet zdanie czy paragraf) możemy zaprezentować w postaci liczb i możemy porównywać dwa słowa w sposób numeryczny. Dzięki czemu wyrazy, które mają zupełnie inne literki, np. “dom”, “budynek”, “blok”, “willa” czy nawet “chałupa” będą miały podobny wektor. To te słowa mają podobny sens. Osoby, które zajmują się językami powiedzą, że mają podobną semantykę.</p>



<p>Co to oznacza “podobne”? Załóżmy, że nasz wektor ma 100 wymiarów, czyli każde słowo opisujemy przy pomocy 100 liczb. Wtedy mamy 100 liczb dla słowa “dom” i 100 liczb dla słowa “budynek”. Zaczniemy następnie porównywać te wektory. Co to znaczy porównywać? Pamiętasz, jakie kiedyś w szkole trzeba była dodawać liczby pisemnie w słupkach? To mamy podobnie, tylko teraz nic nie dodajemy. Mamy dwa wiersze i krok po kroku porównujemy liczby, czyli jaka jest wartość dla pierwszych liczb, jaka jest dla drugich itd. i okazuje się, że “dom” i “budynek” mają bardzo podobne wartości.</p>



<p>Kolejność liczb w wektorze jest ważna, każdy wymiar ma swoją odpowiedzialność. Tylko w tym modelu, nie ma możliwości interpretować tego jawnie, nie wiemy, za co jest odpowiedzialny wymiar piąty czy dziesiąty, natomiast możemy być pewni, że za tym stoi jakaś logika.</p>



<p>Tłumacząc działania algorytmu Word2Vec po przez analogię, chce się przypomnieć cytat Hemingwaya</p>



<blockquote class="wp-block-quote"><p> “Po­wiedz mi, kim są twoi przy­jaciele, a po­wiem Ci, kim jesteś.” </p></blockquote>



<p>Wprowadzenie Word2Vec stało się rewolucją. Zwykle mówi się, że Google wymyślił ten algorytm, ale Google to brand, a sam brand jest tylko otoczką, za tym stoją ludzie. Twórcą Word2Vec jest <a href="https://research.fb.com/people/mikolov-tomas/">Tomas Mikolov</a>, który obecnie pracuje w Facebooku. Co prawda, jak to zwykle bywa, osoby, które wymyślają podobne rzeczy inspirują się innymi faktami, które gdzieś ktoś wynalazł. Natomiast Mikolov to połączył i dopracował w taki sposób, żeby to zaczęło działać. Dlatego trzeba przyznać mu, że wynalazł Word2Vec w takiej postaci, żeby to działało.</p>



<p>Tomas jest bardzo ciekawym, inteligentnym i skromnym człowiekiem. Jak o tym mówię, to zastanawiam się, co jest przyczyną, a co jest skutkiem :). Można rozważać, czy jest ciekawy, dlatego że jest inteligentny czy może dlatego że jest skromny? Zaprosiłem Tomasa na konferencję DWCC 2019 i 28 września będzie w Warszawie. Będzie opowiadał o Word2Vec oraz algorytmie <a href="https://fasttext.cc/">fastText</a>. Prosiłem go, żeby opowiedział o pewnych szczegółach, trikach, które są mniej oczywiste dla innych, chociaż dla niego jako twórcy mogą być oczywiste. Też będzie brać udział w AMA i można z nim będzie na spokojnie porozmawiać.<br /></p>



<p>Podsumowując temat Word2Vec. Zwykle wszystkie rozwiązania dotyczące NLP (na ten moment) wdrożone na produkcję, używają Word2Vec. To stało się de facto standardem i najlepszym osiągnięciem. Oczywiście są pewne odmiany tego podejścia, ale to już inna historia. Mówię o tym, żeby podkreślić ważność tego rozwiązania.</p>



<p>W uczeniu maszynowym jest bardzo dużo dostępnych algorytmów i ich implementacji. Natomiast na palcach można policzyć te, które działają dobrze w praktyce. Word2Vec to jest przykład tego, co działa i czasem nawet lepiej niż można się tego na początku spodziewać.<br /></p>



<h2 class="wp-block-heading">Modelowanie tematów</h2>



<p>Gdy działamy z dużą ilością tekstu, przeczytać to manualnie i następnie wychwycić, jakie tematy pojawiły się w tekście, może być trudne fizycznie. Też czasem w tych tekstach można wykryć inne tematy. Podam Ci przyklad. Jest firma, która ma dużo klientów, którzy piszą do firmy różne wiadomości. Zarząd myśli, że klienci piszą tylko z dwóch powodów: narzekać lub podziękować. Treści jest tak dużo, że ciężko jest je wszystkie analizować. Jeśli jednak przepuścimy całą treść przez odpowiednie algorytmy, to możemy zobaczyć pewne grupy “schowanych” tematów (<em>latent topics</em>). To są tematy, które nasi klienci poruszają, a my nie zdajemy sobie z tego sprawy.<br /></p>



<p>Co to za algorytmy? Jest ich kilka, np. <a href="https://en.wikipedia.org/wiki/Latent_Dirichlet_allocation">LDA</a>. Jest to statyczny algorytm, który działa nawet całkiem dobrze, natomiast ma kilka wad. Po pierwsze, skoro został wymyślony przez statystyków (tym bardziej jakiś czas temu) to prawie zawsze to oznacza, że ten algorytm bardzo słabo skaluje się na dużą ilość danych (bo był tworzony w zupełnie innej rzeczywistości). Tak jest z LDA &#8211; kiepsko sobie radzi z większą ilością danych. Druga wada jest taka, że słabo sobie radzi z literówkami lub odmianami słów (język polski pod tym względem jest bardzo bogaty). Swoją drogą na bezpłatnym wyzwaniu online, o którym wspomniałem wcześniej, pokażę jak się robi modelowanie tematów.&nbsp;</p>



<p>Czy da się jakoś sobie poradzić z tymi ograniczeniami? Tak. Są pewne pomysły na to, jak wykorzystać nowoczesną wiedzę z NLP, między innymi Word2Vec. O tym będzie osobna prezentacja Valentina na konferencji DWCC. Valentin Malykh ma sporo doświadczenie i miał potrzebę uruchomienia modelowania tematów (<em>topic modeling</em>) na naprawdę bardzo dużych zbiorach danych. Warto posłuchać, bo okazuje się, że te tematy nie są aż tak skomplikowane, jak się wydaje. Narzędzia, które to robią, są dostępne od ręki. Mało tego, to są narzędzia typu <em>open source</em>. Wystarczy, że jest jedna osoba w firmie, która tym chce się zająć i już za kilka tygodni (lub nawet wcześniej) można uzyskać ciekawe wyniki, które mogą Cię zaskoczyć.<br /></p>



<h2 class="wp-block-heading">Wsparcie klienta</h2>



<p>Pamiętam, jak pracowałem jakiś czas temu w General Electric i znałem osobiście zespół, który zajmował się obsługą klientów. Do tego zwykle używa się jakiegoś systemu do przyjmowania zgłoszeń. W korporacjach zwykle używa się ServiceNow. Jednym z zadań zespołu było kategoryzowanie zgłoszeń. To była bardzo żmudna praca. To brzmi jako zadanie dla uczenia maszynowego.<br /></p>



<p>Jest dużo firm, w szczególności większych, które borykają się z problemami, jak sobie poradzić ze zgłoszeniami, które spływają od klientów. To zadanie tak naprawdę da się uprościć do dwóch rzeczy, które należy wykonać. Mało tego, tak naprawdę to zadanie (prawie) w 100% da się zautomatyzować.<br /></p>



<p>Podaje Ci konkretny przykład. Uber działa na dużą skalę i ma tysiące zgłoszeń dziennie. Ciężko to wszystko ogarnąć manualnie, dlatego na pomoc przychodzi uczenie maszynowego. Zespół Ubera zbudował system COTA (<em>Customer Obsession Ticket Assistant</em>), który działa następująco. Na wejściu jest zgłoszenie, na wyjściu są dwie rzeczy. Po pierwsze przypisanie zgłoszenia do odpowiedniej kategorii, po drugie trzy sugerowane odpowiedzi na to zgłoszenie. W wyniku wdrożenia tego rozwiązania udało się zredukować ilość przekierowań o 15% oraz zmniejszyć o 5% czas spędzany przez członków zespołu wsparcia.<br /></p>



<p>Więcej na temat COTA opowie Aditya Guglani 28 września, który specjalnie przyleci do Warszawy na konferencję. Aditya jest liderem technicznym tego projektu, więc można dopytać go o różne ciekawostki techniczne.<br /></p>



<h2 class="wp-block-heading">Question Answering (chatbot)</h2>



<p>Chatboty nabierają swoje wartości i jeśli robi się to dobrze, to naprawdę są pomocne. Podam Ci kilka przykładów. 1-800 flowers.com zanotowało <a href="https://www.intellectsoft.net/blog/chatbot-can-increase-company-revenue/" class="broken_link">wzrost sprzedaży o 70%</a>, kiedy wdrożył możliwość zamówienia kwiatów przez chatbot, bez zbędnej interakcji zewnętrznej. Sephora zwiększyła <a href="https://venturebeat.com/2017/08/01/chatbots-on-facebook-messenger-linked-to-increased-sales/" class="broken_link">o 11% liczbę zamówień</a> na makijaż, dzięki zastosowaniu umawiania na usługę poprzez <a href="https://beauty.bot/bot/sephora-assistant/" class="broken_link">Sephora Reservation Assistant</a>. Istnieje jeszcze wiele <a href="https://chatbotslife.com/how-businesses-are-winning-with-chatbots-ai-5df2f6304f81">innych przykładów</a>.&nbsp;<br /></p>



<p>Opowiem Ci też o naszym Ryśku. Znasz go? Rysiek narodził się rok temu na konferencji DWCC. W tym roku zapowiadał też będzie, ale jeszcze nie znam szczegółów. Bo Rysiek trzyma to wszystko w tajemnicy. Podobnie wiele rzeczy się wydarzyło w jego życiu, ale to niech sam opowie, co tam się podziało. Następnie Rysiek zaczął pomagać przy wyzwaniu. Mieliśmy problem przy wysyłce maili do większej grupy osób, bo zawsze jest tak, że z różnych powodów do kogoś mail nie dotrze. Takim mailem może być bonus za wykonanie zadania. Bardzo szkoda jeśli zadanie zostało wykonane, a bonus się gdzieś zagubi. Były momenty, kiedy siedziałem po nocach i wysyłałem takie maili manualnie. Rysiek dbając o moje zdrowie zaproponował pomoc. Powiedział, że może tym się zająć. Od tego momentu można napisać do Ryśka na czacie (używamy Slacka) i poprosić o bonus. Dodatkowo może znaleźć ciekawy artykuł do przeczytania lub powiedzieć, jaka jest pogoda.<br /></p>



<p>Na czwarte wyzwanie, które rusza 2 września, Rysiek przygotował się jeszcze bardziej. Oprócz bonusów też wysyła zadania. Dodatkowo stwierdził, że zajmie się także przeliczaniem punktów. Od 4 wyzwania pojawiła się możliwość zbierania punktów. Jest kilka sposobów, jak to można robić i dość złożona logika (żeby obsłużyć wszystkie przypadki), dodatkowo warto dołożyć skalę ok. 5 czy nawet 10 tysięcy ludzi. Dlatego Rysiek podjął się tego wyzwania, z czego jest bardzo dumny, ale też co jest ważne umożliwia nam małym zespołem radzić sobie z dziesiątkami lub nawet setkami tysięcy zgłoszeń. Rysiek jest bardzo miły warto go poznać. Mówiłem, że będzie na konferencji również w tym roku?<br /></p>



<p>Temat tworzenia botów jest dość złożony, w szczególności jeśli chcemy stworzyć bota w tematach dość ogólnych, niż tylko mocno zdefiniowane ścieżki. Mikhail Burtsev przyjedzie do Warszawy i 28 września na konferencji opowie o narzędziu, które tworzy, żeby ułatwić tworzenie botów. Używa dość złożonych rozwiązań pod spodem, tak zwanych <em>state of the art</em>. Jeśli chcesz być na bieżąco w tematach botów, to warto być na tej prezentacji. Będzie także okazja porozmawiać z nim w bardziej kameralnej atmosferze.<br /></p>



<h2 class="wp-block-heading">Podsumowując</h2>



<p>NLP, czyli przetwarzanie języka naturalnego może być bardzo pomocne z praktycznego punktu widzenia. Może usprawnić jakość produktu, zadowolenie klientów i ostatecznie zwiększyć wartość firmy. W obecnych czasach jest rozkwit NLP i wiele dzieje się w tym temacie. Słysząc o NLP na pewno chcesz widzieć o algorytmie Word2Vec i rozumieć jak działa, bo wtedy jesteś w stanie lepiej zrozumieć, jakiego rodzaju problemy można rozwiązać.&nbsp;<br /></p>



<p>Twórcą Word2Vec jest Tomas Mikolov, który wystąpi z prelekcją na konferencji DWCC 2019 i też będzie można z nim porozmawiać po wystąpieniu. Tutaj warto dodać, że Tomas jest dość introwertyczną osobą, więc trzeba też to uszanować, ale zgodził się uczestniczyć w formacie Ask Me Anything. Będzie jeszcze kilka innych ciekawych, aktualnych i praktycznych wystąpień związanych z NLP. Warto być!&nbsp;</p>



<p>Jeśli jednak nie możesz być w Warszawie 28 września, to jest możliwość dostępu online do konferencji i to będzie coś więcej niż tylko transmisja. Dostaniesz całą paczkę np. nagranie,&nbsp; które możesz obejrzeć później, raport przygotowany przez prelegentów, który odpowiada na pytanie, jak pewne problemy można najlepiej rozwiązać używając uczenia maszynowego na rok 2019, dostęp do prezentacji oraz wywiadów. Przedsprzedaż rusza 10 września i wtedy można uzyskać zniżkę nawet 50%.</p>



<p>Przypomnę, że też jest możliwość spróbować Word2Vec samodzielnie zapisując na bezpłatne online wyzwanie od DataWorkshop “Też potrafisz!”. Ostatni dzień zapisu to 2 września.<br /></p>



<p>To tyle na dzisiaj do usłyszenia lub zobaczenia.</p>
<p>Artykuł <a href="https://biznesmysli.pl/bm64-przetwarzanie-jezyka-naturalnego-w-biznesie/">Przetwarzanie języka naturalnego w biznesie</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/bm64-przetwarzanie-jezyka-naturalnego-w-biznesie/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Aleksandra Przegalińska z MIT o sztucznej inteligencji</title>
		<link>https://biznesmysli.pl/sztuczna-inteligencja-mit/</link>
					<comments>https://biznesmysli.pl/sztuczna-inteligencja-mit/#comments</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 17 Jul 2017 04:00:53 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[Alan Turing]]></category>
		<category><![CDATA[Aleksandra Przegalińska]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[Massachusetts Institute of Technology]]></category>
		<category><![CDATA[mit]]></category>
		<category><![CDATA[osobliwosć]]></category>
		<category><![CDATA[Ray Kurzweil]]></category>
		<category><![CDATA[singularity]]></category>
		<category><![CDATA[test turinga]]></category>
		<category><![CDATA[wywiad]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=437</guid>

					<description><![CDATA[<p>Dzisiaj będziemy mówić o sztucznej inteligencji, ale trochę z innej strony. Aleksandra Przegalińska jest doktorem filozofii, a teraz prowadzi badania w MIT. Żyjemy w bardzo ciekawych czasach, cytując Olę: &#8222;Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany&#8221;. Poznasz również opinie Oli  na temat, czy Test Turinga już jest zaliczony, czym jest dolina niesamowitości i jak wyglądają najnowsze tematy w tym obszarze.  Również o tym, co to jest microtargeting, co potencjalnie pomogło Donaldowi Trumpowi, prezydentowi Stanów Zjednoczonych, wygrać wybory. Zapraszam wysłuchania&#8230; Vladimir:Cześć Ola. Proszę przedstaw się kim jesteś, co robisz, co lubisz i gdzie mieszkasz? Ola:O jaki szereg trudnych pytań! Cześć, nazywam się Ola Przegalińska. Jestem badaczką nowych technologii, pracownikiem naukowym. Mieszkam i pracuję w tej chwili przede wszystkim w Bostonie, ale często też bywam w Warszawie, gdzie jest mój drugi dom. W Bostonie pracuję na MIT (Massachusetts Institute of Technology) w departamencie który się nazywa Center for Collective Intelligence i zajmuję się inteligencją roju i różnymi cyfrowymi śladami, które ludzie po sobie zostawiają, głównie w sieci. W Warszawie pracuję na Akademii Leona Koźmińskiego, zajmuję się tam też nowymi technologiami, troszeczkę startupami. No i oczywiście, przede wszystkim, sztuczną inteligencją, bo to jest taki podstawowy obszar moich badań i to jest też coś, co lubię. Więc mam taką, można powiedzieć, uprzywilejowaną sytuację, że zawodowo zajmuje się tym co lubię, a z takich innych rzeczy, które bardzo lubię, to ostatnio strasznie mi się spodobało wspinanie. I tym się ostatnio pasjonuje, przynajmniej wakacyjnie, poza wieloma innymi rzeczami. Vladimir:Wiele ciekawych rzeczy, o to będę jeszcze dopytywał później. Też mogę potwierdzić że byłaś w Warszawie, jak na przykład teraz. Natomiast zapytam co ostatnio czytałeś i dlaczego warto to przeczytać? Ola:Ostatnio, z takich bardzo ciekawych książek, które mogę polecić, to przede wszystkim przeczytałam coś, co się nazywa &#8222;Machines, Platform, Crowd&#8221; czyli maszyny, platformy i tłumy. To jest książka, wydana dokładnie w tym roku 2017, przez dwóch profesorów związanych zresztą z MIT, Erika Brynjolfssona i Andrew McAfee. I to jest książka, która właściwie jest pewnego rodzaju kompendium wiedzy o tym, w jaką stronę w tej chwili podążają takie mega trendy tzn. sztuczna inteligencja, rozwój cyfrowych platform wymiany wiedzy, ale też zakupowych, serwisowych, wszelkich w zasadzie tych marketplace&#8217;ów. Rozwój właśnie takiej inteligencji roju, czyli tych wszystkich tłumów online, które można ciekawie targetować, ale które też o bardzo wielu rzeczach decydują. Także ta książka właściwie jest o wszystkim, w tym sensie, o wpływie technologii na masę obszarów, na gospodarkę, na społeczeństwo, na więzi społecznych relacji. Fenomenalna lektura i taka sumaryzacja wszystkiego, co się do tej pory ciekawego zdarzyło, też operująca na bardzo ciekawych kejsach, nie tylko o Uberze, o którym wszyscy mówią, ale o takich właśnie, można powiedzieć, mniej znanych przykładach. Vladimir:Brzmi bardzo ambitne. Książka będzie podlinkowana do notatek. A powiedz Ola, gdzie dokładnie pracujesz i czym się zajmujesz. Fajnie będzie, jeśli podasz przykłady, bo wydaje mi się, że dla wielu osób nadal ta cała terminologia jest nieco tajemnicza. Ola:Jasne. Zajmuję się, tak jak powiedziałam wcześniej, sztuczną inteligencją, ale oczywiście, to jest ogromne pole badawcze, i w jego ramach, każdy może znaleźć dla siebie miejsce. W tej chwili mamy dwa projekty, które prowadzimy właśnie na MIT. Ale też Koźmiński, czyli moja macierzysta uczelnia w Warszawie, bardzo mnie wspiera. To są projekty, które są związane, po pierwsze, z interakcją człowieka, między maszyną a człowiekiem. Badamy czy też robimy eksperymenty naukowe, które pozwalają nam zobaczyć, jak ludzie komunikują się, na przykład, z czymś takim jak Siri i jak ich ciało na to odpowiada. To znaczy, jakie reakcje afektywne albo emocjonalne budzi interakcja z maszyną tego typu. Takich sprzętów jest, rzeczywiście, coraz więcej. Alexa, Siri, Cortana, coraz więcej mamy wirtualnych asystentów do obsługi klienta, coraz częściej wchodzimy w komunikację przez telefon czy online rozmaitymi botami różnych firm. Czasami po prostu dla fun&#8217;u, tak jak to jest na Messengerze. Ostatnio też powstał taki projekt jak Replika. Replika your AI friends, czyli twój przyjaciel &#8211; sztuczna inteligencja, z którym się po prostu konwersuje swobodnie. I nas ten rozwój botów rzeczywiście bardzo zainteresował. I postanowiliśmy wspólnie z Leonem Ciechanowskim, gdzie są znakomici specjaliści od badania sygnału psychofizjologicznego, po prostu sprawdzić, jakiego typu afekty, jakiego typu odpowiedzi (można powiedzieć emocjonalne) generują się podczas interakcji z takim botem. To znaczy, czy to jest inne od interakcji z ludźmi, czy to się jakoś zasadniczo różni od tego jak rozmawiamy sobie z dowolną osobą, którą znamy, czy to jest właściwe interakcja bardzo podobna do interakcji z ludźmi, z punktu widzenia tego jak to emocjonalnie odbieramy. I to jest taki jeden duży projekt, w którym w tej chwili siedzimy, grzebiemy. A drugi projekt, który realizujemy, to jest projekt z zakresu właściwie IoT i internetu rzeczy i technologii ubieralnych. Właściwie można powiedzieć, przeprowadzamy swoiste crash-testy takich technologii ubieralnych kolejnej generacji. To znaczy interesują nas nie jakieś proste reaktywności, jakich jest bardzo wiele teraz, z których wiele ludzi korzysta, mają jakieś opaski na rękę, z nimi biegają, one im liczą kalorie itd&#8230; Nas interesują, można powiedzieć, bardziej wyrafinowane sprzęty, mianowicie, interesują nas headbandy. Czyli takie opaski na głowę, które dokonują pomiaru takich rzeczy, które kiedyś jeszcze właściwie były nie do wyobrażenia, że można je mierzyć. Tak jak, na przykład muse, poziom stresu albo poziom koncentracji. Być może można było coś takiego zmierzyć w laboratorium, ale nikt żaden konsument nie mógł sobie indywidualnie tego zrobić. To są opaski do indywidualnego użytku. Za ich pomocą też chcemy przeprowadzać rozmaite eksperymenty, ale też po prostu pracujemy nad tym, żeby je rozwijać, żeby zwiększać ich funkcjonalności. Taką opaską, którą w tej chwili się zajmujemy. To jest opaska, która służy do badania poziomu koncentracji i do tego, żeby ten poziom koncentracji zwiększać. Ma taką dodatkową aplikację z botem, która doradza w jaki sposób trzeba działać, żeby być bardziej skoncentrowanym. To jest taki sprzęt, który rzeczywiście w tej chwili testujemy na MIT. Vladimir:Tyle rzeczy! Zaraz będę o to wszystko dopytywał. Ale najpierw jeszcze może zapytam o Twoją własną książkę, którą napisałaś &#8222;Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję&#8222;. Do kogo jest ta książka skierowana i jakie tematy tam poruszasz? Bo ja tę książkę dopiero też znalazłem, przyznam szczerze, pewnie chciałbym ją przeczytać. Więc podziel się więcej, co możemy w niej znaleźć. Ola:Książka jest taką bardzo zmienioną, popularyzowaną wersją mojego doktoratu. Doktorat, oczywiście, o sztucznej inteligencji, ale był pisany na wydziale filozofii. Tam można spodziewać się trudnej terminologii,  która na początku, dla osób które nie mają tego backgroundu, będzie mniej zrozumiała, ale przez to można szybko przebrnąć. Książka, w zasadzie, dla wszystkich. Książka jest podsumowaniem tego, co się działo w sztucznej inteligencji, jakie kolejne paradygmaty w tym projekcie sztucznej inteligencji następowały, jakie będą następowały, czyli jakich możemy się spodziewać. Tutaj też podaję przykłady o różnych sposobach, w jakich można rozwijać sztuczną inteligencję. Nie na takim bardzo inżynieryjnym poziomie ostatnim, tylko na poziomie koncepcyjnym. Sztuczna inteligencja to jednak ogromny projekt intelektualny, to nie są tylko praktyki inżynieryjne, ale to jest też jakiś taki duży paradygmat, który mówi nam o tym, jak stworzyć maszynę, która będzie w jakiś sposób podobna do człowieka, jak do tego doszłoby, gdyby to się udało, i w którą stronę powinniśmy się kierować. Jakiego typu funkcje ludzkie, funkcje inteligencji człowieka trzeba by było odtwarzać, żeby ta maszyna faktycznie była do nas podobna, albo żeby mogła ją cechować jakaś forma inteligencji. I w tym projekcie sztucznej inteligencji od lat 50., 40. ubiegłego wieku, różne na to pomysły były. Staram się czytelnika przez to przeprowadzić, czyli każdy, kto jest zainteresowany sztuczną inteligencją, może to przeczytać. Dalej, właśnie, od strony też paradygmatów różnych, można powiedzieć, filozoficznych, bo to jest duży metafizyczny, filozoficzny projekt. Dzisiaj, może ludzie którzy się zajmują IT, nie do końca tak o tym myślą, ale dla badaczy sztucznej inteligencji, to jest dosyć jasne. Za tym projektem stoją zbyt silne założenia dotyczące tego, jak poznajemy, jak myślimy, my jako ludzie, jak możemy to odtwarzać na maszynie. Staram się w swojej książce to pokazać, to jakoś zilustrować i pokazać, jakie różne etapy sztucznej inteligencji przechodziła, bo na początku chcieliśmy budować maszyny, które będą najlepiej grały w szachy, potem zmieniliśmy zdanie i chcieliśmy budować maszyny, które będą potrafiły poruszać się w przestrzeni fizycznej, czyli będą potrafiły sobie jakoś radzić z takimi bolączkami codzienności, chodzić, odpowiadać na bodźce zewnętrzne. To są dwie różne koncepcje sztucznej inteligencji. I staram się pokazać, która zwyciężyła i dlaczego, jaki jest stan wiedzy na dzisiaj, jak możemy te wiedzy dalej rozwijać, jakie są kolejne wyzwania, co należałoby zrobić chociażby w obszarze botów, żeby te boty faktycznie stały się takimi bardzo zaawansowanymi maszynami. Vladimir:Rozumiem, że ta książka nadaje się dla wszystkich osób, które się interesują sztuczna inteligencją i&#8230; Ola:&#8230;rozwojem technologii również. Vladimir:Teraz zadam najważniejsze pytanie dzisiejszej rozmowy, później to będzie wszystko dookoła. Pytanie jest takie, czym jest osobliwość i czy należy jej się bać. Ola:No tak, mogłam się spodziewać 🙂 Czym jest osobliwość? To zależy od definicji. Czym czy kim, to też jest dobre pytanie. Jest osobliwość w matematyce, która jest oczywiście zupełnie innym fenomenem niż tym, którym się zajmujemy. W kontekście sztucznej inteligencji, osobliwość &#8211; to jest taki punkt,  wyspekulowany dosyć, niejasny, kiedy on nastąpi w przyszłości, kiedy maszyna właśnie osiągnie co najmniej ludzkie kompetencje. To znaczy będzie intelektualnie sprawna tak samo jak człowiek, będzie cechować  być może także samoświadomością, czyli stanie się jakby czymś, na pewno z nami porównywalnym. I dlatego to się nazywa osobliwość, bo nie wiemy co dalej od tego punktu może nastąpić. To znaczy że to będzie punkt osobliwy w historii cywilizacji człowieka, dlatego że on wszystko zmieni. Nie było nigdy nic takiego. Nic takiego się nie zdarzyło. Singular, takie wyjątkowe, prawda. Bo Singularity, to jest angielski ekwiwalent osobliwości polskiej. I to jest taki moment, od którego bardzo trudno przewidzieć, co się może zdarzyć, bo tutaj pojawia się wtedy taki gracz na świecie, na Ziemi, który będzie zupełnie poza nami. To znaczy, w jakimś sensie będzie, być może, nie do przewidzenia w jaki sposób on rozegra swoją relację z nami, z ludźmi. Więc tak naprawdę, ta osobliwość &#8211; to jest swego rodzaju zagadka. Też czasami mówi się &#8222;osobliwość&#8221; o maszynie osobliwej, czyli właśnie o takiej sztucznej inteligencji, która będzie już na ludzkim poziomie, a nawet na wyższym poziomie niż człowiek, przekracza kompetencje człowieka. I wtedy dojdzie do jakiejś takiej reorganizacji tego jak funkcjonują nasze społeczeństwa, jak funkcjonujemy, jak gospodarki nasze funkcjonują. To jest taki po prostu moment, absolutnie przełomowy, który nie jest porównywalny z niczym, co my do tej pory, jako cywilizacja, przeżywaliśmy. Natomiast nie wiemy, kiedy ono nastąpi. Są tacy ludzie, jak Ray Kurzweil, którzy mówią, że to będzie za 20 czy 30 lat, on tę datę też przesuwa trochę. Są inni, którzy mówią że bardziej za 100. A jeszcze są inni którzy mówią że, żeby maszyna stała się osobliwa, to musi przejść jednak proces ewolucji, i nawet gdyby on miał być spakowany bardzo mocno w stosunku do tego, jak myśmy się ewolucyjnie rozwijali, to tak czy siak, to nie będzie mniej niż 1000 lat. Więc do spekulacji jest wiele, są oczywiście też tacy, którzy mówią, że osobliwość nie nastąpi, bo nie da się stworzyć świadomej maszyny. Da się stworzyć inteligentną być może, ale samoświadomą, taką podmiotową, która będzie myślała o sobie jako o Ja, dodam że, takiej to nie da się zbudować, bo po prostu nie mamy do tego kompetencji, ona się sama nie wyłoni. Jest dużo dyskusji, debat na ten temat czy to się zdarzy i czy należy się tego bać. Prawdę mówiąc, mam takie stanowisko dosyć realistyczne. To znaczy, jeżeli mówi się ludziom, że się powinni bać, to oni wtedy naturalnie reagują, tak że ten projekt należy zatrzymać. Uważam, tak zupełnie pragmatycznie, że projektu rozwoju sztucznej inteligencji po prostu zatrzymać się nie da. Nawet, jeśli ktoś gdzieś powie &#8222;pas&#8221;, amerykanie czy my, to być może chińczycy nie powiedzą &#8222;pas&#8221;, bo będą chcieli dalej rozwijać sztuczną inteligencję, bo będzie do czegoś tam potrzebna w medycynie, przemyśle, gdziekolwiek. I w związku z tym, tego projektu nie da się zatrzymać. Więc zamiast się bać i myśleć o nim w takich kategoriach panicznych &#8211; &#8222;uciekamy&#8221;, to po prostu trzeba do niego podejść tak na spokojnie, na chłodno i się do niego dobrze przygotować...</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandra Przegalińska z MIT o sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1yo4Uo wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/sztuczna-inteligencja-w-mit" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>Dzisiaj będziemy mówić o sztucznej inteligencji, ale trochę z innej strony.</p>
<figure id="attachment_439" aria-describedby="caption-attachment-439" style="width: 620px" class="wp-caption aligncenter"><img decoding="async" class="wp-image-439 size-full" src="https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra.jpg" alt="Aleksandra Przegalińska" width="620" height="414" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra.jpg 620w, https://biznesmysli.pl/wp-content/uploads/2017/07/Aleksandra-300x200.jpg 300w" sizes="(max-width: 620px) 100vw, 620px" /><figcaption id="caption-attachment-439" class="wp-caption-text">Aleksandra Przegalińska. <a href="http://www.wysokieobcasy.pl/wysokie-obcasy/1,53662,20432293,technologiczna-osobliwosc-zblizamy-sie-do-momentu-w-ktorym.html?disableRedirects=true" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>. Autor:  Albert Zawada.</figcaption></figure>
<p><strong>Aleksandra Przegalińska</strong> jest doktorem filozofii, a teraz prowadzi badania w <strong><a href="http://web.mit.edu/" target="_blank" rel="nofollow noopener noreferrer">MIT</a></strong>. Żyjemy w bardzo ciekawych czasach, cytując Olę:</p>
<blockquote>
<p>&#8222;Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany&#8221;.</p>
</blockquote>
<p>Poznasz również opinie Oli  na temat, czy Test Turinga już jest zaliczony, czym jest dolina niesamowitości i jak wyglądają najnowsze tematy w tym obszarze.  Również o tym, co to jest <i>microtargeting</i>, co potencjalnie pomogło Donaldowi Trumpowi, prezydentowi Stanów Zjednoczonych, wygrać wybory. Zapraszam wysłuchania&#8230;</p>
<p><span id="more-437"></span></p>
<p><b>Vladimir:<br /></b>Cześć Ola. Proszę przedstaw się kim jesteś, co robisz, co lubisz i gdzie mieszkasz?</p>
<p><b>Ola:<br /></b>O jaki szereg trudnych pytań! Cześć, nazywam się Ola Przegalińska. Jestem badaczką nowych technologii, pracownikiem naukowym. Mieszkam i pracuję w tej chwili przede wszystkim w Bostonie, ale często też bywam w Warszawie, gdzie jest mój drugi dom. W Bostonie pracuję na MIT (Massachusetts Institute of Technology) w departamencie który się nazywa Center for Collective Intelligence i zajmuję się inteligencją roju i różnymi cyfrowymi śladami, które ludzie po sobie zostawiają, głównie w sieci.</p>
<p>W Warszawie pracuję na <a href="http://www.kozminski.edu.pl/pl/" target="_blank" rel="nofollow noopener noreferrer">Akademii Leona Koźmińskiego</a>, zajmuję się tam też nowymi technologiami, troszeczkę startupami. No i oczywiście, przede wszystkim, sztuczną inteligencją, bo to jest taki podstawowy obszar moich badań i to jest też coś, co lubię. Więc mam taką, można powiedzieć, uprzywilejowaną sytuację, że zawodowo zajmuje się tym co lubię, a z takich innych rzeczy, które bardzo lubię, to ostatnio strasznie mi się spodobało wspinanie. I tym się ostatnio pasjonuje, przynajmniej wakacyjnie, poza wieloma innymi rzeczami.</p>
<p><b>Vladimir:<br /></b>Wiele ciekawych rzeczy, o to będę jeszcze dopytywał później. Też mogę potwierdzić że byłaś w Warszawie, jak na przykład teraz. Natomiast zapytam co ostatnio czytałeś i dlaczego warto to przeczytać?</p>
<p><b>Ola:<br /></b>Ostatnio, z takich bardzo ciekawych książek, które mogę polecić, to przede wszystkim przeczytałam coś, co się nazywa &#8222;<a href="http://amzn.to/2uotfno" target="_blank" rel="nofollow noopener noreferrer">Machines, Platform, Crowd</a>&#8221; czyli maszyny, platformy i tłumy. To jest książka, wydana dokładnie w tym roku 2017, przez dwóch profesorów związanych zresztą z MIT, Erika Brynjolfssona i Andrew McAfee. I to jest książka, która właściwie jest pewnego rodzaju kompendium wiedzy o tym, w jaką stronę w tej chwili podążają takie mega trendy tzn. sztuczna inteligencja, rozwój cyfrowych platform wymiany wiedzy, ale też zakupowych, serwisowych, wszelkich w zasadzie tych marketplace&#8217;ów.</p>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0393254291/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0393254291&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=2cc83996eec1c2049bd24446ed67cec0" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0393254291&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0393254291" alt="" width="1" height="1" border="0" /></li>
</ul>
<p>Rozwój właśnie takiej inteligencji roju, czyli tych wszystkich tłumów online, które można ciekawie targetować, ale które też o bardzo wielu rzeczach decydują. Także ta książka właściwie jest o wszystkim, w tym sensie, o wpływie technologii na masę obszarów, na gospodarkę, na społeczeństwo, na więzi społecznych relacji. Fenomenalna lektura i taka sumaryzacja wszystkiego, co się do tej pory ciekawego zdarzyło, też operująca na bardzo ciekawych kejsach, nie tylko o Uberze, o którym wszyscy mówią, ale o takich właśnie, można powiedzieć, mniej znanych przykładach.</p>
<p><b>Vladimir:<br /></b>Brzmi bardzo ambitne. Książka będzie podlinkowana do notatek. A powiedz Ola, gdzie dokładnie pracujesz i czym się zajmujesz. Fajnie będzie, jeśli podasz przykłady, bo wydaje mi się, że dla wielu osób nadal ta cała terminologia jest nieco tajemnicza.</p>
<p><b>Ola:<br /></b>Jasne. Zajmuję się, tak jak powiedziałam wcześniej, sztuczną inteligencją, ale oczywiście, to jest ogromne pole badawcze, i w jego ramach, każdy może znaleźć dla siebie miejsce. W tej chwili mamy dwa projekty, które prowadzimy właśnie na MIT.</p>
<p>Ale też <a href="http://www.kozminski.edu.pl/pl/" target="_blank" rel="nofollow noopener noreferrer">Koźmiński</a>, czyli moja macierzysta uczelnia w Warszawie, bardzo mnie wspiera. To są projekty, które są związane, po pierwsze, z interakcją człowieka, między maszyną a człowiekiem. Badamy czy też robimy eksperymenty naukowe, które pozwalają nam zobaczyć, jak ludzie komunikują się, na przykład, z czymś takim jak Siri i jak ich ciało na to odpowiada. To znaczy, jakie reakcje afektywne albo emocjonalne budzi interakcja z maszyną tego typu.</p>
<p>Takich sprzętów jest, rzeczywiście, coraz więcej. Alexa, Siri, Cortana, coraz więcej mamy wirtualnych asystentów do obsługi klienta, coraz częściej wchodzimy w komunikację przez telefon czy online rozmaitymi botami różnych firm. Czasami po prostu dla fun&#8217;u, tak jak to jest na Messengerze.</p>
<p>Ostatnio też powstał taki projekt jak <a href="https://replika.ai/" target="_blank" rel="nofollow noopener noreferrer">Replika</a>. Replika your AI friends, czyli twój przyjaciel &#8211; sztuczna inteligencja, z którym się po prostu konwersuje swobodnie.</p>
<figure id="attachment_441" aria-describedby="caption-attachment-441" style="width: 1238px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-441" src="https://biznesmysli.pl/wp-content/uploads/2017/07/replica.jpg" alt="Replika is your AI friend that you teach and grow in conversations." width="1238" height="569" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/replica.jpg 1238w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-300x138.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-1024x471.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-768x353.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/replica-1140x524.jpg 1140w" sizes="(max-width: 1238px) 100vw, 1238px" /><figcaption id="caption-attachment-441" class="wp-caption-text">Replika is your AI friend that you teach and grow in conversations.</figcaption></figure>
<p>I nas ten rozwój botów rzeczywiście bardzo zainteresował. I postanowiliśmy wspólnie z <a href="http://swps.academia.edu/LeonCiechanowski" target="_blank" rel="nofollow noopener noreferrer">Leonem Ciechanowskim</a>, gdzie są znakomici specjaliści od badania sygnału psychofizjologicznego, po prostu sprawdzić, jakiego typu afekty, jakiego typu odpowiedzi (można powiedzieć emocjonalne) generują się podczas interakcji z takim botem.</p>
<p>To znaczy, czy to jest inne od interakcji z ludźmi, czy to się jakoś zasadniczo różni od tego jak rozmawiamy sobie z dowolną osobą, którą znamy, czy to jest właściwe interakcja bardzo podobna do interakcji z ludźmi, z punktu widzenia tego jak to emocjonalnie odbieramy. I to jest taki jeden duży projekt, w którym w tej chwili siedzimy, grzebiemy. A drugi projekt, który realizujemy, to jest projekt z zakresu właściwie IoT i internetu rzeczy i technologii ubieralnych.</p>
<p>Właściwie można powiedzieć, przeprowadzamy swoiste crash-testy takich technologii ubieralnych kolejnej generacji. To znaczy interesują nas nie jakieś proste reaktywności, jakich jest bardzo wiele teraz, z których wiele ludzi korzysta, mają jakieś opaski na rękę, z nimi biegają, one im liczą kalorie itd&#8230;</p>
<p>Nas interesują, można powiedzieć, bardziej wyrafinowane sprzęty, mianowicie, interesują nas headbandy. Czyli takie opaski na głowę, które dokonują pomiaru takich rzeczy, które kiedyś jeszcze właściwie były nie do wyobrażenia, że można je mierzyć. Tak jak, na przykład <a href="http://www.choosemuse.com/" target="_blank" rel="nofollow noopener noreferrer">muse</a>, poziom stresu albo poziom koncentracji. Być może można było coś takiego zmierzyć w laboratorium, ale nikt żaden konsument nie mógł sobie indywidualnie tego zrobić. To są opaski do indywidualnego użytku.</p>
<p><iframe title="CES 2016: Meditating with the Muse Headband" width="960" height="540" src="https://www.youtube.com/embed/NZ1TtFw3xIo?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Za ich pomocą też chcemy przeprowadzać rozmaite eksperymenty, ale też po prostu pracujemy nad tym, żeby je rozwijać, żeby zwiększać ich funkcjonalności. Taką opaską, którą w tej chwili się zajmujemy. To jest opaska, która służy do badania poziomu koncentracji i do tego, żeby ten poziom koncentracji zwiększać. Ma taką dodatkową aplikację z botem, która doradza w jaki sposób trzeba działać, żeby być bardziej skoncentrowanym. To jest taki sprzęt, który rzeczywiście w tej chwili testujemy na MIT.</p>
<p><b>Vladimir:<br /></b>Tyle rzeczy! Zaraz będę o to wszystko dopytywał. Ale najpierw jeszcze może zapytam o Twoją własną książkę, którą napisałaś &#8222;<a href="http://www.empik.com/istoty-wirtualne-jak-fenomenologia-zmieniala-sztuczna-inteligencje-przegalinska-aleksandra-k,p1134413375,ksiazka-p" target="_blank" rel="nofollow noopener noreferrer">Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję</a>&#8222;. Do kogo jest ta książka skierowana i jakie tematy tam poruszasz? Bo ja tę książkę dopiero też znalazłem, przyznam szczerze, pewnie chciałbym ją przeczytać. Więc podziel się więcej, co możemy w niej znaleźć.</p>
<p><b>Ola:<br /></b>Książka jest taką bardzo zmienioną, popularyzowaną wersją mojego doktoratu. Doktorat, oczywiście, o sztucznej inteligencji, ale był pisany na wydziale filozofii. Tam można spodziewać się trudnej terminologii,  która na początku, dla osób które nie mają tego backgroundu, będzie mniej zrozumiała, ale przez to można szybko przebrnąć. Książka, w zasadzie, dla wszystkich.</p>
<p>Książka jest podsumowaniem tego, co się działo w sztucznej inteligencji, jakie kolejne paradygmaty w tym projekcie sztucznej inteligencji następowały, jakie będą następowały, czyli jakich możemy się spodziewać. Tutaj też podaję przykłady o różnych sposobach, w jakich można rozwijać sztuczną inteligencję. Nie na takim bardzo inżynieryjnym poziomie ostatnim, tylko na poziomie koncepcyjnym.</p>
<p>Sztuczna inteligencja to jednak ogromny projekt intelektualny, to nie są tylko praktyki inżynieryjne, ale to jest też jakiś taki duży paradygmat, który mówi nam o tym, jak stworzyć maszynę, która będzie w jakiś sposób podobna do człowieka, jak do tego doszłoby, gdyby to się udało, i w którą stronę powinniśmy się kierować. Jakiego typu funkcje ludzkie, funkcje inteligencji człowieka trzeba by było odtwarzać, żeby ta maszyna faktycznie była do nas podobna, albo żeby mogła ją cechować jakaś forma inteligencji. I w tym projekcie sztucznej inteligencji od lat 50., 40. ubiegłego wieku, różne na to pomysły były.</p>
<p>Staram się czytelnika przez to przeprowadzić, czyli każdy, kto jest zainteresowany sztuczną inteligencją, może to przeczytać. Dalej, właśnie, od strony też paradygmatów różnych, można powiedzieć, filozoficznych, bo to jest duży metafizyczny, filozoficzny projekt. Dzisiaj, może ludzie którzy się zajmują IT, nie do końca tak o tym myślą, ale dla badaczy sztucznej inteligencji, to jest dosyć jasne. Za tym projektem stoją zbyt silne założenia dotyczące tego, jak poznajemy, jak myślimy, my jako ludzie, jak możemy to odtwarzać na maszynie.</p>
<p>Staram się w swojej książce to pokazać, to jakoś zilustrować i pokazać, jakie różne etapy sztucznej inteligencji przechodziła, bo na początku chcieliśmy budować maszyny, które będą najlepiej grały w szachy, potem zmieniliśmy zdanie i chcieliśmy budować maszyny, które będą potrafiły poruszać się w przestrzeni fizycznej, czyli będą potrafiły sobie jakoś radzić z takimi bolączkami codzienności, chodzić, odpowiadać na bodźce zewnętrzne. To są dwie różne koncepcje sztucznej inteligencji. I staram się pokazać, która zwyciężyła i dlaczego, jaki jest stan wiedzy na dzisiaj, jak możemy te wiedzy dalej rozwijać, jakie są kolejne wyzwania, co należałoby zrobić chociażby w obszarze botów, żeby te boty faktycznie stały się takimi bardzo zaawansowanymi maszynami.</p>
<p><b>Vladimir:<br /></b>Rozumiem, że ta książka nadaje się dla wszystkich osób, które się interesują sztuczna inteligencją i&#8230;</p>
<p><b>Ola:</b>&#8230;rozwojem technologii również.</p>
<p><b>Vladimir:<br /></b>Teraz zadam najważniejsze pytanie dzisiejszej rozmowy, później to będzie wszystko dookoła. Pytanie jest takie, czym jest osobliwość i czy należy jej się bać.</p>
<p><b>Ola:<br /></b>No tak, mogłam się spodziewać <img src="https://s.w.org/images/core/emoji/14.0.0/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Czym jest <a href="https://pl.wikipedia.org/wiki/Technologiczna_osobliwo%C5%9B%C4%87" target="_blank" rel="nofollow noopener noreferrer">osobliwość</a>? To zależy od definicji. Czym czy kim, to też jest dobre pytanie. Jest osobliwość w matematyce, która jest oczywiście zupełnie innym fenomenem niż tym, którym się zajmujemy. W kontekście sztucznej inteligencji, osobliwość &#8211; to jest taki punkt,  wyspekulowany dosyć, niejasny, kiedy on nastąpi w przyszłości, kiedy maszyna właśnie osiągnie co najmniej ludzkie kompetencje.</p>
<p>To znaczy będzie intelektualnie sprawna tak samo jak człowiek, będzie cechować  być może także samoświadomością, czyli stanie się jakby czymś, na pewno z nami porównywalnym. I dlatego to się nazywa osobliwość, bo nie wiemy co dalej od tego punktu może nastąpić. To znaczy że to będzie punkt osobliwy w historii cywilizacji człowieka, dlatego że on wszystko zmieni. Nie było nigdy nic takiego. Nic takiego się nie zdarzyło. Singular, takie wyjątkowe, prawda. Bo Singularity, to jest angielski ekwiwalent osobliwości polskiej. I to jest taki moment, od którego bardzo trudno przewidzieć, co się może zdarzyć, bo tutaj pojawia się wtedy taki gracz na świecie, na Ziemi, który będzie zupełnie poza nami.</p>
<p><iframe title="What Is The Singularity? | Brit Lab" width="960" height="540" src="https://www.youtube.com/embed/8MVrtJdrYtA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To znaczy, w jakimś sensie będzie, być może, nie do przewidzenia w jaki sposób on rozegra swoją relację z nami, z ludźmi. Więc tak naprawdę, ta osobliwość &#8211; to jest swego rodzaju zagadka. Też czasami mówi się &#8222;osobliwość&#8221; o maszynie osobliwej, czyli właśnie o takiej sztucznej inteligencji, która będzie już na ludzkim poziomie, a nawet na wyższym poziomie niż człowiek, przekracza kompetencje człowieka. I wtedy dojdzie do jakiejś takiej reorganizacji tego jak funkcjonują nasze społeczeństwa, jak funkcjonujemy, jak gospodarki nasze funkcjonują. To jest taki po prostu moment, absolutnie przełomowy, który nie jest porównywalny z niczym, co my do tej pory, jako cywilizacja, przeżywaliśmy.</p>
<p>Natomiast nie wiemy, kiedy ono nastąpi. Są tacy ludzie, jak <a href="https://en.wikipedia.org/wiki/Ray_Kurzweil" target="_blank" rel="nofollow noopener noreferrer">Ray Kurzweil</a>, którzy mówią, że to będzie za 20 czy 30 lat, on tę datę też przesuwa trochę.</p>
<p><iframe title="Michio Kaku &amp; Ray Kurzweil - Singularity is Close!" width="960" height="540" src="https://www.youtube.com/embed/qSUo9IEcYUU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Są inni, którzy mówią że bardziej za 100. A jeszcze są inni którzy mówią że, żeby maszyna stała się osobliwa, to musi przejść jednak proces ewolucji, i nawet gdyby on miał być spakowany bardzo mocno w stosunku do tego, jak myśmy się ewolucyjnie rozwijali, to tak czy siak, to nie będzie mniej niż 1000 lat. Więc do spekulacji jest wiele, są oczywiście też tacy, którzy mówią, że osobliwość nie nastąpi, bo nie da się stworzyć świadomej maszyny.</p>
<p>Da się stworzyć inteligentną być może, ale samoświadomą, taką podmiotową, która będzie myślała o sobie jako o Ja, dodam że, takiej to nie da się zbudować, bo po prostu nie mamy do tego kompetencji, ona się sama nie wyłoni. Jest dużo dyskusji, debat na ten temat czy to się zdarzy i czy należy się tego bać. Prawdę mówiąc, mam takie stanowisko dosyć realistyczne. To znaczy, jeżeli mówi się ludziom, że się powinni bać, to oni wtedy naturalnie reagują, tak że ten projekt należy zatrzymać. Uważam, tak zupełnie pragmatycznie, że projektu rozwoju sztucznej inteligencji po prostu zatrzymać się nie da.</p>
<p>Nawet, jeśli ktoś gdzieś powie &#8222;pas&#8221;, amerykanie czy my, to być może chińczycy nie powiedzą &#8222;pas&#8221;, bo będą chcieli dalej rozwijać sztuczną inteligencję, bo będzie do czegoś tam potrzebna w medycynie, przemyśle, gdziekolwiek. I w związku z tym, tego projektu nie da się zatrzymać. Więc zamiast się bać i myśleć o nim w takich kategoriach panicznych &#8211; &#8222;uciekamy&#8221;, to po prostu trzeba do niego podejść tak na spokojnie, na chłodno i się do niego dobrze przygotować (do tego procesu). Przede wszystkim, musimy coraz bardziej upowszechniać wiedzę na temat tego, jaki jest stan rozwoju sztucznej inteligencji. On, wbrew pozorom, nie jest aż tak bardzo zaawansowany, jest masa zagadek, jest bardzo dużo trudności w tym projekcie. Mówimy naprawdę o bardzo wczesnym etapie.</p>
<p>Tak uważam, bo gdzieś pracuję w tym obszarze, ale trzeba zdecydowanie społeczeństwo uświadamiać i powinniśmy odbyć szereg debat, dotyczących tego jak i w jaką stronę chcemy sztuczną inteligencję kształtować. Bo to może być tak, że to będą inteligentne systemy, które będą asystowały człowiekowi, będą optymalizowane szeregi procesów i, oczywiście, zmienią nasze społeczeństwo, ale nie dojdzie do punktu żadnej konfrontacji. Natomiast oczywiście, że gdzieś tam kupuje (inkubuje) się jakaś forma taka, która będzie wykorzystana chociażby jeszcze przez człowieka w złych celach. Już będzie inteligentna, ale nie będzie miała podmiotowości woli  jeszcze.</p>
<p>Jakiś tam, powiedzmy, ego-maniacki polityk postanowił ją wykorzystać w jakichś swoich niecnych celach. Mam wrażenie że im bardziej projekt sztucznej inteligencji jest wspólny dla całego społeczeństwa, tym jest bezpieczniejszy, a im bardziej jest pochowany po jakichś wyjątkowych, bardzo szczególnych, nielicznych labach (laboratoriach) i ludzie nie rozumieją, bo oni się go boją, tym zasadniczo gorzej. Taka jest moja odpowiedź, nie wiem, czy ona jest jednoznaczna, ale bym powiedziała że nie należy się bać, ale należy po prostu bardzo uważnie się przyglądać i coraz bardziej w ten projekt wchodzić.</p>
<p><b>Vladimir:<br /></b>Poruszyłaś bardzo ciekawy temat, a zwłaszcza to, nawet jeżeli ktoś będzie chciał to zatrzymać, to jednak to jest niemożliwe. Ostatnio czytałem takie badania, na temat kiedy właśnie ten punkt nastąpi, i są różne poglądy. Ciekawostką jest to, że właśnie naukowcy z Chin zwykle szacują to, że ten punkt nastąpi kilkadziesiąt lat wcześniej. Co jest ciekawe, dlaczego tak uważają, niewiadomo.</p>
<figure id="attachment_449" aria-describedby="caption-attachment-449" style="width: 1208px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-449" src="https://biznesmysli.pl/wp-content/uploads/2017/07/china.jpg" alt="Naukowcy z Chin chyba wiedzą coś więcej..." width="1208" height="1031" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/china.jpg 1208w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-300x256.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-1024x874.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-768x655.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/china-1140x973.jpg 1140w" sizes="(max-width: 1208px) 100vw, 1208px" /><figcaption id="caption-attachment-449" class="wp-caption-text">Źródło.</figcaption></figure>
<p>Też jest ciekawe to że to całe środowisko naukowe w Chinach jest raczej dość zamknięte. Oni czasem coś piszą, ale takie bardzo minimalne informację co dokładnie się tam dzieje. Ale tam naprawdę się dzieje wiele ciekawych rzeczy, więc nie da się tego zatrzymać. Z tym się zgadzam w stu procentach.</p>
<p>Zapytam teraz coś konkretnego. Zapytałem najpierw o przyszłość,  więc zapytam teraz o tym, co mamy. A właśnie, które rozwiązania albo tendencje sztucznej inteligencji najbardziej cię zaskoczyła albo nadal zaskakuje?</p>
<p><b>Ola:<br /></b>Jeszcze jakiś czas temu bym powiedziała, że to, co robi <a href="https://www.bostondynamics.com/" target="_blank" rel="nofollow noopener noreferrer">Boston Dynamics</a> jest dla mnie poruszające. W każdym wymiarze, to jest tak zwana ucieleśniona sztuczna inteligencja czy też cielesna. Czyli stworzenie sieci sensorów, które pozwalają nam badać w jaki sposób otoczenie zewnętrzne może się do niego dostosowywać i po nim się poruszać. Nie wiem czy Ty znasz tę robotę?</p>
<p><iframe title="Introducing Handle" width="960" height="540" src="https://www.youtube.com/embed/-7xvqQeoA8c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Vladimir:<br /></b>Tak, bardzo polecam też filmik, nie wiem jak się nazywa ten robot, taki pies, który tam skacze, biega&#8230;</p>
<p><b>Ola:<br /></b>Tam jest <a href="https://www.youtube.com/watch?v=rVlhMGQgDkY" target="_blank" rel="nofollow noopener noreferrer">Atlas</a>, jest <a href="https://en.wikipedia.org/wiki/BigDog" target="_blank" rel="nofollow noopener noreferrer">BigDog</a>, tych projektów jest bardzo dużo.</p>
<p><iframe title="Atlas, The Next Generation" width="960" height="540" src="https://www.youtube.com/embed/rVlhMGQgDkY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Ten o którym mówisz to chyba jest Bigdog.</p>
<p><iframe title="BigDog Overview (Updated March 2010)" width="960" height="540" src="https://www.youtube.com/embed/cNZPRsrwumQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Generalnie to są niesamowite maszyny, bo inteligencia cielesna to jest jedna z moich ulubionych odłamów sztucznej inteligencji. Inteligencja oparta na sensorach, na odkrywaniu tego, czym jest percepcja, stymulowanie tej percepcji na maszynie. Fenomenalne jakieś pole badawcze. Na początku, oczywiście, miały być jakieś tam drony, które będą też wykorzystywane bojowo. Ktoś zamówił u Boston Dynamics taki projekt, bodajże DARPA czyli Amerykańska agencja obrony. Potem się okazało, że być może mają bardziej konsumenckie zastosowanie.</p>
<p>Na przykład mogą przynosić bardzo ciężkie paczki w magazynach Amazona. W zasadzie wydaje mi się, że to bardziej idzie w konsumencką stronę, niż w taką typowo bojową.</p>
<p>Co mnie, jako osobę o usposobieniu pacyfistycznym, bardzo cieszy. I to są faktycznie strasznie ciekawe projekty. To znaczy, że poziom sztucznej inteligencji cielesnej w ciele jest bardzo wysoki. Jakiś czas temu odkryłam to z wielkich zafascynowaniem, bo wydawało mi się że to jest bardzo trudne. Tam jest szereg trudnych problemów filozoficznych, ale też i inżynieryjnych, które bardzo trudno rozwiązać. I okazało się, że ta firma jest w stanie jakoś się przekroczyć i budować maszyny, które sobie w zewnętrznym środowisku radzą, nie wywracają się.</p>
<p>Tak jak słynny robot Hondy jeszcze jakiś czas temu. Miał przejść kilka schodków i to miał być wielki przełom sztucznej inteligencji. Potknął się na drugim schodku i upadł, a Japończycy tam płakali. To tak wyglądało bardzo długo.</p>
<p>Takie typowe zadania, które wydawały się rutynowe, takie jak: umyj okno czy przejdź, one po prostu z tym sobie nie radziły. To wynika z określonych ograniczeń oprogramowania, braku wiedzy ludzkiej jak to zrobić. I nagle się pojawia maszyna która po prostu skacze jak pies czy małpa. Chodzi jak krowa, chodzi również jak człowiek (do pewnego stopnia). Można próbować jej podstawić nogę, ona to ominie. Ona naprawdę jest zwinna. I to było dla mnie wielkie odkrycie i wielka radość.</p>
<p>Kolejnym projektem, którym dzisiaj fascynuję się to jest deep learning czy głębokie uczenie maszynowe. Widzieliśmy popis deeplearning’u kiedy AlphaGo, program komputerowy, wygrał z mistrzem tradycyjnej Chiński gry Lee Seedolem. I wygrał w taki sposób, w jaki nie wygrał żaden człowiek. Wygrał inaczej niż wygrywają ludzie ze sobą. Nie jestem specjalistą od Go, ale trochę na ten temat czytałam, też pytałam się ludzi którzy w Go grają.</p>
<p><iframe title="Match of the century - Lee Sedol vs Alpha Go" width="960" height="540" src="https://www.youtube.com/embed/I2WFvGl4y8c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Którzy tę grę analizowali, i oni mówią, że: &#8222;Niezwykłe było to, w jaki sposób ten program prowadził grę i jakie były jego kolejne posunięcia. Że to było posunięcie właśnie z niskiego porządku myślenia&#8221;. AlphaGo w pewien sposób cechował się oryginalnością i kreatywnością w tych swoich rozwiązaniach. Chociaż też, z drugiej strony czasem robił głupie błędy których nie popełnił żaden człowiek. Czyli widać że to maszyna gra, inaczej gra.</p>
<p>Dla mnie to jest punkt przełomowy, który pokazuje, że te możliwości deeplearning&#8217;u są bardzo duże. I że w tym obszarze będą się działy bardzo ciekawe rzeczy, które każą nam, chyba niebawem, zakwestionować właśnie to, że uważamy, że jesteśmy jedynymi bardzo kreatywnymi czy też w ogóle kreatywnymi istotami. To oczywiście nieprawda, bo zwierzęta również są kreatywne w dużej mierze. Ale na pewno nie uważaliśmy że kreatywne mogą być maszyny. Nawet kiedy boty pisały wierszyki jakiś czas temu, to się wydawało że to jest zwykłe generowanie linijek, które czasem do siebie pasują, a czasem nie. Nas to śmieszy. A dzisiaj mamy rozwiązania głębokiego uczenia maszynowego, które każą nam to zakwestionować. Rzeczywiście IBM Watson jest kolejnym przykładem, który robi trailery filmowe, który ma szereg rozmaitych zastosowań analitycznych. Niewątpliwie, w jakiś sposób, jest maszyną inteligentną. To są rzeczy które mnie bardzo interesują i inspirują.</p>
<p><b>Vladimir:<br /></b><a href="https://deepmind.com/research/alphago/" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">AlphaGo</a> faktyczne zrobiło bardzo kreatywne zagranie i widać było że gra inaczej niż ludzie. Jako ciekawostkę warto dodać, że Lee Seedol też zaczął grać inaczej, niż grał przedtem. To też było bardzo fajnie opisane, dlaczego tak uważano. To wszystko było mierzone i prawdopodobieństwo tego, że Lee Seedol zrobi taki czy inny krok było przewidywane. I on robił takie rzeczy, których nie robiłby, jeżeli grałby z człowiekiem. Można powiedzieć, że kreatywność komputerowa, również wpływa na kreatywność ludzką. To jest ciekawe.</p>
<p><b>Ola:<br /></b>Niewątpliwe, że on musiał dostosowywać swoje strategie. To prawda. Nie wiem, czy zaznajamiałeś się z literaturą. Tutaj jest szereg ciekawych rzeczy. Po pierwsze, że on był przekonany, że zwycięży. W zasadzie tak jak inni w ogóle nie uważali, że on powinien się cechować taką pewną siebie postawą.</p>
<p>On sam właśnie był przekonany, że on zdecydowanie tutaj zwycięży i to w cuglach. Jeszcze pół roku wcześniej, była pierwsza próba rozegrania z innym mistrzem gry, przez właśnie AlphaGo, i wtedy tej wersji AlphaGo bardzo źle poszło. AlphaGo w międzyczasie ogromnie się rozwinął właśnie dzięki deepleerning&#8217;owi. Dzięki analizie ogromnej ilości przypadków grania, takie które jest niedostępna człowiekowi. Bardzo się zmienił w tym czasie (od pierwszej gry). Lee Seedol podszedł do tego na luzie. Myślał że wygra i ewentualnie ta maszyna jedną partyjkę sobie ugra.</p>
<p>Okazało się, że po prostu praktycznie został zmieciony z powierzchni Ziemi, to zwycięstwo było walne. Wiem, że w międzyczasie on po prostu się załamał, powiedział że tak nie gra. Potem powiedział, że spróbuje się dostosować, przestawić na logikę maszyny.</p>
<p>No to się nie do końca powidło, chociaż jedną partię wygrał. Także to jest bardzo ciekawe, ta walka człowieka z maszyną, jako zjawisko, jest fascynująca. Ale inną rzeczą, która jest bardzo ciekawa, jeżeli chodzi o AlphaGo, to jest to, że deep learning, jako dziedzina, człowiekowi trochę wymyka. Z jednej strony wiemy jak robić deep learning, ale z drugiej strony nie wiemy jak dochodzi do uczenia się, to dla nas jest w pewnym rodzaju &#8222;blackbox&#8221;.</p>
<p><iframe title="AlphaGo and the future of Artificial Intelligence - BBC Newsnight" width="960" height="540" src="https://www.youtube.com/embed/53YLZBSS0cc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To znaczy możemy generować sobie określone rezultaty których chcemy, czyli możemy wytrenować maszynę, żeby coś potrafiła. Dostaniemy wysoki wskaźnik kompetencji sieci neuronowej, czyli ona robi dokładnie to, czego sobie życzymy i robi to dobrze, sprawnie, trafnie, adekwatnie. Natomiast, już coraz mniej wiemy, nie jeżeli chodzi o zwykłe uczenie maszynowe, a jeżeli chodzi o głębokie uczenie maszynowe. Jak to się faktycznie dzieje że tam do tego uczenia dochodzi.</p>
<p>Skąd się ta kreatywność cała bierze. I to jest bardzo ciekawe, bo może się tak zdarzyć kiedyś w przyszłości, że ta osobliwość nastąpi, a my tego nawet nie zauważymy. To jest trudny do przełknięcia scenariusz, ale patrząc na dzisiejszy rozwój deep learningu &#8211; możliwy. Ostatni cały numer MIT Technology ubiegłego tygodnia był temu poświęcony, żeby po prostu zrozumieć co się dzieje w deep learningu. Że człowiek musi nabrać kompetencji nie tylko do wywoływania określonych rezultatów (budowanie modele), ale również zrozumieć proces jak maszyna uczy się. Musi po prostu zacząć rozumieć ten cały proces i uważam że to jest bardzo ważne. Jeśli chodzi o obawianie się osobliwości, to to jest kluczowe zadanie w tej chwili.</p>
<p><b>Vladimir:<br /></b>Tak to prawda! Ostatnio właśnie czytałem kilka prac naukowych na temat zrozumieniu jak działa uczenie maszynowe. W to angażują się, wszyscy duzi gracze. <a href="https://deepmind.com/" target="_blank" rel="nofollow noopener noreferrer">Deep Mind</a>, <a href="https://research.google.com/teams/brain/" target="_blank" rel="nofollow noopener noreferrer">Google Brain</a> (obaj należą do Google, ale działają niezależnie)</p>
<figure id="attachment_448" aria-describedby="caption-attachment-448" style="width: 600px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-448" src="https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia.jpg" alt="Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów" width="600" height="600" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia.jpg 600w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-150x150.jpg 150w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-300x300.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/nvidia-100x100.jpg 100w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption id="caption-attachment-448" class="wp-caption-text">Nvidia próbuję lepiej zrozumieć dezycji samojezdnych samochodów. <a href="https://www.technologyreview.com/s/604324/nvidia-lets-you-peer-inside-the-black-box-of-its-self-driving-ai/" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>.</figcaption></figure>
<p>To przejdźmy teraz do kolejnych tematów, żeby zdążyć wszystko omówić. Kim jest bot Ola i gdzie można go znaleźć?</p>
<p><b>Ola:<br /></b>Bot Ola w tej chwili już się schował, ale można było go do niedawno znaleźć, pewnie będzie można również w przyszłości, na stronie Leona Koźmińskiego. Gdzie służył jako doradca wirtualny w dziekanacie dla naszych studentów. Najpierw tego bota testowaliśmy na uczelni przez rok. Miał moje imię ale co do zasady działał właśnie jako pracownik wirtualnego dziekanatu i odpowiadał na pytania studentów dotyczące rekrutacji itd. Wtedy, w pewnym sensie trenował żeby być coraz lepszym. Poprawiliśmy bazę danych, widząc czego studenci szukają i potrzebują. Potem bota już wzięliśmy na warsztat do naszych badań naukowych. Po roku przebywania na stronie, on został przez nas wykorzystany w naszym naukowym badaniu, które dotyczyło właśnie interakcji człowiek-bot.</p>
<p>Po prostu trzeba było znaleźć grupę ludzi którzy chcieli w tym eksperymencie wziąć udział. To nie było specjalnie trudne. Potem podpinaliśmy ich pod szereg różnych sensorów, elektrod, żeby zrozumieć ich reakcje emocjonalne podczas interakcji z botem. Zadawaliśmy im różne zadanie, żeby oni wspólnie z tym botem wykonali. Oni wykonywali te zadania, czasami krócej, czasami dłużej. My w tym czasie patrzyliśmy na to co się dzieje i jak ciało odpowiada. Jaki sygnał fizjologiczny wysyła. Czy jest stres? Czy jest spokój?</p>
<p>W jaki sposób to ciało odpowiada, a potem jeszcze pytaliśmy uczestników. Mieliśmy szereg ankiet, łączyliśmy odpowiedzi afektywne czyli psycho filozoficzne sygnały z deklaracjami które ludzi złożyli. Na tej podstawie próbowaliśmy sprawdzić czy się podoba i jaka wersja bota podoba się. Mieliśmy dwie wersji do testów, jedna była czysta tekstowa, a druga była z awatarem i głosem. Sprawdzaliśmy która wersja jest bardziej dla naszych użytkowników akceptowalna. Która bardziej się podoba, a która może budzić jakieś lęki czy obawy. Myślę że to jest ważne, bo odpowiedzieliśmy na szereg istotnych pytań badawczych, ale też przy okazji, może mam taką nadzieję, przysłużyliśmy się trochę biznesowi. W tym sensie że pomagamy mu tworzyć takie maszyny które będą u ludzi budzić pozytywne reakcje, a nie negatywnie.</p>
<p><b>Vladimir:<br /></b>Pod koniec lat siedemdziesiątych Japoński naukowiec Mori Masahiro przeprowadził bardzo ciekawy eksperyment. Badając jakie powstają u ludzi emocje na widok robota. Początki eksperymentu były dość proste.</p>
<figure id="attachment_445" aria-describedby="caption-attachment-445" style="width: 450px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-445" src="https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci.jpg" alt="Dolina niesamowitosci" width="450" height="353" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci.jpg 450w, https://biznesmysli.pl/wp-content/uploads/2017/07/dolina_niesamowitosci-300x235.jpg 300w" sizes="(max-width: 450px) 100vw, 450px" /><figcaption id="caption-attachment-445" class="wp-caption-text">Dolina niesamowitosci. <a href="http://www.asimo.pl/teoria/dolina_niesamowitosci.php" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">Źródło</a>.</figcaption></figure>
<p>Bardzo liniowe. Czym bardziej realistyczny robot, tym większą sympatię budził u człowieka. Natomiast w pewnym momencie osiągnęli taki poziom, który teraz nazywa się &#8222;<a href="https://en.wikipedia.org/wiki/Uncanny_valley" target="_blank" rel="nofollow noopener noreferrer">uncanny valley</a>&#8221; albo po polsku &#8222;<a href="https://pl.wikipedia.org/wiki/Dolina_niesamowito%C5%9Bci" target="_blank" rel="nofollow noopener noreferrer">dolina niesamowitości</a>&#8222;.</p>
<p><iframe title="The Uncanny Valley" width="960" height="720" src="https://www.youtube.com/embed/CNdAIPoh8a4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Nawet nie do końca wiadomo dlaczego to powstaje, aczkolwiek wiadomo, że jak widzimy robota który jest podobny do człowieka. To zwykle możemy przestraszyć się robota. Czujemy się dość niekomfortowo, czujemy  jakieś strachy i inne dziwne emocje. Bardzo gorąco polecam słuchaczom sprawdzić to na własnej skórze np. można zobaczyć robota Kismet, które wcale nie przypomina człowieka jest taki zabawny. Natomiast roboty takie jak Bina 48 albo Sofia. One są bardziej podobne do człowieka i tym bardziej wprowadzają zamieszanie i zwykle człowiek czuje się mało komfortowo.</p>
<p><iframe title="How Kismet Works" width="960" height="720" src="https://www.youtube.com/embed/Kw-gOmJwzuc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><iframe title="Bina 48 Meets Bina Rothblatt - Part Two" width="960" height="540" src="https://www.youtube.com/embed/G5IqcRILeCc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><iframe title="Hot Robot At SXSW Says She Wants To Destroy Humans | The Pulse" width="960" height="540" src="https://www.youtube.com/embed/W0_DPi0PmF0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Czy myślisz, że dolina niesamowitości może zniknąć kiedyś w przyszłości? Czy to nie jest tak że to zależy od pokolenia? Na przykład nasze pokolenie, raczej już będzie miało ten problem, no chyba że ktoś bardzo będzie pracował nad tym. Ale pokolenie naszych dzieci i jeszcze niżej, już tego problemu wcale może nie mieć.</p>
<p><b>Ola:<br /></b>To jest bardzo ciekawe pytanie, które mnie również badawczo interesuje. W związku z tym mogę polecić, publikację którą wydaliśmy. Ona nazywa się <a href="http://www.academia.edu/33792779/The_Necessity_of_New_Paradigms_in_Measuring_Human-Chatbot_Interaction" target="_blank" rel="nofollow noopener noreferrer">The Necessity of New Paradigms in Measuring Human-Chatbot Interaction</a>. Również mogę pokazać, jak my to badaliśmy. Mam wrażenie, że dolina niesamowitości, jest w pewnym rodzaju fenomenem psychologicznym &#8211;  zmienia się.</p>
<figure id="attachment_446" aria-describedby="caption-attachment-446" style="width: 2000px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-446" src="https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48.jpg" alt="Ola rozmawia z Bina48" width="2000" height="1333" srcset="https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48.jpg 2000w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-300x200.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-768x512.jpg 768w, https://biznesmysli.pl/wp-content/uploads/2017/07/Bina48-1024x682.jpg 1024w" sizes="(max-width: 2000px) 100vw, 2000px" /><figcaption id="caption-attachment-446" class="wp-caption-text">Ola rozmawia z Bina48. <a href="https://imagazine.pl/2016/07/24/przyszlosc-komunikacji-czy-powinnismy-sie-bac-wywiad-z-dr-aleksandra-przegalinska/" target="_blank" rel="nofollow noopener noreferrer">Źródło</a>.</figcaption></figure>
<p>Wspomniałeś się o kilku różnych maszynach. My zresztą z Bina 48, humanoidalnych robotem, również pracowaliśmy  i mamy plan, żeby naszą metodologią badawczą objąć również tego robota. Ale to wiadomo, że interakcje z człowiekiem będą bardzo powikłane i trudne. Bo mamy do czynienia z maszyną która wygląda jak człowiek ale nie jest człowiekiem. Bardzo dziwnie wodzi oczami, dziwnie mówi i tak dalej, to będzie budziło lęki.</p>
<p>Myślę że to nie tędy droga, w przyszłości maszyny intelegentne raczej nie będą wyglądaly humanoidalnie, albo przynajmniej jeszcze bardzo długo nie będą humanoidalnymi robotami. Bo reakcja emocjonalna jest zdecydowanie negatywna.</p>
<p>Nas bardziej ciekawiło co się dzieje w przypadku botów. Mamy do czynienia z używaniem technologii głosowej. Taki użytkownik bardzo się waha na początku. Są pewne wersje botów czy robotów które odpowiadają im. Które nie wyglądają tak jak ludzie i ta interakcja nie sprawia dyskomfortu, że nie wiedzą czy to jest człowiek czy maszyna.</p>
<p>Nas zainteresowało to, jak w przypadku bota to może wyglądać. I rzeczywiście, zaobserwowaliśmy, że w przypadku tekstowego bota, mimo tego, że on był taki sam na poziomie inteligencji, silnika wiedzy itd.  był określony bardziej pozytywnie, niż bot który miał interakcję głosową. To oznacza, że głosowy bot budził silne reakcje emocjonalne, próbując używać lub atakować użytkownika wieloma kanałami. Ma twarz, ma głos i jeszcze coś tam chce od niego. To jest to, z czym ludzie jeszcze nie dokońca się pogodzili. Uważam, że to będzie się zmieniać. Sama ta technologia głosowa, weszła w życie mocniej teraz. Jeszcze jakiś czas temu naprawdę nie lubiliśmy tego bardzo. A teraz coraz więcej osób z tego korzysta. To jest jedna moja obserwacja.</p>
<p>A druga jest taka, że sama ekspozycja na nowe technologie też zmienia bardzo nasze postrzeganie technologii. To co dzisiaj jeszcze wydaje się bardzo dziwne i trudne do przyjęcia, to może się zmienić. W miarę kiedy technologie będą się rozwijać, kiedy będziemy wkraczać w tak zwaną<a href="https://en.wikipedia.org/wiki/Posthumanism" target="_blank" rel="nofollow noopener noreferrer"> posthumanistyczną</a> erę.</p>
<p>Sami będziemy mieli coraz więcej takich technologii na sobie, ubieralnych i rozmaitych innych. Będą się rozwijać inne obszary jak <a href="http://wyborcza.pl/TylkoZdrowie/1,137474,15832892,Nanomedycyna___jak_to_dziala__Miniroboty_podane_dozylnie.html?disableRedirects=true" target="_blank" rel="nofollow noopener noreferrer">nanomedycyna</a>. Myślę, że w ogóle będzie wzrastać akceptacja dla maszyn i dolina niesamowitości będzie się bardzo przesuwała.</p>
<p><iframe title="Animated Nanomedicine movie" width="960" height="540" src="https://www.youtube.com/embed/2VcNpl8-PRI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Chociaż z drugiej strony mam taki disclaimer, że w przypadku robotów humanoidalnych, ten silny negatywny efekt przez ostatnie kilka dekad się utrzymywał. Mimo tego, że się rozwijaliśmy, jakoś nie pokonaliśmy tej bariery strachu. Być może są takie obszary, które jeszcze bardzo długo zostaną i człowiek nie będzie chciał ich zaakceptować.</p>
<p><b>Vladimir:<br /></b>Czy według Ciebie <a href="https://pl.wikipedia.org/wiki/Test_Turinga" target="_blank" rel="nofollow noopener noreferrer">Test Turinga</a> już został zaliczony?</p>
<p><b>Ola:<br /></b>Tak! Ale ja w ogóle mam negatywny stosunek do Testu Turinga. Uwielbiam samego Turinga, cenię go ogromnie. Ale wydaję się, że test już nie ma sensu w tym momencie. Zgadywanie czy coś jest człowiekiem czy maszyną i na tej podstawie stwierdzenie czy jest inteligentny. To jest taka zabawa z przeszłości. Zabawa która poszła w złym kierunku, symulowanie, a nie rozwijanie sztucznej inteligencji. Wszyscy skupili się na tym, żeby oszukać sędziego w teście Turinga i budować takie maszyny które będą udawały ukraińskiego nastolatka, tak jak <a href="https://en.wikipedia.org/wiki/Eugene_Goostman" target="_blank" rel="nofollow noopener noreferrer">Eugene Goostman</a> który wygrał zresztą jakąś tam wersję Testu Turinga w 2014.</p>
<p><iframe title="Eugene Goostman is Your Average 13-Year-Old Artificial Intelligence" width="960" height="540" src="https://www.youtube.com/embed/OcY8xlPffcA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Bo był taki bot, który udawał ukraińskiego nostalatka w związku z tym, jego zdolność angielskiego była mniejsza, a przez to, że był nastolatkiem mniej wiedział o świecie. On wygrał za pomocą trików. Ten test Turinga, poszedł w taką stronę “trików”, żeby oszukać sędziego, a niekoniecznie zbudować coś wartościowego. Uważam, że test Turinga przez Goostmana został zaliczony.</p>
<p>Uważam, że ten paradygmat zgadywania powinniśmy za sobą zostawić i skupić się na innych wersjach tego testu. Będziemy próbowali już nie na ślepo, żeby ludzie zgadywali. Próbować budować maszyny które będą oszukiwały czy symulowały człowieka z chorobą psychiczną, więc wiadomo że ta interakcja będzie inaczej przebiegać. Tylko skupić się na głębokim uczeniu (deep learning), który umożliwi nam stworzyć swobodną interakcję. Gdzie nie będziemy się zastanawiali czy rozmawiam z maszyną czy człowiekiem. Bo to po prostu nie będzie ważne. Po prostu przekazuje nam ciekawe i ważne informację w dobry sposób albo nie. Nasze badanie też tak zostało skonstruowane. Uważa, że to jest trochę kontrowersyjne, ale według mnie jest zaliczony.</p>
<p><b>Vladimir:<br /></b>Test Turinga jest słabo sprecyzowany. Sam Turing zaproponował go w 1950, po czterech latach umarł i nie wprowadził jednoznacznych reguł. Dlatego teraz jesteśmy w takiej sytuacji, w dużym uproszczeniu, że każda uczelnia może zorganizować swój własny konkurs Turinga na własnych zasadach.</p>
<p>Tak w 2014, <a href="https://pl.wikipedia.org/wiki/Kevin_Warwick" target="_blank" rel="nofollow noopener noreferrer">Kevin Warwick</a>, znany jeszcze jako pierwszy cyborg, <a href="https://www.theverge.com/2014/6/8/5790936/computer-passes-turing-test-for-first-time-by-convincing-judges-it-is" target="_blank" rel="nofollow noopener noreferrer">uznał</a> że test Turinga został zaliczony, bazując na to, że ponad 30% badaczy uwierzyło, że Eugene jest człowiekiem. Podążając tym tropem, warto przypomnieć, że Test Turinga miał pomóc odpowiedzieć na podstawowe pytanie “czy mogą maszyny myśleć?”. <a href="https://pl.wikipedia.org/wiki/John_Searle" target="_blank" rel="nofollow noopener noreferrer">John Searle</a>, zaproponował koncepcję “<a href="https://pl.wikipedia.org/wiki/Chi%C5%84ski_pok%C3%B3j" target="_blank" rel="nofollow noopener noreferrer">Chińskiego pokoju</a>”.</p>
<p><iframe title="The Chinese Room - 60-Second Adventures in Thought (3/6)" width="960" height="540" src="https://www.youtube.com/embed/TryOC83PH1g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Ola:<br /></b>Tak, znana filozoficzna koncepcja. Ale ona nas trochę uwikłała. Chiński pokój polegał na tym, że ja mogę, jeżeli dostanę określony zestaw procedur, nawet nie znając Chińskiego, sprawnie odpowiadać w Chińskim języku. Będę wiedziała, które procedury uruchomić, żeby odpowiedzieć adekwatnie.</p>
<p>Mam wrażenie, że sztuczna inteligencja na zasadzie  “chińskiego pokoju” była konstruowana. I teraz, kiedy mamy do dyspozycji takie narzędzia jak uczenie maszynowe trzeba ten “chiński pokój” opuścić, zostawić to za sobą, nie symulować, tylko pozwolić maszynie semantycznie rozumieć co ona mówi, na przykład. W tę stronę trzeba się kierować.</p>
<p><b>Vladimir:<br /></b>Zamykając temat testu Turinga, kiedyś słyszałem takie powiedzenie: “dla mnie jest akceptowalne, że robot zaliczył test Turinga, natomiast bardzo zmartwiające, kiedy robot będzie udawał, że jeszcze nie zaliczył”. W tym rozumieniu, taki robot już miał posiadać coś, co jest bardziej zbliżone do myślenia. Jak myślisz, czy mogą być powody, żeby robot udawał coś dla nas? Jeżeli tak, to jakie mogą być powody dlatego?</p>
<p><b>Ola:<br /></b>Na razie to bardzo zależy od tego, co w nim zapiszemy, ale też bardzo zależy od tego, jakiego typu moralną architekturę zbudujemy. To jest duże zagadnienie teraz, jaką etykę wybierzemy dla maszyn. Duże zagadnienie od czasu Asimova, ale dzisiaj wyjątkowo ważne ( to bardzo widać chociażby w rozwoju autonomicznych samochodów), jak bardzo potrzebnym zagadnieniem jest budowa <i>AI effects</i> czyli etyki dla inteligentnej maszyny, bo możemy pewne rzeczy założyć.</p>
<p>Możemy stworzyć maszynę, która będzie zbudowana na wzorcach naszych zachowań. I jestem przekonana, że ona będzie nas oszukiwała, ponieważ my oszukujemy. To znaczy jeżeli będziemy modelowali swoje cechy na maszynie, to będziemy mieli taką samą maszynę jak my sami, troszeczką cwaną, czasami może zdolną do kolaboracji, ale z drugiej strony kalkulującą pod własną wygodę.</p>
<p>Taką maszynę, która będzie się zachowywała jak my.</p>
<p>Nie wiem, czy przeprowadzałeś sobie test  <a href="http://moralmachine.mit.edu/" target="_blank" rel="nofollow noopener noreferrer">Moral Machine</a>, który prowadzi MIT. To jest test o tym kogo oszczędzisz na drodze, a kogo zabijesz pod kątem inteligentnej maszyny. W sytuacjach trudnych, kiedy maszyna musi ocenić czyje życie jest bardziej wartościowe do ocalenia, bo ma dylemat i zawsze ktoś ucierpi. I w tej chwili tak to jest rozwiązywane, że ludzie ten test zasilają swoją wiedzą, oni te testy rozwiązują i potem baza wiedzy, która wynika z ich zachowań, stanowi silnik dla maszyny.</p>
<p><iframe title="Moral Machine - Human Perspectives on Machine Ethics" width="960" height="540" src="https://www.youtube.com/embed/XCO8ET66xE4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>W momencie kiedy coś takiego robimy, niewątpliwie tworzymy ontologie, zasady moralne, które są oparte na tym jak my sami funkcjonujemy. Możemy iść inaczej. Nie wiem czy możemy wyjść poza własne ograniczenia, ale możemy tworzyć maszynę, która nie będzie działała jak człowiek, w tym przynajmniej obszarze. Nie wiem na razie jak to zrobić, ale wyobrażam że jest to możliwe. I wtedy ona nie będzie zdolna do oszukiwania, bo nie będzie w jej ontologii to w jakiś sposób obecne. Czy ona później to “wykwintnie” sama, jak mogłaby to zrobić, też nie wiem. To bardzo głębokie pytanie. Myślę że jest droga taka, żeby maszyna nie oszukiwała. Myślę że powinniśmy raczej ją eksplorować niż taką, która będzie odtwarzała wszystkie ludzkie cechy, w tym ludzkie ułomności.</p>
<p><b>Vladimir:<br /></b>Mówiąc o temach etycznych, warto przypomnieć dość nowoczesną historię bota z roku 2016 o nazwie <a href="https://en.wikipedia.org/wiki/Tay_(bot)" target="_blank" rel="nofollow noopener noreferrer">Tay</a> od Microsoftu. Kiedy uczył się od ludzi i, poniewaz ludzie są różni, nauczyli, niestety, najgorszych rzeczy, zepsuli bota.</p>
<p><b>Ola:<br /></b>Nie zepsuli, tylko po prostu pokazali na co ich stać w jakiś sposób. Bot był otwarty, a oni (głównie hejterzy) zasilili go szalenie kontrowersyjną wiedzą, fake newsami i td, którą potem replikował. Po trzech dniach Microsoft zamknął go.</p>
<p><iframe title="50 Most Outrageous Racist Tweets From Microsoft&#039;s Twitter Bot &quot;TAY&quot;" width="960" height="720" src="https://www.youtube.com/embed/eTdyucscPnQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Vladimir:<br /></b>Chodźmy dalej, bo jeszcze mam kilka bardzo ciekawych pytań.</p>
<p>Ludzi zostawiają sporo, tak zwanych “cyfrowych śladów” po sobie, zaczynając od “<i>like’ów</i>” czy komentarzy na facebooku, kończąc udostępnianiem zdjęć czy ogólnie poruszanie się po sieci. Dlatego Facebook teraz wie jak my się czujemy, albo czy rozwiedziemy się w ciągu najbliższych dwóch miesięcy….</p>
<p>Pojawia się coraz więcej nowych technologii, firm, które te dane wykorzystują. Natomiast nadal ochrona danych osobowych jest dość szarą strefą. Stajemy się być coraz bardziej przezroczyści.  Nie wiem czy ktoś oglądał ostatnio film Circle, w którym ta idea była dość mocna pokazana.</p>
<p><iframe title="The Circle | Official Trailer | Own it Now on Digital HD, Blu-ray&#x2122; &amp; DVD" width="960" height="540" src="https://www.youtube.com/embed/QUlr8Am4zQ0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Pytań jest kilka, jak z tym się czujesz? Czy warto się zbuntować i być anonimową osobą (np. poprzez używanie tor’u), czy jednak zaakceptować udostępnianie danych jako konieczność? Jaka jest Twoja opinia na ten temat i czy tak naprawdę ten wybór jest tylko teoretyczny (bo zawsze możemy pójść mieszkać do jaskiń, ale dla ilu osób to jest akceptowalne)?<br /><b>Ola:</b></p>
<blockquote>
<p>Myślę że jesteśmy na etapie wykuwania jakiegoś nowego paradygmatu, jeżeli o to chodzi, bo rzeczywiście doszliśmy do ściany.</p>
</blockquote>
<p>Z jednej strony jest tak, że te wielkie zbiory danych, które wynikają z naszej sieciowej aktywności mogą nam bardzo się przysłużyć. To znaczy mogą się służyć w rozwoju, na przykład, medycyny, rozwoju wielu obszarów wiedzy i to są dane, które uczą maszyny i pozwalają im bardziej nam pomagać,  lepiej asystować. To są bardzo wartościowe dane, które popychają nas na przód.</p>
<p>Z drugiej strony jest tak, że koncept prywatności nie został całkowicie porzucony. Wiele ludzi ma zastrzeżenia do tego, jak do naszych danych, tych “śladów cyfrowych”, instrumentalnie podchodzić.  Mam wrażenie, że jesteśmy w takim punkcie, w którym wykuwają się nowe paradygmaty ochrony w sieci. Możemy się spodziewać, że po etapie kompletnie otwartego podejścia, gdzie masa firm zrobiła na naszych danych duży biznes, nie do końca swoich użytkowników o tym informowała, będziemy teraz w takim punkcie, gdzie regulator będzie wkraczał, czyli Państwo, Unia Europejska i masa innych instytucji w celu chronienia użytkownika. Żeby sieć wycinała nas na nasze życzenie, żebyśmy nie byli obiektem manipulacji na danych.</p>
<p>Uważam że przed nami jest bardzo trudny, turbulentny okres, w którym to będzie się wykuwało od nowa. Mam nadzieje że będą powstawały też nowe ciekawe innowacje. Elon Musk dał szereg funduszy czy grantów na rozwój bezpieczeństwa w sieci. Mam wrażenie, że będziemy teraz w takim punkcie, że będziemy korygować dotychczasowy kurs. Myślę, że to nie jest tak, że każdy konsument będzie musiał koniecznie zainstalować sobie <a href="https://www.torproject.org/" target="_blank" rel="nofollow noopener noreferrer">tor</a>’a albo cokolwiek innego, żeby w ogóle funkcjonować, tylko raczej będziemy szli w taką stronę, aby wszyscy w miarę bezpiecznie funkcjonowali, bo to będzie im zapewnione. Może to jest idealistyczne, ale mam wrażenie że to jest punkt zwrotny, należy ten obszar obserwować.</p>
<p><b>Vladimir:<br /></b>Nie chcę teraz wchodzić w szczegóły polityczne, bo podcast jest o czymś innym. Ale chcę pokazać moc i co można osiągnąć, mając dostęp do danych i odpowiednich technologii. Po ostatnich wyborach w Stanach Zjednoczonych, bardzo głośno stało się o tak zwayme “<a href="https://en.wikipedia.org/wiki/Microtargeting" target="_blank" rel="nofollow noopener noreferrer">microtargeting</a>u” i podobno Trump skorzystał z tego. Jaka jest Twoja opinia, czy już jesteśmy w momencie, kiedy robot nam podpowiada co mamy zrobić, żeby wpłynąć na globalne procesy? Proszę podaj przykład z życia, co dokładniej taka maszyna może doradzić, żeby to wpłynęło na odbiorców?</p>
<p><b>Ola:<br /></b>Każdy kto korzysta z Netflixa, chociażby, widzi to po systemie rekomendacji. Tak samo jak każdy, który korzysta z Amazona. To jest uczenie maszynowe, które pozwala dokładać do naszego dotychczasowego systemu wyboru jakieś potencjalne preferencje. Czyli analitykę predykcyjną stosuje na podstawie naszych dotychczasowych wyborów, analizuje co nam jeszcze warto pokazać, co by mogło nam się spodobać i prowadzi sobie rating co nam mogło bardziej się podobać, a co mniej. Każdy, kto korzysta z tego typu usług, takich jak online shopping, który ma rekomendacje doskonale zobaczy to na własnym przykładzie. Zresztą Netflix jest bardzo ciekawym przykładem. Jest szereg publikacji który dają go jako przykład, jak można zbudować system rekomendacyjny.</p>
<p>Tutaj można powiedzieć, że <i>microtargeting</i> występuje. I tak jak powiedziałeś &#8211; w wyborach. Ten kto ma dobry <i>microtargeting</i>, będzie te wybory wygrywał. To już po sytuacji z listopada z wyborem Donalda Trumpa, prezydenta USA, wyraźnie widać. Przewaga technologiczna w dużej w mierze może zdecydować o tym jak będzie wyglądała prognoza polityczna za jakiś czas.</p>
<p><iframe title="The Future Of Political Campaigns" width="960" height="540" src="https://www.youtube.com/embed/lBgHrn-TrD8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Myślę, że już teraz również politycy po tej sytuacji to bardzo dobrze zrozumieli.  To można zobaczyć na podstawie wyborów we Francji. Było tam bardzo silne przygotowanie, zwłaszcza w tematach <i>microtargeting</i> czy potencjalnego ataku hakerskiego czy rozpowszechnianie fake <i>news’ów</i>. Nasi decydenci już wiedzą, że taka przewaga technologiczna może czasami albo już coraz częściej zdecydować jak będzie wyglądała scena polityczna.</p>
<p><b>Vladimir:<br /></b>Szacuje się, że wiele miejsc pracy zostanie zastąpione przez roboty i to już w najbliższym czasie. Już teraz to się dzieje. Ostatnio Satya Nadella, CEO Microsoft, <a href="http://businessinsider.com.pl/international/about-700-microsoft-employees-will-be-laid-off-next-week-sources-say/yk35zyy" target="_blank" rel="nofollow noopener noreferrer">powiedział</a>, że szykuje kolejną fale zwolnień. Warto powiedzieć, że nie chodzi o oszczędzanie, bo Microsoft nadal w tysiącach poszukuje ludzi. Chodzi o zmianę sposobu myślenia, o zatrudnianie ludzi z odpowiednimi umiejętnościami.</p>
<p>Microsoft jest duża firmą i pewnym sensie to jest przykład, który pokazuje co będzie się działo wszędzie… Z jednej strony roboty zabiorą nam pracę, z drugiej strony stworzą wiele innych, które będę wymagały zaangażowania naszego mózgu. Mam na myśli myślenie abstrakcyjne, kreatywność czy racjonalna krytyka. Pytań jest kilka. W jaki sposób należy przygotować ludzi do tych zmian? Kolejne pytanie, które mi ostatnio również zadano, a co robić z ludźmi którzy są “przeciętni”, czyli nie mają ochoty do kreatywnego czy abstrakcyjnego myślenia. Jaką masz opinię na ten temat?</p>
<p><b>Ola:<br /></b>W rzeczywistości, my od dawna wykorzystaliśmy maszyny jako sposób optymalizacji naszej pracy, ale również zawsze obawialiśmy się. Od stu lat na pewno, z nakładem nawet, obawiamy się kolejnych maszyn które wchodzą na rynek i zabierają kolejne miejsca pracy.  Do tej pory, to rzeczywiście, zawsze było tak, i to trzeba wyraźnie powiedzieć, że technologia więcej miejsc pracy tworzyła niż zabierała. Mimo pojawiających się lęków. Zawsze było tak, że były pewne grupy, które na tym traciły i albo musiały się przekwalifikować albo schodziły z rynku pracy. Co generowało masę frustracji, co dla mnie jest zrozumiałe w 100 procentach.</p>
<p>Ale nowe technologii tworzyły nowe miejsca pracy i nowe zawody przede wszystkim. Zawód informatyka, teraz bardzo powszechny, jeszcze jakiś czas był bardzo “wąskim” zawodem, dostępnym dla małej grupy ludzi. Teraz mamy zawody jak UX Designer, specjalista od social mediów itd. To są zawody których jeszcze jakiś czas temu nie było. Podobnie będą nowe zawody. Z pojawianiem się nowych technologii, zawsze pojawiły się nowe zawody, które potrzebowały nabywania nowych umiejętności.</p>
<p>Niedawno na konferencji w Kopenhadze był zaprezentowany bardzo ciekawy <i>case </i>jak Duński rząd radzi sobie z tym, żeby ludzi przekwalifikowywać. I to rzeczywiście jest ogromny wysiłek, ale taki który się opłaca. Mamy do czynienia z taką sytuacją, po pierwsze, że jeszcze przez długi czas technologie będą tworzyły nowe miejsca pracy. Dlatego nie należy się obawiać, że te miejsca pracy całkowicie znikną. Znikną pewny zawody, ale na ich miejscu pojawią się inne zawody.  Natomiast drugą ważną rzeczą jest działanie regulatora, np. Państwa. Chronić ludzi, którzy będą narażeni na utraty miejsca pracy i danie im szansy na przekwalifikowanie.</p>
<p><iframe title="Will automation take away all our jobs? | David Autor" width="960" height="540" src="https://www.youtube.com/embed/th3nnEpITz0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>W długofalowej perspektywie zdecyduje się, czy chcemy ścieżkę tak zwanego uniwersalnego dochodu podstawowego. W przypadku takiej takiej sytuacji, kiedy automatyzacja postąpi radykalnie i będzie coraz mniej miejsc pracy dla człowieka. Zostanie tylko opieką nad innymi, gdzie będzie potrzebna inteligencja emocjonalna. Zresztą ciekawa, bo jakiś czas temu wydawało się, że takie cechy bardziej humanistyczne czy społeczne to jest kompletnie niepotrzebne, bo potrzebna jest inteligencja analityczna. Teraz mam takie wrażenie, że mamy renesans, takich wyjątkowo ludzkich przymiotów i ich potrzeby na rynku pracy. To pewne takie zawody jeszcze bardzo długo utrzymają się. Związane z opieką, ale również artystyczne. Gdzie ludzie cechują się umiejętnościami, które maszynom jest bardzo trudno powtórzyć.</p>
<p>Ale powiedzmy, że tych miejsc pracy w długofalowej perspektywie będzie ubywało. To wtedy trzeba zdecydować jak my chcemy działać. Opodatkować roboty, stworzyć uniwersalny dochód dla wszystkich, skrócić dzień pracy dla wszystkich, a jednocześnie dawać im dofinansowanie. Czasem wydaje się, że trzeba pracować straszną ilość godzin, w wielu krajach już pracuję się mniej. Mają czas na inne rzeczy. Tutaj nie chce rysować jakieś hurraoptymistycznej perspektywy, ale podeszłabym do tego, żeby trochę studzić negatywne emocje związane z tym. Jasne, że jedne zawody znikną, ale przez jakiś czas będą jeszcze powstawały nowe. Każde państwo musi zrozumieć jak ważna jest ta kwestia, jak ważną rolę pełni sztuczna inteligencja w naszym życiu. Musi odpowiednio się do tego odnieść. Każde państwo, ale również takie wspólnoty jak Unia w swoim zakresie również, powinno starać się na te wyzwania odpowiedzieć.</p>
<p><b>Vladimir:<br /></b>Mam nadzieje, że teraz nas faktycznie słuchają ludzie którzy są decyzyjni w tych tematach i będą brać na siebie odpowiedzialność. A ostatnie pytanie na dzisiaj jak można Ciebie znaleźć w sieci?</p>
<p><b>Ola:<br /></b>Można mnie dodać na “<a href="https://www.facebook.com/aleksandra.przegalinska" target="_blank" rel="nofollow noopener noreferrer">fejsie</a>”, można znaleźć na <a href="https://www.linkedin.com/in/aleksandra-przegalinska-5b17125" target="_blank" rel="nofollow noopener noreferrer">LinkedIn</a>, <a href="https://twitter.com/przegaa" target="_blank" rel="nofollow noopener noreferrer">Twitter</a>. No i pewnie, jeżeli ktoś chciałby poszukać moje publikację to polecam wyszukiwarkę Google Scholar. Wystarczy wpisać tam moje nazwisko. Zapraszam do kontaktu, do wymiany uwag i komentarzy. I pomagania, żeby ta nasza praca była jak najbardziej pożyteczna.</p>
<p><b>Vladimir:<br /></b>Dziękuję Ci bardzo Ola za Twój czas, za chęć podzielenia się wiedzą.</p>
<p><b>Ola:<br /></b>Dzięki wielkie.</p>
<h2>Podsumowanie</h2>
<p>Jakie masz wrażenia po tej rozmowie? Przyznam się, że dla mnie było bardzo ciekawe mówić na temat sztucznej inteligencji z osobą który bada ją nieco z innej strony.</p>
<p>Kiedyś wcześniej czytałem książkę &#8222;<a href="http://amzn.to/2nuQcBv" target="_blank" rel="nofollow noopener noreferrer">Ja Robot</a>&#8221; i główna bohaterka była <a href="https://en.wikipedia.org/wiki/Susan_Calvin" target="_blank" rel="nofollow noopener noreferrer">Susan Calvin</a> była robopsychologiem. Wtedy mnie bardzo zaciekawiło to, że taki zawód w ogóle jest możliwy. Druga, rzecz która zwróciła moją uwagę, Susan bardziej lubiła maszyny niż ludzi. To również było wytłumaczone dlaczego &#8211; bo są prawdziwe, przezroczyste i otwarte.</p>
<p>Gdy rozmawiałem z Olą, trochę czułem, że właśnie ona w najbliższej przyszłości może wykonywać taki zawód jak robopsycholog. Albo nawet gdzieś pomiędzy, rozumieć psychologię ludzi i robotów. Brzmi to trochę kosmiczne&#8230; Jaka jest Twoja opinia na ten temat?</p>
<p>Muszę przyznać, że miałem znacznie więcej pytań, niż zdążyłem zadać. Jeden z obszarów nad którym Ola pracuje są technologie ubieralne. Pewnie większość z nas kojarzy zegarki czy pulsometry. Ale czy wiesz o takich urządzeniach jak <a href="https://pavlok.com/" target="_blank" rel="nofollow noopener noreferrer">Pavlok</a>?</p>
<p><iframe title="This Painful Gadget Kills Your Bad Habits" width="960" height="540" src="https://www.youtube.com/embed/4x0WLPVWTEA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To jest narzędzie dyscyplinarne, które nosisz na ręce i ono kopie Cię prądem kiedy robisz coś czego nie powinieneś. To jest bardzo ciekawe, że teraz jest bardzo popularne w Stanach. Zastanów się do czego to potencjalnie może doprowadzić? Również, nasuwa się pytanie, jaka jest różnica pomiędzy właścicielami niewolników, których bili i kazali coś robić i takimi urządzeniami. Oczywiście, teraz takie urządzenie człowiek zakłada samodzielnie, ale jak z tym będzie jutro? Jak to widzisz?</p>
<p>Zapraszam również do oglądanie  krótiej, 11 minutowej prezentacji na TEDx</p>
<p><iframe title="Sympathy for the Future | Aleksandra Przegalińska | TEDxWarsaw" width="960" height="540" src="https://www.youtube.com/embed/FfLYZ1q-IwM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Prezentacja na temat transhumanizmu</p>
<p><iframe title="Aleksandra Przegalińska - Transhumanizm" width="960" height="540" src="https://www.youtube.com/embed/5Sob6Xpt0x0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Zarządzanie sobą: Quantified Self i nowe trendy wearable technologies</p>
<p><iframe title="Aleksandra Przegalińska. Zarządzanie sobą: Quantified Self i nowe trendy wearable technologies." width="960" height="540" src="https://www.youtube.com/embed/BQa1L84seDw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Nie-ludzki podmiot w świetle badań filozoficznych i neuronaukowych</p>
<p><iframe title="Nie-ludzki podmiot w świetle badań filozoficznych i neuronaukowych" width="960" height="540" src="https://www.youtube.com/embed/34dUPNPxkmw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Wszystkie notatki znajdziesz na stronie biznesmysli.pl/10. Wraz z linkami, video oraz zdjęciami.</p>
<p>Dziękuję bardzo za informację zwrotną, komentarze czy maile które dostaję.</p>
<p>W między czasie, Krystian Zych zaprosił mnie na wywiad do podcastu &#8222;Jak zrobić podcast?&#8221;. Gdzie możesz dowiedzieć się więcej o mnie, o tym jak robię &#8222;Biznes Myśli&#8221; i innych tematach.</p>
<p>https://jakzrobicpodcast.pl/podcast/biznes-mysli-o-sztucznej-inteligencji-opowiada-vladimir-alekseichenko/</p>
<p>Dobrą wieścią dla Ciebie może być to, że aktywnie kontynuuje moją pracę nad przygotowaniem praktycznego warsztatu jak użyć uczenia maszynowego. Zależy mi na tym, żeby pokazać rozwiązanie które mogą dać jak największą wartość dla biznesu. Uwaga! Proszę <strong>podziel się</strong> ze mną swoim problem biznesowym który chcesz rozwiązać. A może akurat wybiorę Twój i <strong>pomogę Ci</strong> go rozwiązać. <strong>Zapraszam do rozmowy</strong>.</p>
<p>To tyle na dzisiaj. Dziękuję Ci bardzo za Twój czas i energię. Następnym razem dowiesz o tym jak wygląda sztuczna inteligencja w jednym z czołowych banków w Polsce.</p>
<p>Cześć i wszystkiego dobrego!</p>
<h2>Książka polecana przez gościa</h2>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0393254291/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0393254291&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=2cc83996eec1c2049bd24446ed67cec0" target="_blank" rel="nofollow noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0393254291&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0393254291" alt="" width="1" height="1" border="0" /></li>
</ul><p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-mit/">Aleksandra Przegalińska z MIT o sztucznej inteligencji</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/sztuczna-inteligencja-mit/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Rozmowa z Barbarą Fusińską &#8211; Data Solution Architect w Microsoft</title>
		<link>https://biznesmysli.pl/sztuczna-inteligencja-microsoft/</link>
					<comments>https://biznesmysli.pl/sztuczna-inteligencja-microsoft/#respond</comments>
		
		<dc:creator><![CDATA[Vladimir]]></dc:creator>
		<pubDate>Mon, 05 Jun 2017 03:00:26 +0000</pubDate>
				<category><![CDATA[Podcast]]></category>
		<category><![CDATA[azure]]></category>
		<category><![CDATA[bot framework]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[cognitive services]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[luis]]></category>
		<category><![CDATA[microsoft]]></category>
		<category><![CDATA[sentiment analysis]]></category>
		<category><![CDATA[wywiad]]></category>
		<guid isPermaLink="false">http://biznesmysli.pl/?p=359</guid>

					<description><![CDATA[<p>Dosłownie dwa tygodnie temu skończyła się konferencja Google I/O. To coroczne technologiczne wydarzenie, gdzie Google chwali się swoimi wynalazkami, po raz pierwszy odbyła się w roku 2008. W tym roku właściwie nie było żadnych wynalazków&#8230;  W dużym uproszczeniu można powiedzieć, że Google przemyśla &#8222;wszystkie&#8221; swoje produkty w kontekście AI first. Wzór jest bardzo prosty, bierzesz dowolny produkt dodajesz AI i dostajesz wow :). Sundar Pichai, który jest CEO Google zwraca uwagę na to, że właśnie to jest ważny kierunek rozwoju i Google koncentruje się na tym. Teraz to brzmi jeszcze bardziej wiarygodnie, żeby zacząć interesować się tematem. Sundar ostatnio powiedział: &#8222;Uczenie maszynowe i sztuczna inteligencja odblokowała pewne możliwości, które były nie do pomyślenia jeszcze kilka lat temu&#8221;. Co o tym myślisz? Dzisiaj gościem jest Barbara Fusińska, która jest Data Solution Architect w Microsoft. Również czeka na Ciebie zniżka na konferencję&#8230; szczegóły na samym końcu. VladimirCześć Basia, powiedz trochę więcej o tym kim jesteś, czym się zajmujesz, gdzie mieszkasz… BasiaCześć Vladimir. W tym momencie mieszkam w Londynie, przeprowadziłam się kilka lat temu i obecnie jestem Data Solution Architect, pracuje w  Microsoft. Chciałbyś dowiedzieć się co więcej oznacza ten tytuł, bo on jest dość enigmatyczny? VladimirTak chciałbym, ale najpierw zapytam coś innego. Co ostatnio czytałaś i czego nauczyłaś z tej książki? BasiaNie wiem czy mogę powiedzieć, że sporo czytam, ale czytam zwykle kilka książek na raz. Ostatnio czytałem książkę która jest zatytułowana “The Hard Thing About Hard Things” ona mówi o doświadczeniach pana Bena Horowitza  dotyczące tego w jaki sposób on prowadził kilka startupów i do czego to doprowadziło. Książka opowiada o bardzo ciężkich decyzji oraz ciężkich sytuacjach o których zwykle ludzie nie mówią, bo starają się mówić o startupach gdy one się udają, odnoszą sukces natomiast  w sytuacjach kiedy trzeba zwolnić swojego przyjaciela albo szefa działu albo zdobyć klienta w niekonwencjonalny sposób. O takich rzeczach zwykle ludzie nie mówią. On napisał całą książkę na ten temat. Czego ona mnie nauczyła? Nauczyła ona, że biznes nie jest prosty. Może już wiedziałam to wcześniej… ale on na konkretnych przykładach pokazuje, że to jest praca 24h na dobę i mimo, że jesteśmy osobami technicznymi i chcemy założyć startup techniczny to jednak dużo tych miękkich umiejętności biznesowych trzeba posiąść. Było to takie otwarcie oczu. Polecam bardzo czytanie tej książki. Z innych książek, uwielbiam kryminały, ostatnio przeczytałam trzy książki na raz. &#8222;Zabójstwach w polskich Tatrach&#8221; oczywiście to wszystko było wymyślone, ale ja po prostu uwielbiam kryminały. VladimirCzy polecasz pierwszą książkę dla osób które chcą zacząć swój własny startup czy ogólnie dla wszystkich ta książka może być przydatna? BasiaMyślę, że dla wszystkich. Oczywiście, jeżeli ktoś chce zacząć startup &#8211; to szczególnie polecam. W dzisiejszych czasach warto wiedzieć na temat tego, że jednak prowadzenia biznesu się łączy z wieloma konwencjonalnymi rzeczami. Polecam. VladimirPowiedziałaś, że pracujesz w Microsoft jako Data Solution Architect. Czym się zajmujesz na co dzień. Jakiego typu problemy rozwiązujesz i w jaki sposób? BasiaTo jest taka enigmatyczna nazwa. Mam takie wrażenie, że Microsoft wymyślił to stanowisko. Jeżeli wiesz co robi Cloud Solution Architect, czyli osoba która się zajmuje rozmawianiem z klientami, rozmawianiem o technologiach i o tym jak konkretny firmy mogą wdrożyć konkretne technologii u siebie, ale ponieważ to jest Cloud Solution Architect skupia się głównie na chmurze. W przypadku Microsoft jest to Azure. Data Solution Architect zajmuje się podobną rzeczą, z tym że skupia się na danych. Obejmuje wszystko co jest związane z danymi, od baz danych, hurtowni danych, data lake. W przypadku Azure mamy Cognitive Services, Cortana, Bot Framework. Czyli wszystkie rzeczy które są związane z danymi, z analizą danych. Jestem osobą która wchodzi do firmy i stara się pomóc firmie wdrożyć Azure. Współpracuje z innymi Data Solution Architect, także z Cloud Solution Architect. Można powiedzieć, że jesteśmy technicznymi sprzedawcami. Z tym, że nie sprzedajemy chmury, tylko staramy przekonać firmę jak najlepiej mogą wykorzystać te technologie. VladimirMyślę, że to jest bardzo ciekawe. Z jednej strony posiadasz wiedzę techniczną, z drugiej strony potrafisz mówić w sposób zrozumiały również dla biznesu. W moim doświadczeniu jest tak, że czym więcej rozmawiam z przedstawicielami firm, osobami decyzyjnymi to rozumiem, że jest duża przepaść w rozumieniu co to jest uczenie maszynowe i jak to może być pomocne w biznesie. Między innymi dlatego powstał ten podcast. Proszę podaj trzy przypadki użycia nad którymi miałaś okazję pracować. I jakie były korzyści z tych rozwiązań dla biznesu? BasiaMyślę, że bardzo często ludzie się ekscytują &#8211; bo jest coś nowego i fajnego co zostało rozdmuchane przez media. Dużo rzadziej się spotykają się osoby które myślą w jaki sposób konkretnie przekuć to na rozwiązanie biznesowe. W efekcie rozwiązanie które przyniesie korzyść finansową (w końcu o to chodzi w firmach, żeby zarabiać pieniądze). Mam kilka przykładów. Jeden jest taki dość sztampowy, czyli jak użyć Chatbot Framework (czyli chatbota) do zamawiania jedzenia. Firma zajmowała się produkcją jedzenia i dowozem, zamiast zatrudniać osoby po drugiej stronie, zastąpiły część automatycznym chatbotem. Na początek to był taki proof of concept, ale okazało się, że całkiem nieźle to działa. Jak była korzyść? Nie trzeba była zatrudniać ludzi którzy tylko odbierają telefony, można było znaleźć dla nich bardziej ciekawsze zadania. VladimirMyślę, że to jest ciekawy przykład &#8211; o detale będę pytał trochę później, a teraz jedziemy do kolejnego przykładu. BasiaKolejny przykład. Wiele jest takich rozwiązań związanych z bazą danych. Rozwiązanie klasyczne często nie daje sobie rady, albo za dużo jest tych danych, albo przychodzą one z różnych źródeł bardzo szybko i trzeba je przerabiać w szybkim tempie. Firmy chcą trzymać te dane, tak jak przychodzą, bo w tej chwilę może nie wykorzystują tego, ale w przyszłości ktoś nad tym się pochyli i będą mogli. W tym momencie chcą zapisać te dane gdzieś. Klasyczne bazy danych nie dają sobie rady. Miałem kilka wdrożeń kiedy firmy użyły albo data lake, dokumentowych baz danych albo całej mikstury. Przyspieszyło to pracę i wdrożenie, bo nie trzeba było zastanawiać nad tym które dane zachowywać, w jaki sposób je zmienić, w jaki sposób wstawić jakieś transformację albo agregację, bo prostu dane szły do zapisu, a potem dalej można się zastanawiać, że można z nimi zrobić. Takich przykładów jest kilka, powiedziałabym, że jeżeli ktoś pracuje w chmurze nad danymi, to jest to najczęstszy przypadek. Mieliśmy kilka ciekawych projektów związanych z machine learning. Azure też oferuję kilka rozwiązań w tej kwestii. Takim najciekawszym, moim zdaniem, nietypowym, współpracowaliśmy z browarem gdzie trzeba było przewidzieć (zoptymalizować) cenę butelki piwa w różnych krajach. Jeżeli cena była za wysoka, to klienci mogli nie kupować piwa, natomiast jeżeli była za niska to mniej pieniędzy firma by na tym zarobiła. Trzeba było wyśrodkować cenę ucząc się na danych która firma posiadała, w wyniku czego zoptymalizowaliśmy cenę butelki piwa. VladimirCiekawie to brzmi. Zapytam się trochę więcej o tak zwanej sztucznej inteligencji. W drugim odcinku wspomniałem, że chodzi o trzy elementy: dane (ich jakość oraz ilość), moc obliczeniowa (dostępność i jej koszt) oraz algorytmy (zaawansowany i zoptymalizowane do potrzeb). Czy z tym zgadzasz się, być może chcesz coś dodać albo wyróżnić któryś z czynników? BasiaNa pewno to są ważne rzeczy. Do mocy obliczeniowej rozdzieliłabym dwie rzeczy. Jedna to, że mamy teraz chmury i za całkiem małe pieniądze, można użyć chmury żeby spróbować algorytm i oszczędzić sobie czasu, niż uruchamiać go na własnym komputerze czy laptopie. Po prostu wystarczy wynająć coś co jest gdzieś tam w internecie, inny komputer. To jest jedna rzecz. A druga to powiedziałabym hardware, czyli GPU. To jest względnie nowa architektura która pozwala na szybsze obliczenia z macierzami. Właśnie ta nowa architektura i nowe różne które powstają w tym momencie, bo różne firmy pracują nad tym. VladimirPowiedziałaś, że chmura to jest cudzy komputer. Czasem to może być zaskakujące, bo wydaje się, że chmura jest gdzieś i tak fajnie liczy. Nie wiem czy kogoś nie zaskoczyliśmy teraz… BasiaNo tak jest. Że to jest w chmurach, bo nie do końca wiadomo gdzie do jest. Często wiadomo w jakim kraju jest, ale nie dokońca gdzie. Nie wszystkie firmy podają lokalizację. Na dodatek to nie jest tak do końcu, że to jest tylko czyjeś komputer. To są maszyne wirtualne, to jest cały management. Po to, żeby wziąć ten ból głowy który mają ludzie, którzy zajmują się komputerami on-site i żeby zajął się tym ktoś inny. Właśnie provider który dostarcza tą chmurę. Również wszystkie rzeczy związane z bezpieczeństwem. Dlatego to jest coś więcej… Ale rzeczywiście ogólna zasada jest taka, że tam jest gdzieś obcy komputer do którego my się podłączamy. W uogólnieniu to jest tak proste, ale tak naprawdę to jest bardziej skomplikowane. VladimirTeraz omówiliśmy nasz pierwszy element, czyli infrastruktura czy moc obliczeniowa. I to na co zwróciłaś uwagę, że w tej chwilę nie jest to tak skomplikowane, żeby odpalić komputer porównywalny do superkomputerów jeszcze 10 lat temu, podłączyć do niego laptop i między innymi właśnie Azure daje taką możliwość. Zgadzasz się? BasiaTak. VladimirDobra. Przejdźmy teraz trochę dalej. Porozmawiajmy o algorytmach, ale trochę dalej niż gołe algorytmy. Microsoft bardzo aktywnie pracuje nad platformami które umożliwiają między innymi użycie machine learning w prosty sposób. Są takie platformy jak, Cognitive Services, Bot Framework, Deep Learning, Data and Analytics Platform. Zaczniemy od pierwszej platformy. Co to jest Cognitive Services i kto jest potencjalnym odbiorcą? BasiaPowiedziałabym, że Cognitive Services to bardzo dobry krok marketingowy i nie tylko Azure (Microsoft), robi to wiele firm, np. Watson z IBM. Różne serwisy który AWS także oferuje, tylko oni nie mają jakiejś konkretnej nazwy. Microsoft wziął wszystkie serwisy i wrzucił je do jednego worka, żeby to zgrabnie nazwać. Kto jest odbiorcą? Powiedziałabym, że odbiorcą są firmy, które nie chcą zatrudniać zespołów data scientist, ponieważ ktoś już zrobił tę robotę za nich, już zbudował model. Na przykładzie rozpoznawania twarzy. Ktoś zrobił już ten cały algorytm i udostępnił je jako usługę.  Taką usługę można wynająć i wstawić do własnego systemu. Od strony technicznej to jest wywołanie REST i jak ktoś jest programistą to może to po prostu wywołać i wstawić do systemu. To jest bardzo wygodny sposób na to, żeby wzbogacić Twój system w machine learning, w artificial intelligence (bo to tak naprawdę jest to samo, są tylko różne odcienie tego). Przestrzegam przed czymś. Tak jak ja bardzo lubię pojęcie democratizing of AI, to jest drogą którą wiele firm idzie. W szczególności Microsoft. Chodzi tutaj o demokratyzację  sztucznej inteligencji, żeby to było dostępne jak najbardziej dla wszystkich. I już jest. W tym momencie, tak naprawdę wiele firm dają podobne usługi i można nawet za darmo sprawdzić, pobawić się, pouczyć się. Natomiast widziałam takie sytuacje, kiedy ludzie się bawią, wstawiają do systemu, wywołują usługę i ona coś zwraca. Pytanie jest czy robią to świadomie? Czy mając taki blackbox,  potrafią wnieść wartość do systemu? Niewiadoma czy osoba która używa to niewłaściwie potrafi zinterpretować prawidłowo wyniki. Powiedziałabym tak: używać blackbox, ale wiedzieć co one robią, czego oczekują, jakie informacje dostaniemy i jak możemy ocenić czy są właściwe. Jak możemy stwierdzić czy to się nadaje, czy nie nadaje się do naszego systemu? VladimirPoruszasz bardzo ciekawe tematy. Bo z jednej strony bardzo fajne jest użyć uczenia maszynowego jako gotowe serwisy, a z drugiej strony czy osoba która będzie tego używać, czy potrafi to użyć, więc może troszkę rozwińmy ten temat. Przed tym wywiadem sprawdziłem, już jest dostępne 29 usług. Na przykład computer vision, umożliwia rozpoznawać jakie obiekty są na zdjęciu czy emotion API które wykrywa wszystkie twarze na zdjęciu i pokazuje jakie mają emocje. Jest możliwość poprzez przeglądarkę wrzucić dowolne zdjęcie i sprawdzić wynik po kilku sekundach. Warto wspomnieć o projekcie wspólnie zrobionym przez Uber i Microsoft dla identyfikacji kierowców bazując na ich zdjęciu. Kierowca wsiada do samochodu, odpala Uber aplikację, która prosi go zrobić selfie i w ten identyfikuje go. Albo okulary dla niewidomych które umożliwiają zobaczyć co jest dookoła Można wymyślić jeszcze sporo podobnych zastosowań w biznesie. Proszę wytłumacz, co się dzieje pod spodem od momentu kiedy ładuję zdjęcia i dostaje wynik? BasiaPatrząc na takie proste API do rozpoznawania twarzy. Jeżeli w Twoim systemie jest potrzeba, żeby rozpoznawać twarze na zdjęciu. To właściwie tutaj nie ma miejsca na pomyłki, wrzucasz zdjęcia i dostajesz “kwadraty” które mówią tutaj gdzie są twarze. To jest dość proste i konkretnie w tym przypadku to nie jest takie ważne co tam się dzieje pod spodem. Natomiast są...</p>
<p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-microsoft/">Rozmowa z Barbarą Fusińską &#8211; Data Solution Architect w Microsoft</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="lazyblock-speaker-spotify-1kD4RL wp-block-lazyblock-speaker-spotify"><div class="wp-block-columns are-vertically-aligned-center">
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="https://www.spreaker.com/user/biznesmysli/sztuczna-inteligencja-microsoft" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spreaker.png" alt="" class="wp-image-2150" width="213" height="71"></a></figure></div>
</div>
<div class="wp-block-column is-vertically-aligned-center">
<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><a href="" target="_blank"><img decoding="async" src="https://biznesmysli.pl/wp-content/uploads/2020/02/spotify-badge-button.png" alt="" class="wp-image-2149" width="192" height="93"></a></figure></div>
</div>
</div></div>

<p>Dosłownie dwa tygodnie temu skończyła się konferencja <a href="https://events.google.com/io/" target="_blank" rel="nofollow noopener noreferrer">Google I/O</a>. To coroczne technologiczne wydarzenie, gdzie Google chwali się swoimi wynalazkami, po raz pierwszy odbyła się w roku 2008. W tym roku właściwie nie było żadnych wynalazków&#8230;  W dużym uproszczeniu można powiedzieć, że Google przemyśla &#8222;wszystkie&#8221; swoje produkty w kontekście AI first. Wzór jest bardzo prosty, bierzesz dowolny produkt dodajesz AI i dostajesz <i>wow</i> :).</p>
<p><iframe width="960" height="540" src="https://www.youtube.com/embed/vWLcyFtni6U?feature=oembed" frameborder="0" allow="autoplay; encrypted-media" allowfullscreen></iframe></p>
<p>Sundar Pichai, który jest CEO Google zwraca uwagę na to, że właśnie to jest ważny kierunek rozwoju i Google koncentruje się na tym. Teraz to brzmi jeszcze bardziej wiarygodnie, żeby zacząć interesować się tematem. Sundar ostatnio powiedział:</p>
<blockquote>
<p>&#8222;Uczenie maszynowe i sztuczna inteligencja odblokowała pewne możliwości, które były nie do pomyślenia jeszcze kilka lat temu&#8221;.</p>
</blockquote>
<p>Co o tym myślisz?</p>
<p>Dzisiaj gościem jest Barbara Fusińska, która jest Data Solution Architect w Microsoft.</p>
<p><em>Również czeka na Ciebie zniżka na konferencję&#8230; szczegóły na samym końcu.</em></p>
<p><span id="more-359"></span></p>
<p><b>Vladimir</b><br />Cześć Basia, powiedz trochę więcej o tym kim jesteś, czym się zajmujesz, gdzie mieszkasz…</p>
<p><b>Basia<br /></b>Cześć Vladimir. W tym momencie mieszkam w Londynie, przeprowadziłam się kilka lat temu i obecnie jestem Data Solution Architect, pracuje w  Microsoft. Chciałbyś dowiedzieć się co więcej oznacza ten tytuł, bo on jest dość enigmatyczny?</p>
<figure id="attachment_364" aria-describedby="caption-attachment-364" style="width: 1280px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-364" src="https://biznesmysli.pl/wp-content/uploads/2017/06/Basia.jpeg" alt="Barbara Fusińska" width="1280" height="720" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/Basia.jpeg 1280w, https://biznesmysli.pl/wp-content/uploads/2017/06/Basia-300x169.jpeg 300w, https://biznesmysli.pl/wp-content/uploads/2017/06/Basia-768x432.jpeg 768w, https://biznesmysli.pl/wp-content/uploads/2017/06/Basia-1024x576.jpeg 1024w" sizes="(max-width: 1280px) 100vw, 1280px" /><figcaption id="caption-attachment-364" class="wp-caption-text">Barbara Fusińska</figcaption></figure>
<p><b>Vladimir<br /></b>Tak chciałbym, ale najpierw zapytam coś innego. Co ostatnio czytałaś i czego nauczyłaś z tej książki?</p>
<p><b>Basia<br /></b>Nie wiem czy mogę powiedzieć, że sporo czytam, ale czytam zwykle kilka książek na raz. Ostatnio czytałem książkę która jest zatytułowana “<a href="http://amzn.to/2rMz9xV" target="_blank" rel="nofollow noopener noreferrer"><i>The Hard Thing About Hard Things</i></a>” ona mówi o doświadczeniach pana Bena Horowitza  dotyczące tego w jaki sposób on prowadził kilka startupów i do czego to doprowadziło.</p>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0062273205/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0062273205&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=ba14be08efa6627bb4247e8ca01cb96f" target="_blank" rel="”nofollow” noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0062273205&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0062273205" alt="" width="1" height="1" border="0" /></li>
</ul>
<p>Książka opowiada o bardzo ciężkich decyzji oraz ciężkich sytuacjach o których zwykle ludzie nie mówią, bo starają się mówić o startupach gdy one się udają, odnoszą sukces natomiast  w sytuacjach kiedy trzeba zwolnić swojego przyjaciela albo szefa działu albo zdobyć klienta w niekonwencjonalny sposób. O takich rzeczach zwykle ludzie nie mówią. On napisał całą książkę na ten temat.</p>
<p>Czego ona mnie nauczyła? Nauczyła ona, że biznes nie jest prosty. Może już wiedziałam to wcześniej… ale on na konkretnych przykładach pokazuje, że to jest praca 24h na dobę i mimo, że jesteśmy osobami technicznymi i chcemy założyć startup techniczny to jednak dużo tych miękkich umiejętności biznesowych trzeba posiąść. Było to takie otwarcie oczu. Polecam bardzo czytanie tej książki.</p>
<p>Z innych książek, uwielbiam kryminały, ostatnio przeczytałam trzy książki na raz. &#8222;<span class="_5yl5">Zabójstwach w polskich Tatrach</span>&#8221; oczywiście to wszystko było wymyślone, ale ja po prostu uwielbiam kryminały.</p>
<p><b>Vladimir<br /></b>Czy polecasz pierwszą książkę dla osób które chcą zacząć swój własny startup czy ogólnie dla wszystkich ta książka może być przydatna?</p>
<p><b>Basia<br /></b>Myślę, że dla wszystkich. Oczywiście, jeżeli ktoś chce zacząć startup &#8211; to szczególnie polecam. W dzisiejszych czasach warto wiedzieć na temat tego, że jednak prowadzenia biznesu się łączy z wieloma konwencjonalnymi rzeczami. Polecam.</p>
<p><b>Vladimir<br /></b>Powiedziałaś, że pracujesz w Microsoft jako <i>Data Solution Architect</i>. Czym się zajmujesz na co dzień. Jakiego typu problemy rozwiązujesz i w jaki sposób?</p>
<p><b>Basia<br /></b>To jest taka enigmatyczna nazwa. Mam takie wrażenie, że Microsoft wymyślił to stanowisko. Jeżeli wiesz co robi Cloud Solution Architect, czyli osoba która się zajmuje rozmawianiem z klientami, rozmawianiem o technologiach i o tym jak konkretny firmy mogą wdrożyć konkretne technologii u siebie, ale ponieważ to jest Cloud Solution Architect skupia się głównie na chmurze.</p>
<p>W przypadku Microsoft jest to <a href="https://azure.microsoft.com" target="_blank" rel="nofollow noopener noreferrer">Azure</a>. Data Solution Architect zajmuje się podobną rzeczą, z tym że skupia się na danych. Obejmuje wszystko co jest związane z danymi, od baz danych, hurtowni danych, <a href="https://en.wikipedia.org/wiki/Data_lake" target="_blank" rel="nofollow noopener noreferrer">data lake</a>. W przypadku Azure mamy Cognitive Services, Cortana, Bot Framework. Czyli wszystkie rzeczy które są związane z danymi, z analizą danych. Jestem osobą która wchodzi do firmy i stara się pomóc firmie wdrożyć Azure. Współpracuje z innymi <i>Data Solution Architect</i>, także z <i>Cloud Solution Architect</i>.</p>
<p>Można powiedzieć, że jesteśmy technicznymi sprzedawcami. Z tym, że nie sprzedajemy chmury, tylko staramy przekonać firmę jak najlepiej mogą wykorzystać te technologie.</p>
<p><b>Vladimir<br /></b>Myślę, że to jest bardzo ciekawe. Z jednej strony posiadasz wiedzę techniczną, z drugiej strony potrafisz mówić w sposób zrozumiały również dla biznesu. W moim doświadczeniu jest tak, że czym więcej rozmawiam z przedstawicielami firm, osobami decyzyjnymi to rozumiem, że jest duża przepaść w rozumieniu co to jest uczenie maszynowe i jak to może być pomocne w biznesie. Między innymi dlatego powstał ten podcast. Proszę podaj trzy przypadki użycia nad którymi miałaś okazję pracować. I jakie były korzyści z tych rozwiązań dla biznesu?</p>
<p><b>Basia<br /></b>Myślę, że bardzo często ludzie się ekscytują &#8211; bo jest coś nowego i fajnego co zostało rozdmuchane przez media. Dużo rzadziej się spotykają się osoby które myślą w jaki sposób konkretnie przekuć to na rozwiązanie biznesowe. W efekcie rozwiązanie które przyniesie korzyść finansową (w końcu o to chodzi w firmach, żeby zarabiać pieniądze). Mam kilka przykładów.</p>
<p>Jeden jest taki dość sztampowy, czyli jak użyć Chatbot Framework (czyli chatbota) do zamawiania jedzenia. Firma zajmowała się produkcją jedzenia i dowozem, zamiast zatrudniać osoby po drugiej stronie, zastąpiły część automatycznym chatbotem. Na początek to był taki <a href="https://en.wikipedia.org/wiki/Proof_of_concept" target="_blank" rel="nofollow noopener noreferrer"><i>proof of concept</i></a>, ale okazało się, że całkiem nieźle to działa. Jak była korzyść? Nie trzeba była zatrudniać ludzi którzy tylko odbierają telefony, można było znaleźć dla nich bardziej ciekawsze zadania.</p>
<p><b>Vladimir<br /></b>Myślę, że to jest ciekawy przykład &#8211; o detale będę pytał trochę później, a teraz jedziemy do kolejnego przykładu.</p>
<p><b>Basia<br /></b>Kolejny przykład. Wiele jest takich rozwiązań związanych z bazą danych. Rozwiązanie klasyczne często nie daje sobie rady, albo za dużo jest tych danych, albo przychodzą one z różnych źródeł bardzo szybko i trzeba je przerabiać w szybkim tempie. Firmy chcą trzymać te dane, tak jak przychodzą, bo w tej chwilę może nie wykorzystują tego, ale w przyszłości ktoś nad tym się pochyli i będą mogli. W tym momencie chcą zapisać te dane gdzieś. Klasyczne bazy danych nie dają sobie rady.</p>
<p>Miałem kilka wdrożeń kiedy firmy użyły albo data lake, dokumentowych baz danych albo całej mikstury. Przyspieszyło to pracę i wdrożenie, bo nie trzeba było zastanawiać nad tym które dane zachowywać, w jaki sposób je zmienić, w jaki sposób wstawić jakieś transformację albo agregację, bo prostu dane szły do zapisu, a potem dalej można się zastanawiać, że można z nimi zrobić. Takich przykładów jest kilka, powiedziałabym, że jeżeli ktoś pracuje w chmurze nad danymi, to jest to najczęstszy przypadek.</p>
<p>Mieliśmy kilka ciekawych projektów związanych z machine learning. Azure też oferuję kilka rozwiązań w tej kwestii. Takim najciekawszym, moim zdaniem, nietypowym, współpracowaliśmy z browarem gdzie trzeba było przewidzieć (zoptymalizować) cenę butelki piwa w różnych krajach. Jeżeli cena była za wysoka, to klienci mogli nie kupować piwa, natomiast jeżeli była za niska to mniej pieniędzy firma by na tym zarobiła. Trzeba było wyśrodkować cenę ucząc się na danych która firma posiadała, w wyniku czego zoptymalizowaliśmy cenę butelki piwa.</p>
<p><b>Vladimir<br /></b>Ciekawie to brzmi. Zapytam się trochę więcej o tak zwanej sztucznej inteligencji. W drugim odcinku wspomniałem, że chodzi o trzy elementy: dane (ich jakość oraz ilość), moc obliczeniowa (dostępność i jej koszt) oraz algorytmy (zaawansowany i zoptymalizowane do potrzeb). Czy z tym zgadzasz się, być może chcesz coś dodać albo wyróżnić któryś z czynników?</p>
<p><b>Basia<br /></b>Na pewno to są ważne rzeczy. Do mocy obliczeniowej rozdzieliłabym dwie rzeczy. Jedna to, że mamy teraz chmury i za całkiem małe pieniądze, można użyć chmury żeby spróbować algorytm i oszczędzić sobie czasu, niż uruchamiać go na własnym komputerze czy laptopie. Po prostu wystarczy wynająć coś co jest gdzieś tam w internecie, inny komputer. To jest jedna rzecz. A druga to powiedziałabym hardware, czyli GPU. To jest względnie nowa architektura która pozwala na szybsze obliczenia z macierzami. Właśnie ta nowa architektura i nowe różne które powstają w tym momencie, bo różne firmy pracują nad tym.</p>
<p><b>Vladimir<br /></b>Powiedziałaś, że chmura to jest cudzy komputer. Czasem to może być zaskakujące, bo wydaje się, że chmura jest gdzieś i tak fajnie liczy. Nie wiem czy kogoś nie zaskoczyliśmy teraz…</p>
<p><iframe title="Czym jest CHMURA?" width="960" height="540" src="https://www.youtube.com/embed/QQ4NhQi-ATE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Basia<br /></b>No tak jest. Że to jest w chmurach, bo nie do końca wiadomo gdzie do jest. Często wiadomo w jakim kraju jest, ale nie dokońca gdzie. Nie wszystkie firmy podają lokalizację. Na dodatek to nie jest tak do końcu, że to jest tylko czyjeś komputer. To są maszyne wirtualne, to jest cały management. Po to, żeby wziąć ten ból głowy który mają ludzie, którzy zajmują się komputerami on-site i żeby zajął się tym ktoś inny.</p>
<p>Właśnie provider który dostarcza tą chmurę. Również wszystkie rzeczy związane z bezpieczeństwem. Dlatego to jest coś więcej… Ale rzeczywiście ogólna zasada jest taka, że tam jest gdzieś obcy komputer do którego my się podłączamy. W uogólnieniu to jest tak proste, ale tak naprawdę to jest bardziej skomplikowane.</p>
<p><b>Vladimir<br /></b>Teraz omówiliśmy nasz pierwszy element, czyli infrastruktura czy moc obliczeniowa. I to na co zwróciłaś uwagę, że w tej chwilę nie jest to tak skomplikowane, żeby odpalić komputer porównywalny do superkomputerów jeszcze 10 lat temu, podłączyć do niego laptop i między innymi właśnie <a href="https://azure.microsoft.com" target="_blank" rel="nofollow noopener noreferrer">Azure</a> daje taką możliwość. Zgadzasz się?</p>
<p><b>Basia<br /></b>Tak.</p>
<p><b>Vladimir<br /></b>Dobra. Przejdźmy teraz trochę dalej. Porozmawiajmy o algorytmach, ale trochę dalej niż gołe algorytmy. Microsoft bardzo aktywnie pracuje nad platformami które umożliwiają między innymi użycie machine learning w prosty sposób. Są takie platformy jak, <a href="https://www.microsoft.com/cognitive-services" target="_blank" rel="nofollow noopener noreferrer">Cognitive Services</a>, <a href="https://dev.botframework.com/" target="_blank" rel="nofollow noopener noreferrer">Bot Framework</a>, Deep Learning, Data and <a href="https://azure.microsoft.com/en-us/services/?filter=intelligence-analytics" target="_blank" rel="nofollow noopener noreferrer">Analytics Platform</a>. Zaczniemy od pierwszej platformy. Co to jest Cognitive Services i kto jest potencjalnym odbiorcą?</p>
<p><b>Basia<br /></b>Powiedziałabym, że Cognitive Services to bardzo dobry krok marketingowy i nie tylko Azure (Microsoft), robi to wiele firm, np. Watson z IBM. Różne serwisy który AWS także oferuje, tylko oni nie mają jakiejś konkretnej nazwy. Microsoft wziął wszystkie serwisy i wrzucił je do jednego worka, żeby to zgrabnie nazwać.</p>
<p><iframe title="Build 2016 : Microsoft Cognitive Services Give Your Apps a Human Side" width="960" height="540" src="https://www.youtube.com/embed/_Hg9QKBhERw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Kto jest odbiorcą? Powiedziałabym, że odbiorcą są firmy, które nie chcą zatrudniać zespołów <i>data scientist</i>, ponieważ ktoś już zrobił tę robotę za nich, już zbudował model. Na przykładzie rozpoznawania twarzy. Ktoś zrobił już ten cały algorytm i udostępnił je jako usługę.  Taką usługę można wynająć i wstawić do własnego systemu. Od strony technicznej to jest wywołanie <a href="https://en.wikipedia.org/wiki/Representational_state_transfer" target="_blank" rel="nofollow noopener noreferrer">REST</a> i jak ktoś jest programistą to może to po prostu wywołać i wstawić do systemu. To jest bardzo wygodny sposób na to, żeby wzbogacić Twój system w <i>machine learning</i>, w <i>artificial intelligence</i> (bo to tak naprawdę jest to samo, są tylko różne odcienie tego).</p>
<p>Przestrzegam przed czymś. Tak jak ja bardzo lubię pojęcie <i>democratizing of AI</i>, to jest drogą którą wiele firm idzie. W szczególności Microsoft. Chodzi tutaj o demokratyzację  sztucznej inteligencji, żeby to było dostępne jak najbardziej dla wszystkich. I już jest. W tym momencie, tak naprawdę wiele firm dają podobne usługi i można nawet za darmo sprawdzić, pobawić się, pouczyć się. Natomiast widziałam takie sytuacje, kiedy ludzie się bawią, wstawiają do systemu, wywołują usługę i ona coś zwraca.</p>
<p>Pytanie jest czy robią to świadomie? Czy mając taki <em>blackbox</em>,  potrafią wnieść wartość do systemu? Niewiadoma czy osoba która używa to niewłaściwie potrafi zinterpretować prawidłowo wyniki. Powiedziałabym tak: używać blackbox, ale wiedzieć co one robią, czego oczekują, jakie informacje dostaniemy i jak możemy ocenić czy są właściwe. Jak możemy stwierdzić czy to się nadaje, czy nie nadaje się do naszego systemu?</p>
<p><b>Vladimir<br /></b>Poruszasz bardzo ciekawe tematy. Bo z jednej strony bardzo fajne jest użyć uczenia maszynowego jako gotowe serwisy, a z drugiej strony czy osoba która będzie tego używać, czy potrafi to użyć, więc może troszkę rozwińmy ten temat. Przed tym wywiadem sprawdziłem, już jest dostępne 29 usług. Na przykład <a href="https://azure.microsoft.com/en-us/services/cognitive-services/computer-vision/" target="_blank" rel="nofollow noopener noreferrer">computer vision</a>, umożliwia rozpoznawać jakie obiekty są na zdjęciu czy <a href="https://azure.microsoft.com/en-us/services/cognitive-services/emotion/" target="_blank" rel="nofollow noopener noreferrer">emotion API</a> które wykrywa wszystkie twarze na zdjęciu i pokazuje jakie mają emocje. Jest możliwość poprzez przeglądarkę wrzucić dowolne zdjęcie i sprawdzić wynik po kilku sekundach.</p>
<p>Warto wspomnieć o projekcie wspólnie zrobionym przez Uber i Microsoft dla identyfikacji kierowców bazując na ich zdjęciu. Kierowca wsiada do samochodu, odpala Uber aplikację, która prosi go zrobić selfie i w ten identyfikuje go.</p>
<p><iframe title="How Uber is using driver selfies to enhance security, powered by Microsoft Cognitive Services" width="960" height="540" src="https://www.youtube.com/embed/aEBi4OpXU4Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Albo okulary dla niewidomych które umożliwiają zobaczyć co jest dookoła</p>
<p><iframe title="Seeing AI 2016 Prototype - A Microsoft research project" width="960" height="540" src="https://www.youtube.com/embed/R2mC-NUAmMk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Można wymyślić jeszcze sporo podobnych zastosowań w biznesie. Proszę wytłumacz, co się dzieje pod spodem od momentu kiedy ładuję zdjęcia i dostaje wynik?</p>
<p><b>Basia<br /></b>Patrząc na takie proste API do rozpoznawania twarzy. Jeżeli w Twoim systemie jest potrzeba, żeby rozpoznawać twarze na zdjęciu. To właściwie tutaj nie ma miejsca na pomyłki, wrzucasz zdjęcia i dostajesz “kwadraty” które mówią tutaj gdzie są twarze. To jest dość proste i konkretnie w tym przypadku to nie jest takie ważne co tam się dzieje pod spodem.</p>
<p>Natomiast są takie usługi, jedna z nich to <a href="https://azure.microsoft.com/pl-pl/services/cognitive-services/recommendations/" target="_blank" rel="nofollow noopener noreferrer">Recommendation API</a> ona jest jedną  z Cognitive Services. Jest to trochę tak reklamowane, że bierzesz ten serwis wrzucasz do swojego systemu i od jutra czy za godzinę Twój system będzie rekomendował odpowiednie produkty dla Twoich klientów. No to tak nie będzie działać… Najpierw trzeba wrzucić Twoje dane, wytrenować model itd. Co się dzieje pod spodem to zależy o jakiej usługi mówimy. Tak w dużym uproszczeniu, machine learning polega na tym &#8211; że bierzemy dane historyczne na których algorytm się uczy, wykrywa pewne reguły czy zasady.</p>
<p>Można pomyśleć, że to jest zbiór reguł który określa później jak te reguły powinny wyglądać. One nie są interpretowalne dla ludzi, ale tam jest jakieś matematyczne równanie i rozwiązywania. Musimy mieć te historyczne dane, na tym polega to całe uczenie się. Po pewnym czasie te algorytmy się uczą i model staje się wytrenowany i możemy go upublicznić. To jest właśnie to co Cognitive Services oferuje, czyli już ten wytrenowany model, on wie co robić, wie jak klasyfikować, jak znajdować i obliczać nowe przykłady. Tylko stawiamy go z tyłu jakieś nowej usługi. Mamy wytrenowany model i możemy go teraz wynajmować Tobie klienci. To tak w dużym uproszczeniu wygląda.</p>
<p><b>Vladimir<br /></b>Przede wszystkim należy zwrócić uwagę, że nie ma magii. Nie da się tylko kupić usługi i spodziewać się, że będzie działał system rekomendacyjny. Musimy najpierw dostarczyć dane, te dane powinny być odpowiednio przygotowane, to nie mogą być śmieciowe dane. Już wtedy mając dobre dane, możemy liczyć, że algorytm, w tym przypadku system rekomendacyjny pomoże nam rozwiązać problem. Czy dobrze zrozumiałem?</p>
<p><b>Basia<br /></b>Tak, bardzo dobrze. Wracając na przykład do usługi która rozpoznaje konkretną osobę na zdjęciu, ta usługa z której korzysta Uber. Ona też nie może mieć modelu który wytrenował się wcześniej, nie można go po prostu wstawić do systemu. Należy mieć zdjęcia tych kierowców z Ubera. Trzeba przygotować nasz system do tego. Jest kilka takich przykładów, gdzie rzeczywiście, bez żadnego ryzyka możemy użyć tych usług, ale są również bardziej skomplikowane które wymagają większej integracji na tym lub innym poziomie.</p>
<p><b>Vladimir<br /></b>Dobrze, że zwróciłaś uwagę na to. Bo często chce się tej magii, nic nie robiąc dostać gotowe rozwiązanie. Dlatego trzeba być świadomym, że trzeba będzie włożyć pewien wysiłek nawet wtedy kiedy mamy moc obliczeniową (np. chmura), mamy algorytmy, to jednak te dane trzeba odpowiednio przygotować.</p>
<p><b>Basia<br /></b>Myślę, że  to jest wielka rola dużych firm, które chcą, żeby klienci używali ich usług… Jasne, że chcą, bo z tego zarabiają pieniądze. Ale użytkownice nie chcą wkładać wysiłku, to jest też normalne. Tutaj trzeba znaleźć balans, żeby ułatwić jak najbardziej, ale tego nie można robić bezmyślnie. Bo to jednak jest skomplikowana matematyka pod spodem. Pewne rzeczy można wstawić do blackbox’a, a inne rzeczy trzeba przemyśleć, zintegrować, no i tak jak już mówiliśmy włożyć trochę wysiłku.</p>
<p><b>Vladimir<br /></b>Ciekawym przypadkiem i to może dość popularnym w użyciu może być analiza tekstu, włączając <a href="https://en.wikipedia.org/wiki/Sentiment_analysis" target="_blank" rel="nofollow noopener noreferrer">sentiment analysis</a> taka zwana analiza nastrojów. Tego typu rozwiązania umożliwiają śledzenie opinii, rozumienia ogólnej tak zwanej temperatury nastrojów, zwłaszcza kiedy było jakieś wydarzenie (dobre czy złe, np. kiedy usługa przestała działać). Wiem, że jest wspierany angielski oraz hiszpański, jakie jeszcze języki są wspierane? Czy wspiera język polski?</p>
<p><b>Basia<br /></b>Sprawdziłam to specjalnie, jeżeli chodzi o analizę i sentiment analysis język polski jest wspierany, ale to jeszcze jest w preview.  Portugalski, francuski, hiszpański, angielski to są języki które są wspierany już całkowicie. Natomiast w preview to są języki: duński, niemiecki, fiński, włoski, holenderski, norweski, polski, rosyjski, szwedzki i turecki.</p>
<p><b>Vladimir<br /></b>W takim razie, już za niedługo możemy się spodziewać, że język polski będzie dopracowany i będziemy mogli użyć go do produkcji. Prawda?</p>
<p><b>Basia<br /></b>Myślę, że to będzie jeszcze wielka praca… każdy język ma swojej ogólne ciekawy przypadki a angielski jest najłatwiejszy do analizy tekstów.</p>
<p><b>Vladimir<br /></b>Dokładnie. Są inne biblioteki które rozwiązują tego typu problemy, natomiast z językiem polskim to zawsze było skomplikowane. Ostatnio byłem na konferencji i wiem, że są firmy które pracują nad tym 10 czy nawet już 15 lat, za bardzo o tym nie mówiąc, pisząc swoje własne rozwiązania    i podobnie im to jakoś działa. Ale ewidentnie to nie jest trywialny problem. To wymaga dużego wysiłku.</p>
<p>Warto wyjaśnić jeszcze jedną rzecz. Jeżeli mówimy o usługach, to one pod spodem mają tak zwany <i>pre-trained</i> model, po polsku pewnie to będzie wytrenowany model. Jak możesz wytłumaczyć co to jest pre-trained model i na jakich danych te modele są trenowane?</p>
<p><b>Basia<br /></b>Po pierwsze nie wszystkie algorytmy wspierają taki inkrementacyjny <i>update</i> model. Mówiliśmy już o tym jak działa <i>machine learning</i>. Mamy historyczne dane, algorytm po nich chodzi &#8211; sprawdza, wypracowuje swoje współczynniki i na końcu jest wytrenowany.</p>
<p>W pewnym momencie algorytm mówi, albo my mówimy: “Dość, już starczy uczenia się”. Już powinno być dobrze bo sprawdzamy jakieś metryki. Wiele algorytmów nie jest w stanie inkrementacyjnie dodać, ulepszyć się. Ale są takie które to potrafią. W zależności od tego co siedzi pod spodem, możemy wytrenować model, a potem tylko dodawać nowe dane i on będzie się uczył iteracyjnie, zmieniając tylko troszeczkę te swoje współczynniki.</p>
<p><b>Vladimir<br /></b>Czy możesz podać przykład o jaki model chodzi teraz? Który model można właśnie adaptować używając własnych danych?</p>
<p><b>Basia<br /></b>Wydaje się mi, że Luis działa w ten sposób. To jest model który stoi za analizą tekstu w Bot Framework. Ponieważ odbiera różne sygnały od użytkowników, to jest ta cała konwersacja, to inkrementacyjnie się ulepsza. Tam jest używany deep learning z tyłu, tu możemy pomyśleć o takim algorytmie.  Duża ilość algorytmów klasycznych, oni muszą wziąć dane i nauczyć się od początku. To jest bardzo interesujące i bardzo często ludzie o to pytają, natomiast jeśli jesteśmy poza deep-learning to właściwie takich algorytmów jest bardzo niewiele.</p>
<p><b>Vladimir<br /></b>Wspomniałaś o Luisie, więc przejdźmy w tym kierunku. Najpierw porozmawiamy, co to jest Bot Framework. Pozwól, że wspomnę jedną rzecz, miałaś prezentację na konferencji NewCrafts, gdzie między innymi zaznaczyłaś, zacytuję Ciebie: “Celem tej prezentacji jest pomóc uczestnikom przejść od poziomu, gdzie nigdy nie tworzyli chatbota, do stworzenia tego, który potrafi prowadzić rozmowę”. Brzmi to ciekawie i chciałbym rozwinąć ten temat. Ale najpierw, może warto zdefiniować czym jest chatbot?</p>
<p><b>Basia<br /></b>To był mój zamysł, żeby trochę odrzeć z magii te chatboty. Chatbot to jest rozmowa gdzie z jednej strony jest komputer (maszyna). I to jest wszystko. Tam nie musi być żadnej sztucznej inteligencji, oczywiście wtedy to nie jest tak interesujące. Też dawałem tego <i>talk’a </i>z myślą o tym jak sztuczną inteligencję zaaplikować w tym przypadku. Natomiast same pojęcia chatbot to jest coś mechanicznego z jednej strony konwersacji. Jeżeli na przykład bardzo wyspecjalizujemy takiego chatbota on będzie mówił Ci jaka jest pogoda. Możemy sobie wyobrazić bardzo prymitywną rozmowę która będzie działała. Po prostu piszesz nazwę miasta, np. Londyn, Kraków czy Warszawa, po przecinku datę i ten chatbot odpowiada jaka jest pogoda. Tutaj jest mało magii bo to mógł być zwykły <i>select</i> do bazy danych w której trzymamy dane o pogodzie.</p>
<p><b>Vladimir<br /></b>Zacząłeś mówić o pogodzie i chatbot’ach. To mi od razu przypomniał się chatbot Poncho, który już teraz jest dość popularny. Tak jeszcze podsumowując. Chatbot to jest, w dużym uproszczeniu to jest zwykły program który w środku zawiera jakieś reguły. Oczywiście, jeżeli chcemy bardzo skomplikowany chatbot &#8211; to musi być również bardziej złożony w środku. Ale w gruncie rzeczy to jest zwykły program który próbuje z nami komunikować się. Zgadza się?</p>
<p><b>Basia<br /></b>Zgadza się.</p>
<p><b>Vladimir<br /></b>To idziemy w szczegóły jeżeli chodzi o to oferuję Microsoft. Co to jest i co oferuje Bot Framework dla biznesu?</p>
<p><b>Basia<br /></b>Jeżeli myślimy o takim prostym chatbocie.  Bot Framework ma taką koncepcję, że baterie są w komplecie, ale można je usunąć. Jeżeli chcemy zbudować bardzo prosty chatbot pogodowy, to możemy zrobić to bardzo prosto. Ponieważ mamy <a href="https://docs.microsoft.com/en-us/bot-framework/dotnet/bot-builder-dotnet-quickstart" target="_blank" rel="nofollow noopener noreferrer">SDK</a> w którym możemy zbudować system odbierający wiadomości. Mamy <i>connector</i>, który może połączyć się z różnymi kanałami wiadomości, np. ze Skype, nawet z sms’ami, mailem, można również wstawić na stronę. Jest trzeci element który dotyczy hostowania, tego chatbota. Bo to jest po prostu usługa.</p>
<p><iframe title="Getting Started with the Microsoft Bot Framework | Sarah Sexton" width="960" height="540" src="https://www.youtube.com/embed/3otQkuf21A8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Znowu mamy RESTowy API. Jak zbudujemy chatbota, możemy go upublicznić. Ja na przykład, na potrzeby tego talka, który wspomniałeś, mój chatbot jest na skype, można go znaleźć i sobie porozmawiać. W prosty sposób jest hostowany na Azure. Jeżeli mówimy o tej ciekawej części, wrzucenie sztucznej inteligencji, to na etape kiedy wysyłamy wiadomości od użytkownika to możemy zaaplikować wszystko co nam się chce. To może być zwykły <i>select</i> do bazy danych, ale również zaaplikowana sztuczna inteligencja. To może być Luis, który jest częścią Cognitive Services który Microsoft oferuje, ale to może być jakikolwiek inny algorytm, jakikolwiek inny system.</p>
<p><b>Vladimir<br /></b>Właśnie, wspomniałeś już po raz drugi o Luis, więc warto przejść do szczegółów. Kim jest <a href="https://www.luis.ai/" target="_blank" rel="nofollow noopener noreferrer">Luis</a> i co tak naprawdę robi? Dlaczego jest przydatny dla biznesu?</p>
<p><b>Basia<br /></b>Luis to jedna z usług Cognitive Services która właśnie zajmuje się analizą tekstu, nie taką o której mówiliśmy wcześniej. Nie szuka sentymentów, nie sprawdza języka itd, jest przydatny przede wszystkim dla rozmowy. Bo co nam jest przydatne w rozmowie, jeżeli chcemy to inteligentnie poprowadzić? Chcemy się dowiedzieć o co użytkownik pyta oraz nie chcemy zmuszać go do jakiegoś specjalnego formatu jego odpowiedzi, czyli chcemy, żeby ta rozmowa przebiegała jak najbardziej naturalnie. Powiedzmy, niech będzie przykład z pogodą, ale niech będzie to bardziej naturalna rozmowa. Pozwólmy użytkownikowi powiedzieć: “Jak będzie jutro pogoda w Krakowie?”.</p>
<p>Zadaniem Luisa, tego modelu, który trzeba będzie wytrenować jest to, by po pierwsze dowiedzieć się, że użytkownik pyta się o pogodę &#8211; to jest nazywane <i>intent</i>. Nie wiem czy po polsku “intencja” jest dobrym słowem… Chcemy się dowiedzieć, czego chcę użytkownik &#8211; kontekst tego pytania. Żeby wyłuskać te dane &#8211; Kraków i jutro. Znów ja bym ostrzegła, że to nie jest tak, że się bierze Luisa i to zacznie magiczne działać dla wszystkiego. Trzeba taki model zbudować, wytrenować i wtedy dopiero użyć.  No bo skąd taka usługa miała wiedzieć, że nasza aplikacja jest o pogodzie?</p>
<p>Może być o czymkolwiek innym, więc my musimy podać ilość przykładów na których model będzie się uczył. Musimy przede wszystkim powiedzieć modelowi wyłuskaj dla mnie te, a nie inne informacjie. Wyłuskać daty czy imiona, raczej jest dość łatwo. Jeżeli chcemy coś specyficznego &#8211; to trzeba to zbudować.</p>
<p><b>Vladimir<br /></b>Luis umożliwia rozumieć mowę użytkownika w bardziej przyjazny sposób, nie tylko “Jak jest pogoda w Krakowie?”, tylko może zapytać na różne sposoby: “Czy jutro będzie padało?” czy “Jak jutro będzie temperatura?”. Tak jak już podkreślałaś wcześniej, bardzo ważne jest najpierw pokazać Luisowi w jaki sposób on to może rozumieć, czyli przykładowe konwersacjie.</p>
<p>Teraz jeszcze dopytam o języki. Czy Luis również wspiera polski?</p>
<p><b>Basia<br /></b>Nie, nie ma… sprawdziłem to też. Jeśli chodzi o języki jest ich dwanaście wspieranych: American English, Canadian French, Italian, Dutch, German, Spanish, Portuguese, Japanese, Chinese. To są języki które wspieramy, ale nie wszystkie mają rozbudowany model jeżeli chodzi o standardową funkcjonalność.</p>
<p><b>Vladimir<br /></b>Jeżeli chcesz użyć teraz Luis w języku polskim, to może być dość trudne. Natomiast jest pewne obejście tego i jedna firma tak zrobiła. W piątym odcinku, Tomek Wesołowski opowiadał o Edwardzie (inteligentny asystent sprzedaży). Oni to robią tak, najpierw język polski tłumaczą na angielski, a później już analizują tekst. Tutaj też można było spróbować pójść tym tropem.</p>
<p><b>Basia<br /></b>To jest bardzo dobry pomysł. Tłumaczenie z polskiego istnieje i takie rozwiązania też widziałam.</p>
<p><b>Vladimir<br /></b>To jest dość sprytne. Trzeba nadal mieć świadomość, że z jednej strony to może zacząć działać, a z drugiej strony w trakcie tłumaczenia potrafimy coś zgubić. Dlatego to bardzo zależy od kontekstu. Trzeba było sprawdzić, na ile taki krok pośredni faktycznie pomaga rozwiązać problem. W przypadku jeżeli konwersja jest dość prosta &#8211; to może zadziałać, dla bardziej zaawansowanych przypadków (gdzie są używane różne skomplikowane wyrazy) to może być wyzwanie.</p>
<p>Jeszcze dopytam się o kilka rzeczy logistyczne. Pytanie jest takie z punktu widzenia infrastruktury, taki chatbot jest w stanie odbierać 10 wiadomości dziennie, czy 10 mln wiadomości dziennie? Czy gdzieś pomiędzy? Czy da się skalować to efektywnie?</p>
<p><b>Basia<br /></b>Tak jak mówiłam, to jest usługa REST’owa, więc w zależności od tego gdzie i jak będzie hostowane. To już jest rozwiązany problem. To niczym nie różni się od hostowania strony. Nawet powiedziałabym, że to jest o wiele łatwiejsze, bo to tylko tekstowe wiadomości. Nie musimy renderować cały stron, więc skalowanie to jest problem rozwiązany już. Tak najbardziej, może być tysiące czy miliony wiadomości.</p>
<p><b>Vladimir<br /></b>To brzmi bardzo ciekawe, zwłaszcza jak agencja marketingowa lub inne firmy które potrzebują uruchomić chatbota w jakiś konkretny dzień kiedy coś tam się dzieje, albo wtedy kiedy awaria się wydarzyła to wtedy trzeba wyskalować od 10 tys. wiadomości do 10 mln. wiadomości. Potem jak tego już nie potrzebują wrócić. Z tego co zrozumiałem jest to wyklikowalne i można zrobić w kilka minut, a może nawet sekund… Zgadzasz się?</p>
<p><b>Basia<br /></b>Tak. Jest również wiele rozwiązań które potrafią dynamicznie się dostosować do tego ile mamy użytkowników, którzy pukają do naszych drzwi.</p>
<p><b>Vladimir<br /></b>Ok. Nawet nie musimy klikać, system sam się dopasuje do naszych potrzeb. Jeszcze, żeby faktycznie zrozumieć to o czym mówimy przeróbmy przykład. Na początku już wspomniałeś o podobnym. Przykład jest taki. Załóżmy, że mam biznes który dostarcza pizzę. Chcę zrobić możliwość zamówienia pizzy przez chat. Z możliwością wyboru pizzy, rodzaju ciasta, dodatków. Jak wygląda taka konfiguracja i ile czasu to może zająć implementacja?</p>
<p><b>Basia<br /></b>To wszystko zależy jaki <i>fault tolerance</i> będziemy mieli, jakiej jakości chcemy mieć naszego chatbota. Pierwsza decyzja która należy podjąć, to gdzie wstawiamy chatbota. Czy to będzie Skype, czy to będzie na naszej stronie. Jeżeli to będzie jeden ze standardowych kanałów, to właściwie jest jedno kliknięcie, jeżeli chodzi o deployment. Na przykład <a href="https://www.skyscanner.net/" target="_blank" rel="nofollow noopener noreferrer">SkyScanner</a> ma takiego chatbot który zbudował razem z Microsoft.</p>
<p><iframe title="Skyscanner Bot on Skype" width="960" height="720" src="https://www.youtube.com/embed/fkPrDb-Kqr0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>To jest zwykły bot, którego można dodać sobie do znajomych na skype. Ta część, jeżeli chodzi o deployment ona jest raczej dość prosta, no chyba że nie mamy standardowego kanału, to wtedy trzeba go dopisać.</p>
<p><b>Vladimir<br /></b>Załóżmy, mamy standardowy kanał. To może być Skype czy na stronie. Potrzebuje w tym przypadku wejść na stronę Microsoft, stworzyć nowego bota, wybrać kanał. Pytanie jest w jaki sposób, mogę mu powiedzieć jakie pizze mam i jak mogę go nauczyć?</p>
<p><b>Basia<br /></b>To jest inna część, to jest właśnie ta część która będzie rozmawiać. To jest najbardziej czasochłonna część. Musimy wymyślić scenariusz, jak chcemy żeby ta rozmowa przebiegała.  Myślę, że to jest najbardziej czasochłonna część. Cała reszta jest drugorzędna. Wyobraź sobie, że klient przychodzi do chatbota, wita się, mówi “Dzień dobry, chciałbym zamówić pizzę”.</p>
<p>Teraz musimy się zastanowić, co ten chatbot będzie odpowiadał. Czy on będzie po prostu mówił “Tak. Słucham. Jaką pizzę?”. Co jeżeli użytkownik w pewnym momencie zmieni zdanie, np. będzie chciał dodać jeszcze pizzę bo zapomniał? Czy my będziemy chcieli wrzucić jeszcze jakieś rekomendacje do rozmowy? Patrząc co ten użytkownik w przeszłości zamawiał. Jeżeli chcemy to zrobić bardzo prosto, to możemy zrobić kroki tej konwersacji: główne dania, dodatki i napoje.</p>
<p>Ze zwykłymi pętlami “if” skacząc do specyficznych momentów tej konwersacji. Jeżeli chcemy, żeby to było takie bardziej naturalne to wtedy ten scenariusz, musi być bardziej skomplikowany. Żeby to była jak najbardziej naturalna konwersacja. Cała reszta to jest tak naprawdę zakodowanie kilku “if’ów”. Kodowania w tej kwestii naprawdę nie ma dużo. Tutaj też będzie duża robota, ale ona z chatbotem nie jest związana &#8211; zrealizowania zamówienia. Jak już zbierzemy te wszystkie informacje od użytkownika, to musimy napisać coś co do naszego systemu to zamówienia wstawi. Kogoś powiadomi, że ma zrobić tą pizzę i dostarczyć to wszystko.</p>
<p><b>Vladimir<br /></b>Podsumowując. Możemy podzielić to na trzy części.</p>
<p>Pierwsza część to jest interfejs, kanały w jaki sposób komunikujemy się z chatbotem. To może być Skype, Facebook Messenger albo strona internetowa. W tym przypadku to robi się bardzo prosto i tutaj nie ma co się martwić.</p>
<p>Druga część, to należy zebrać wszystkie, albo przynajmniej za ostatni miesiąc czy rok, przykładowe dyskusje, w jaki sposób ludzie zamawiają pizzę. I zrozumieć jakie są możliwe kroki. Jeżeli człowiek mówi o tym, to co może być dalej. Na przykład czy następne pytanie będzie o dodatki czy rozmiar pizzy. Przygotować takie drzewa, gdzie można  po nim podróżować podczas konwersacji.</p>
<p>Trzecia część, to jest tak zwana egzekucja. Kiedy już wszystko wiemy, trzeba faktycznie to zrobić. W jakiś sposób zintegrować się z naszym systemem wewnętrznym albo wysłać maila komuś.</p>
<p>Dobrze, wydaje się, że to jest w miarę zrozumiałe na wysokim poziomie. I ta druga część, jest największym wyzwaniem. Drogi czytelniku jeżeli masz już przygotowany scenariusz, to prawdopodobnie przygotowanie chatbota nie będzie dla Ciebie dużym wyzwaniem.</p>
<p>Mam do Ciebie jeszcze takie pytanie. Ten podcast słuchają ludzie, którzy mają wpływ na to, czy użyć uczenia maszynowego czy nie w firmie. Tak jak zawsze to bywa, wszystko co jest nieznane wzbudza wątpliwości (a przynajmniej powinno, bo inaczej wiele błędnych decyzji można podjąć). Pytanie do Ciebie, co doradzisz osobom czy firmom, które wcześniej nigdy nie używali uczenia maszynowego ale mają zamiar to zrobić? Dlaczego warto i na co powinny uważać?</p>
<p><b>Basia<br /></b>Po pierwsze, powiedziałabym, żeby uważać na wszelkiego rodzaju konsultantów od machine learning. I to nie oznacza, że konsultanci od machine learning są szarlatanami. Wiem, że są bardzo podekscytowani tym co robią i ta ekscytacja potrafi zamglić wartość biznesową. Wrócę do tego, co mówiłam na początku. Dla firmy najważniejsze jest to, żeby zarabiać pieniądze. Mówię, to jak najbardziej uczciwie, bo właśnie to firmy robią. Jeżeli celem firmy jest nauka i rozwój pracowników, wtedy prostu należy w to wejść, spróbować nowych rzeczy.</p>
<p>Natomiast, jeżeli myślimy pod kątem, co tam nam może dać, czyli tej firmie (w sensie pieniędzy). Należy bardzo ostrożnie do tego podejść. Ponieważ uczenie maszynowe to jest proces który bierze nasze dane historyczne i będzie potrafiło przewidzieć coś w przyszłości dla nas. Należy popracować nad zadaniem tego pytania. Co my chcemy zmienić w naszej firmie. Na przykład chcemy się skupić na sprzedaży i chcemy je ulepszyć. Co to oznacza ulepszyć? Mamy jakieś podejrzenie, że zmiana tego &#8211; zmieni to. Skupić się na tym pytaniu biznesowym. Co my chcemy przewidzieć w przyszłości. Wtedy, jeżeli mamy takie pytanie, albo pracujemy razem z <i>Data Scientist</i> nad sformułowaniem tego pytania. To myślę, że machine learning tutaj ma bardzo dużo do zaoferowania.</p>
<p>Jak to już będzie stworzone, jak przebiegnie ta cała egzekucja całego tego programu czy projekt, to już jest sprawa drugorzędna. Tutaj naprawdę podkreślam po raz kolejny, że machine learning bazuje się na danych historycznych, a one mogą nam powiedzieć na temat trendów oraz przyszłości. Trzeba się zastanowić, co to może być. Przeanalizować te dane. Czasami jak się analizuje te dane, to pytania stają się bardzo wyraźne albo nagle nam wpada do głowy następne pytanie. Myślę, że należy zatrudnić kogoś, kto na danych się zna, ale skupiać się na wartości biznesowej. Dobrze by było, żeby osoba od danych pracowała razem z osobą która zna się na tej konkretnej domenie biznesowej. Wie z czym to się je. Jak dwie osoby będą pracować razem to wtedy “<i>the sky is the limit</i>”.</p>
<p><b>Vladimir<br /></b>Najpierw zrozumieć problem który chcemy rozwiązać, a potem znaleźć narzędzia. Uczenie maszynowe jest potężnym narzędziem, ale to też nie jest magia. Jeżeli chcemy po prostu użyć uczenia maszynowe, nie wiedząc co chcemy ulepszyć, to raczej nic z tego nie wyjdzie.</p>
<p><b>Basia<br /></b>Coś wyjdzie. Użyjesz którąś z usług albo biblioteki jakieś cyferki wyjdą, tylko pytanie jest, czy to będzie miała jakikolwiek sens :)?</p>
<p><b>Vladimir<br /></b>Dokładnie. Może wyjść coś, czego kompletnie się nie spodziewamy. Bo zawsze się spodziewamy ulepszyć nasz biznes, a nie tylko użyć modnej technologii, która nic nam nie daje z punktu widzenia korzyści dla biznesu.</p>
<p>Kolejne pytanie, jaką widzisz przyszłość AI lub sztucznej inteligencji i jak nasz świat może wyglądać za 20 a może nawet i 10 lat?</p>
<p><b>Basia<br /></b>Masz na myśli, to co nam te różne filmy sprzedają, że maszyny będą nami władać? To jest możliwe, ale nie powiedziałabym, że w przeciągu 10 czy 20 lat. Co ja widzę w tym momencie, jaki jest trend. Wiele rzeczy będzie zautomatyzowane, ale ja myślę o tym w dobry sposób. Mimo że automatyzacja, może powodować krótkoterminowe frustracje. Na przykład jak zautomatyzujemy linię produkcyjną, to wtedy ludzie stracą pracę. Jednak to zawsze jest dobre dla technologii i ogólnie dla cywilizacji.</p>
<p>Takie mam wrażenie. Ponieważ ja w to wierzę, jeżeli przestaniemy jako ludzie wykonywać powtarzalne rzeczy, które mogą być zautomatyzowane, to możemy się skupić na rzeczach fajnych które sprawiają nam przyjemność, które dotyczą kreatywności. Właściwie na tym, na czym polega ludzkość. Co mogą ludzi dodać od siebie, nie pracując jako maszyny.</p>
<p><b>Vladimir<br /></b>Bardzo miło mi jest to słyszeć. Nie umawialiśmy w żaden sposób z Basią, żeby ona powiedziała dokładnie to, o czym mówiłem kilka odcinków temu. Bardzo mnie cieszy, że Basia ma podobną opinie. Też trzymam kciuki, żeby faktycznie tak się stało. Po pierwsze uczenie maszynowe albo tak zwana sztuczna inteligencja pomogła nam wyeliminować tę pracę rutynową. A po drugie, żebyśmy my jako ludzkość skupili się na bardziej kreatywnych, bardziej otwartych pytaniach, wyzwaniach, niż tylko chodzenie do pracy od 8 do 5. Bardzo przyjemnie mi jest to słyszeć.</p>
<p>Na swoim blogu <a href="http://barbarafusinska.com/2017/04/03/dreams-passion-and-maths/" target="_blank" rel="nofollow noopener noreferrer">wspominałaś</a>, że chcesz stworzyć cykl artykułów dla osób które mają doświadczenie w oprogramowaniu, a chcą zmienić kierunek w stronę tak zwanego <i>data science</i>. Również wspominałaś o warsztatach. Podziel się swoimi planami na przyszłość?</p>
<p><b>Basia<br /></b>Jestem w trakcie pisania, ale inne obowiązki jak konferencje i inne nie pozwoliły mi robić to tak szybko jak się chce. Natomiast tak, myślę, że za niedługo otworzę swoją własną firmę konsultacyjną. Chciałbym się skupić na edukacji. Żeby jakoś okiełznać to morze lub nawet ocean różnego rodzaju kursów, informacji dotyczących machine learning i AI. Ponieważ, przez to przechodziłam i chciałbym, żeby to istniało na początku mojej drogi.</p>
<p>Zacznę od podstaw, bo uważam, że wbrew temu że wiele stron w internecie mówi. Chcę zacząć od podstaw, jak użyć różnych bibliotek, różnych algorytmów do tego, żeby rozpoznać i zastosować je do takich typowych zbiorów danych. Przejdę również do takich zbiorów danych które są bardziej interesujące, które zazwyczaj są bardziej skomplikowane i wymagają większej wiedzy.</p>
<p>Nie jestem zwolennikiem tego, żeby wyrzucić kogoś na głęboką wodę, żeby wtedy szybciej się nauczył. Wiem, że człowiek może naprawdę zatonąć jeśli nie umie pływać. Można się zniechęcić jeżeli projekt jest za trudny. Chciałbym budować te umiejętności stopniowo. Zaczynając od prostych ale konkretnych rzeczy. Chciałbym, żeby to wszystko było oparte na kodzie, a nie opowiadaniu historii. Będzie to trochę mieszanka, zarówno R jak i Python.  Teraz na przykład <a href="https://www.tensorflow.org/" target="_blank" rel="nofollow noopener noreferrer">tensorflow</a> jest bardzo interesującą biblioteką i używaną w języku Python.</p>
<p>Jeżeli chodzi o warsztaty. Mam gotowy warsztat “Machine Learning in R”, również ma warsztat który tłumaczy czym jest machine learning. Ten warsztat bazuje się na Azure Machine Learning. To jest jedna z technologii w chmurze Azure.</p>
<p>Mam też warsztat, który uczy jak korzystać z Bot Framework. I tam będę uczyć jak zbudować chatbot. Nie wiem, czy oglądałeś IT Crowd tam jest taka “Answering machine”. Jak ktokolwiek dzwoni do supportu, to ta maszyna ciąglę odpowiada: “<i>Have you try to turn on and off again</i>”. Coś takie zasymulować, taki dzień lub dwa. Żeby od początku nie mając nic, co taką konwersacje poprawdzi.  Tam będą elementy Bot Framework i Luis.</p>
<p><iframe title="The IT Crowd - Hello IT Machine - embeddable" width="960" height="720" src="https://www.youtube.com/embed/PtXtIivRRKQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Takie trzy tematy mam w tym momencie.</p>
<p><b>Vladimir<br /></b>To brzmi bardzo ambitnie. Trzymam kciuki, żeby Ci się udało. Oglądałem przynajmniej dwie prezentacje. Jedna z nich była o języku R i według mnie bardzo fajnie Ci to idzie. Jeszcze raz, trzymam kciuki i mam nadzieje, że wszystko Ci się uda.</p>
<p><iframe title="The R language - Barbara Fusińska - wroc_love.rb 2016" width="960" height="540" src="https://www.youtube.com/embed/puPYAOdtFkE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><b>Basia<br /></b>Dziękuję.</p>
<p><b>Vladimir<br /></b>Ostatnie pytanie na dzisiaj. Jeżeli ktoś będzie chciał z Tobą skontaktować się, to jak to może zrobić?</p>
<p><b>Basia<br /></b>To jest bardzo proste &#8211;  <em>barbara &lt;małpka&gt; fusinska.com</em>. Jestem na <a href="https://twitter.com/basiafusinska" target="_blank" rel="nofollow noopener noreferrer">twiterze</a>. Mam oprócz tego gmail: <em>barbara.fusinska &lt;małpka&gt; gmail.com</em>. Jestem jedyną osobą na świecie który ma takie imię i nazwisko. Przynajmniej w internecie. Jeżeli ktoś mnie wygugluje, to jestem na pewno ja.</p>
<p><b>Vladimir<br /></b>Dziękuję Ci bardzo za Twój czas.</p>
<hr />
<p>Co myślisz o tym co powiedziała Basia? Basia zwracała szczególną uwagę, na to, że nawet wtedy, gdy jest ktoś kto rozwiązuje nasze problemy związane z uczeniem maszynowym, takie jak moc obliczeniowa, skalowalność, wytrenowane modele to nadal zdrowy rozsądek trzeba mieć, żeby potrafić to użyć. Należy uświadomić sobie, że dane mają naprawdę duży wpływ na rozwiązanie.</p>
<p>Dla mnie było ta rozmowa ciekawa, bo myślę, że podobne platformy to jest jeden z kierunków który w przyszłości pomoże używać uczenia maszynowego na większych obrotach. Są inne platformy i mam plan również podzielić się z Tobą wiedzą na ten temat.</p>
<h2>Podziękowania</h2>
<p>Zacznę od komentarzy na <a href="https://itunes.apple.com/us/podcast/id1215290277" target="_blank" rel="nofollow noopener noreferrer">itunes</a>, bo są tam dwa z pięcioma gwiazdkami &#8211; co mnie bardzo cieszy. Jeden jest od osoby z Białorusi z Brześcia. Dziękuję Ci brest_by. A drugi jest od Donald Trąba który napisał “Warto! Ciekawy podcast”. Dzięki wielkie, bardzo mi miło to słyszeć i czerpać z tego energię, żeby kontynuować to co robię. Podziel się swoją opinią, dla Ciebie to jest dosłownie minuta, a zrobisz dwie dobre rzeczy: osoby które będą potrzebować tego podcastu, będą mogły to zrobić łatwiej, bo tak działa wyszukiwarka w itunes. A po drugie, naładujesz moją baterię. Z góry dziękuję.</p>
<p>Dziękuję również za maile które dostaję i gdzie staram się pomóc. Zacytuję jeden z maili, a właściwe jego końcówkę:  Vladimir robisz świetną robotę. Tak trzymać i proszę kontynuuj nagrywać swój podcast. Świat naprawdę potrzebuje takich ludzi jak ty. Bardzo dziękuję Ci Krzysiek, za takie słowa.</p>
<p>Dzięki również za retweety i udostępniania na facebooku.</p>
<p>Jeszcze jedna rzecz, która może być ciekawa dla Ciebie. W zeszłym tygodniu został opublikowany odcinek: <a href="http://marciniwuc.com/sztuczna-inteligencja-02/" target="_blank" rel="nofollow noopener noreferrer">doradca finansowy ze sztuczną inteligencją</a>. Gorąco polecam do wysłuchania. Również przy okazji pozdrawiam i dziękuję Marcinowi Iwuciowi. Bardzo przyjemnie się z nim rozmawiało i jego sposób myślenia (również już w prywatnych rozmowach) pokazuje, że myślę o tym jak pomóc ludziom, a nie być konsumentom. Bardzo bliskie jest mi takie podejście… i dlatego tak inspirujące.</p>
<p>Kilka dobrych wieści na koniec.</p>
<p>W sobotę, 17 czerwca, odbędzie się konferencja <a href="http://polcaster.pl/" target="_blank" rel="nofollow noopener noreferrer" class="broken_link">Polcaster</a>. To już jest trzecia edycja i bardzo polecam odwiedzić ją osobom, które zamierzają uruchomić swój własny podcast albo już go mają. Będę miał również wykład &#8211; opowiem o wyzwaniach które miałem kiedy zaczynałem tworzyć Biznes Myśli i jak je pokonałem. Jeżeli masz czas, chcesz się spotkać ze mną to gorąco zapraszam. Wstęp jest bezpłatny, wymagana jest jedynie rejestracja. Do zobaczenia.</p>
<figure id="attachment_366" aria-describedby="caption-attachment-366" style="width: 1067px" class="wp-caption aligncenter"><a href="http://polcaster.pl/" target="_blank" rel="nofollow noopener noreferrer" class="broken_link"><img decoding="async" class="size-full wp-image-366" src="https://biznesmysli.pl/wp-content/uploads/2017/06/polcaster.jpg" alt="PolCaster 2017 | Promujemy polski podcasting!" width="1067" height="628" srcset="https://biznesmysli.pl/wp-content/uploads/2017/06/polcaster.jpg 1067w, https://biznesmysli.pl/wp-content/uploads/2017/06/polcaster-300x177.jpg 300w, https://biznesmysli.pl/wp-content/uploads/2017/06/polcaster-1024x603.jpg 1024w, https://biznesmysli.pl/wp-content/uploads/2017/06/polcaster-768x452.jpg 768w" sizes="(max-width: 1067px) 100vw, 1067px" /></a><figcaption id="caption-attachment-366" class="wp-caption-text">PolCaster 2017 | Promujemy polski podcasting!</figcaption></figure>
<p>Już wspomniałem wcześniej o mojej innej inicjatywie <a href="http://dataworkshop.eu/">Data Workshop</a>. To są warsztaty gdzie pokazuję jak zacząć używać uczenie maszynowe w praktyce, bez żadnych studiów doktoranckich. Celem jest pokazać jak rozwiązać realny problem po linii najmniejszego oporu. Uczenie maszynowe jest bardzo złożonym tematem i zrozumieć wszystkiego po prostu się nie da, ale zrozumieć jak to używać &#8211; jak najbardziej. Dlaczego o tym mówię? Przy współpracę z organizatorami konferencji <a href="https://www.chatbotsummit.com/" target="_blank" rel="nofollow noopener noreferrer">Chat Bot Summit</a> udało się dostać zniżkę na konferencję która odbędzie się w Berlinie 26 czerwca. Zniżka to 20%, wystarczy wpisać promokod &#8222;<b>dataworkshop20</b>&#8221; bez żadnych spacji wszystko z małej litery. Proszę daj znać jeżeli zdecydujesz się tam wybrać.</p>
<p>To tyle na dzisiaj. Dziękuję Ci bardzo za Twój czas i energię.</p>
<h2>Książka polecana przez gościa</h2>
<ul class="books">
<li><a href="https://www.amazon.com/gp/product/0062273205/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=0062273205&amp;linkCode=as2&amp;tag=biznesmysli-20&amp;linkId=ba14be08efa6627bb4247e8ca01cb96f" target="_blank" rel="”nofollow” noopener noreferrer"><img decoding="async" src="//ws-na.amazon-adsystem.com/widgets/q?_encoding=UTF8&amp;MarketPlace=US&amp;ASIN=0062273205&amp;ServiceVersion=20070822&amp;ID=AsinImage&amp;WS=1&amp;Format=_SL250_&amp;tag=biznesmysli-20" border="0" /></a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-na.amazon-adsystem.com/e/ir?t=biznesmysli-20&amp;l=am2&amp;o=1&amp;a=0062273205" alt="" width="1" height="1" border="0" /></li>
</ul><p>Artykuł <a href="https://biznesmysli.pl/sztuczna-inteligencja-microsoft/">Rozmowa z Barbarą Fusińską &#8211; Data Solution Architect w Microsoft</a> pochodzi z serwisu <a href="https://biznesmysli.pl">Biznes Myśli</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://biznesmysli.pl/sztuczna-inteligencja-microsoft/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
