Biznes,  Podcast

Chmura Krajowa – sztuczna inteligencja i wykorzystanie danych w biznesie

Zaczynamy drugi sezon podcastu o sztucznej inteligencji i wykorzystaniu danych w biznesie!


2 sezon zaczął się trochę później, m.in. dlatego, że uruchomiliśmy w ramach DataWorkshop taką inicjatywę jak DWthon – hack outside the box, która pochłonęła więcej czasu. Zaraz Ci opowiem, o co chodzi, bo w tej inicjatywie też może być wartość dodana dla Ciebie. 

DWthon to jest taka 5-dniowa inicjatywa, która pozwoliła osobom początkującym w ML lub nawet osobom, które wcześniej nie programowały, zobaczyć na własne oczy moc narzędzia o nazwie uczenie maszynowe. W praktyce to oznacza, że możesz przeżyć „na własnej skórze” co to oznacza osiągać 80% wartości przy 20% wysiłku, czyli robić mniej, a dostawać więcej. To nie jest żadne oszustwo, tylko tzw. smart working (inteligentna praca). Ponad 1500 osób wzięło udział w tej inicjatywie. 

Taka krótka historia. Podczas urlopu przyszła świadomość, że warto wchodzić już na zupełnie inny poziom działania niż dotychczas, bo człowiek musi się rozwijać i pewne etapy już udało się osiągnąć. 

Wytłumaczę, o co mi chodzi w tym zdaniu. W pierwszych naszych bezpłatnych inicjatywach próbowaliśmy pokazać jak skonfigurować środowisko lokalne i to jest wiedza przydatna, ale skończyło się na czymś innym. Bardziej zajmowaliśmy się tym, jak zainstalować biblioteczkę A czy B na laptopie niż ML. Generalnie rzecz biorąc to nie jest taka trywialna rzecz i tego można się nauczyć, ale to jest bardziej na temat tzw. DevOps niż ML. 

Rozważaliśmy na ten temat i zaczęliśmy przechodzić w kierunku Google Colab. To jest takie środowisko, które udostępnia Google bezpłatnie. To środowisko ma wiele zalet, ale praktyka też pokazała, że nie gwarantuje, że środowisko będzie identyczne, tzn. przynajmniej w naszym przypadku. Jak uruchomiliśmy to przy większej liczbie uczestników (około 5000 testów mniej więcej było zrobione), to okazało się, że człowiek mógł zgubić się w którymś momencie, a Ty nie masz tam dostępu, nie możesz mu pomóc i to podejście też nie było najlepsze.



Rozważałem sobie, co możemy zrobić dalej i też porównywaliśmy jak to robimy w naszych płatnych kursach, które robimy w ramach DataWorkshop. Tam mamy gotowe środowisko z góry zainstalowane i cała konfiguracja nie jest taka trywialna. Ona potrzebuje dużo energii, żeby to zrobić, ale bardzo fajnie się sprawdza i tam przynajmniej pod kątem konfiguracji bibliotek w ogóle nie ma żadnych kłopotów, bo wszyscy mają w 100% identyczne środowisko.

Pomyśleliśmy sobie – a co jeżeli zrobić właśnie tak dla inicjatyw, które teraz robimy na większą skalę? Tylko tutaj pojawia się takie wyzwanie, bo co to oznacza? To oznacza, że np. tysiąc albo kilka tysięcy osób jednocześnie będzie zalogowanych. To już brzmi jako całkiem fajne wyzwanie, nad którym warto byłoby się pochylić, tym bardziej, że po urlopie jest troszkę więcej energii na bardziej szalone pomysły. W końcu weszliśmy w to, żeby to zrobić. Dużo eksperymentowaliśmy i udało się to zrobić. Wynikiem tego działania było to, że równolegle mogło się zalogować tyle osób ile było dostępnych (czyli ponad tysiąc). Każdy miał swój własny serwerek, na którym mógł takie rzeczy wykonywać. 

Więc bardzo się cieszę, że udało się ten pułap przeskoczyć, wykonać kolejny krok. Myślę, że kolejną poprzeczkę trzeba teraz podnieść, np. 100 tys. lub 1 mln osób równolegle, które się zalogują. Nie wiem gdzie tyle osób znajdziemy, ale nad tym też pracujemy. 

Zastosowanie chmury

Dlaczego w ogóle o tym wszystkim mówię? Tak się składa, że mimo tego, że słowo „chmura” raczej jest znanym słowem. Myślę, że dla Ciebie też jest znanym, bo skoro słuchasz Biznes Myśli, to raczej obiło Ci się to o uszy. Natomiast pytanie: czy ja to stosuję, to jednak jest duża różnica, prawda? Osobiście z chmurą jestem związany ponad 7 lat. Najpierw to był Amazon przez dobrych kilka lat, a potem przeszedł na Google Cloud i to mi bardzo się spodobało. Google Cloud akurat daje takie możliwości, kiedy więcej czasu masz na to, aby zająć się tzw. biznesem, a zdecydowanie mniej czasu potrzebujesz na różne konfiguracje. Jest takie poczucie, że kiedy to wszystko konfigurujesz to te klocki są fajnie zgrane ze sobą, że one się łączą. Podchodzisz do tego jak do klocków lego, np. wkładasz, dostajesz itd.

źródło: giphy.com

Kubernetes

Kolejna rzecz, ta inicjatywa o której wspomniałem – my tam pod spodem używamy tzw. Kubernetes. To z jednej strony open source, ale z drugiej strony, żeby go odpowiednio administrować (sam Kubernetes, nie mówię o konfiguracji na wyższym poziomie), to trzeba się postarać. Z jednej strony możesz zainstalować to nawet na serwer pod biurkiem, tylko wtedy potrzebujesz armii ludzi o odpowiednich kwalifikacjach (zwykle są w dużym deficycie) i koszty, które to generują. Więc to sprawia, że w tej chwili, jeżeli masz wybór, aby robić wszystko samodzielnie albo skorzystać z skonfigurowanych środowisk w chmurach to odpowiedź staje się oczywista.

Na temat chmury wprost nie było jeszcze ani jednego odcinka na Biznes Myśli, bo dla mnie jest to już taka oczywistość. Po prostu to działa, my to używamy i właściwie człowiek się zastanawia o czym tutaj można mówić. Natomiast jak robiłem sobie retrospekcję to uświadomiłem, że zwykle takie oczywiste rzeczy, czasem lepiej omówić dodatkowo, bo to może mieć znacznie większą wartość dodaną dla Ciebie niż tylko mówienie o tematach bardziej złożonych, czasem nawet bardziej abstrakcyjnych, które wykonuje np. DeepMind, bo też nie zawsze możesz to zastosować. Stąd taka decyzja, żeby w drugim sezonie przejść przez pewne tematy, które dotkną to co możesz wykorzystać wprost i dostać tego wartość dodaną. 


Kolejna rzecz jest taka, że od 14 kwietnia w roku 2021 r. Google Cloud będzie również Data Center w Polsce. Dotychczas najbliższe to była Finlandia albo Niemcy. Teraz uruchamia się Data Center w Polsce i nie można było przegapić tego wydarzenia, bo to jest dość ważne dla firm, które prowadzą biznes z Polski. Dlatego też zaprosiłem człowieka z firmy, który jest mocno związany z tym co się dzieje teraz, żeby więcej się dowiedzieć. Ale również to jest człowiek, który zajmuje się nie tylko serwerami chmurą, ale bardziej wykorzystuje te serwery, aby rozpędzać AI albo ML.



O chmurze i wykorzystaniu danych w biznesie z Jakubem Kułakiem

Dzisiejszym gościem jest Jakub Kułak, AI Head w Chmurze Krajowej. Dzisiejszy odcinek będzie właśnie na temat chmury, o tym co to oznacza na dzień dzisiejszy. Jak może pomóc Ci w zbieraniu danych, w obróbce danych i też oczywiście użycie ML, AI w łatwiejszy sposób. Na końcu też będą bardzo fajne przykłady, które pokażą Ci, jak w łatwy sposób możesz zacząć używać już AI, ML już dzisiaj.

Cześć Kuba! Przedstaw się kim jesteś, czym się zajmujesz i gdzie mieszkasz.

Cześć Vladimir. Dzięki za zaproszenie do podcastu. Jestem Kuba. Z branżą IT jestem związany od prawie 20 lat. Kiedyś jako programista, architekt, teraz jako menedżer dbający o dobór odpowiednich technologii w projektach, o klientów i przede wszystkim specjalistów z moich zespołów. Aktualnie pracuję jako szef zespołu kompetencyjnego Data AI w Chmurze Krajowej, a co do mieszkania to po kilku latach w różnych miejscach na świecie, mieszkam aktualnie w Warszawie i póki co nie planuję żadnych zmian.

Czym jest chmura i jaką niesie wartość dla biznesu?

Dzisiaj będziemy mówić o chmurze i żeby lepiej to było zrozumiałe dla wszystkich, najpierw spróbujmy to zdefiniować: czym jest chmura?

Uważam, że nazwa „chmura” nie jest zbyt wdzięczna, ponieważ mimo, że rozwiązania chmurowe istnieją już prawie dwie dekady, to cały czas trzeba te definicje tłumaczyć i rozwijać. Natomiast spodziewając się takiego pytania po raz kolejny, postanowiłem tym razem poszukać trochę i zaskoczyć Ciebie oraz słuchaczy małym rysem historycznym – jednym spośród wielu,  który chociaż trochę mnie przekonał.

Historia technologii cloud

Otóż dekady temu, jeszcze w XX w. (podejrzewam, że lata 80-te, 90-te) rysunki techniczne, diagramy (np. schematy sieciowe) wykorzystywały taki kształt dymku (nieregularny, przypominający chmurkę) do przedstawienia sieci zewnętrznej do której łączył się użytkownik, co było reprezentowane przez osobę przed monitorem – i taki piorun między użytkownikiem, a dymkiem. Z biegiem czasu ten dymek coraz bardziej przypominał chmurkę i w ten oto taki naturalny sposób, usługi zdalne spoza naszej sieci stały się usługami w chmurze.

Czym jest chmura?

Natomiast wracając do pytania i definicji, chmura to zestaw serwerów, infrastruktura, zestaw specjalnego oprogramowania i różnych usług dostępnych z serwerowni, zlokalizowanych gdzieś poza naszą własną siecią. Jeżeli jest to chmura publiczna tzn., że korzystać z niej może każdy kto jest zainteresowany i może za nią zapłacić. Na początku (mniej więcej 15 lat temu) usługi te ograniczały się najpierw do hostingu, ewentualnie udostępniania mocy obliczeniowej. Dzisiaj (zwłaszcza w przypadku chmur publicznych) to już setki różnych usług, dzięki którym można korzystać z najnowszych technologii (w tym sztucznej inteligencji) i superkomputerów do obróbki danych, bez konieczności martwienia się o serwery aplikacyjne, hardware, który to wszystko obsługuje, poprawki bezpieczeństwa, aktualizacje, backupy, powodzie itd. Na pewno o tych szczegółach jeszcze będziemy sobie dzisiaj rozmawiać.

Tak, dokładnie. Właśnie mówi się, że pojęcie technologiczne, firma, już nie dotyczy tylko sektora IT, ale przenika właściwie w różnych kierunkach. Taki przykład można na szybko znaleźć – np. w Rosji jest taka franczyza pizzeria Dodo i oni mają 250 pracowników IT – developerów, programistów. 

Dość mocna jest w tym wypadku wykorzystywana chmura także. Część osób pyta: ale po co, przecież jesteście pizzerią? Po co Wam tyle programistów? Oni odpowiadają, że oni nie są pizzerią, tylko firmą technologiczną. 

Teraz IT przenika w różne kierunku (przemysł, rolnictwo). Pytanie do Ciebie jest takie: czy Twoje doświadczenie potwierdza ten trend? Być może też masz pod ręką jakiś takie fajny, nieoczywisty, przykład jako dowód tego trendu?

Z pizzerią bardzo fajny przykład. Z mojej perspektywy biznes to biznes. Jest wiele cech, które łączą praktycznie wszystkie sektory, branże. Wszystko zawsze można zrobić z głową. Zresztą wydaje mi się, że do tego trochę nawiązuje trochę też nazwa Twojego podcastu Biznes Myśli. Wszędzie, gdzie wymagane są decyzje, najpierw trzeba zdefiniować problem, a dopiero później można próbować podejmować decyzje. Takie próby zawsze można wspierać za pomocą danych, które są odpowiednio zbierane, przetwarzane i prezentowane. 

Wszędzie gdzie zadania są powtarzalne, bez względu na branżę, można je optymalizować za pomocą lepszej technologii czy algorytmów. Wszędzie, gdzie polegamy na ludzkich zmysłach, możemy zaprząc do pracy usługi tzw. kognitywne, które zastępują oczy kamerami, uszy mikrofonami i najczęściej wykazują się wielokrotnie większą precyzją niż my sami.

Nieoczywiste zastosowanie chmury i uczenia maszynowego

Gdybyś w pytaniu nie wspomniał o rolnictwie i przemyśle to pewnie szybko nie przyszłyby mi do głowy, bo Chmura Krajowa współpracuje z firmami z obydwu sektorów. Niejako naturalne jest już dla mnie to jak bardzo zaawansowane rozwiązania wykorzystuje się tam już od naprawdę wielu lat. Przykładowo, w kontekście rolnictwa, na podstawie analizy zdjęć satelitarnych, modele sztucznej inteligencji, machine learning są w stanie precyzyjnie określić miejsca i czas potencjalnego zalania przez wylewającą rzekę, topniejący lód czy kilka innych, mniej oczywistych powodów.

Algorytmy są w stanie rozpoznawać uprawy na polach (łącznie z ich chorobami) i tym samym przyspieszyć wprowadzenie środków zapobiegawczych, ratując zbiory i często zmniejszając straty rolników.

Kolejny przykład już nie z naszego rodzimego podwórka akurat (chociaż z drugiej strony nie wykluczam też) to samobieżne maszyny rolnicze, które prawie jak nowoczesne odkurzacze w naszych domach, same planują sobie trasę sadzenia, wycinki, kopania czy nawożenia pola). Produkcja – przede wszystkim kontrola jakości w produkcji. Tam się wykorzystuje algorytmy sztucznej inteligencji, np. do super szybkiego identyfikowania usterek i braków w produktach czy półproduktach. Dzięki różnym czujnikom chemicznym, akustycznym, naprężeniowym i wielu innych, w zależności od tego co się produkuje – i oczywiście kamerom, bo taka inspekcja wizyjna jest dużym działem tej sztucznej inteligencji w produkcji. 

Bankowość i inne instytucje finansowe korzystają już teraz z bardzo zaawansowanych technologii do badania ryzyka kredytowego oraz wyszukiwania anomalii w logach z operacji wskazujących na potencjalne nadużycia przez swoich nieuczciwych klientów. 

Widzimy, że każdą branżę da się usprawnić, przede wszystkim trafnie definiując problem i wdrażając później odpowiednie rozwiązania oparte o dane lub odpowiednio dopasowane algorytmy.

Cyfrowa transformacja biznesu

Porozmawiajmy teraz właśnie o takim procesie przejścia. Mówi się, że właśnie ten proces przechodzenia od świata rzeczywistego do cyfrowego jest nazywany digitalizacją (ang. digitalisation) albo cyfryzacją.



Tutaj taka krótka historia, która wydarzyła się niedawno. Miesiąc temu, w Krakowie palił się budynek Archiwum. Sporo dokumentów zostało zniszczonych i w sumie nie do końca jeszcze wiadomo, ile dokładnie. Niestety były to dość często dokumenty w jednej kopii. Owszem, czasem gdzieś można je odzyskać. Też niestety nie ma w większości przypadków ich cyfrowej wersji. To jest dość dziwny przypadek, bo wydaje się, że akurat jeżeli chodzi o archiwum to cyfryzacja powinna być rzeczą numer jeden, powinna być wręcz standardem. 

Czy w innych branżach też to już staje się na tyle oczywiste, że przejście w kierunku cyfryzacji, to jest ogromna wartość dodana? Nie tylko jak w tym przykładzie z Archiwum, bo w tym przypadku wydaje się, że nawet nie ma o czym dyskutować, ale też dla innych branż, które niekoniecznie mają taką oczywistą wartość dodaną tej cyfryzacji. Co o tym myślisz?

Myślę, że dla nas – osób związanych z technologią już od dawna, takie Archiwum jest tak oczywiste i to nawet niekoniecznie przy wykorzystaniu nowoczesnych technologii, tylko zwykłego skanera i zapisania tego gdzieś na dysku, ale niestety w wielu przypadkach się to cały czas nie dzieje. Co do tej wartości dodanej i pytania to chyba padnie tu po raz pierwszy najbardziej popularna odpowiedź w IT czyli: „to zależy”.

Korzyści wynikające z cyfryzacji biznesu

Cyfryzacja biznesu może dawać wiele różnych korzyści, w zależności od branży, o której rozmawiamy. Różne zastosowanie nowoczesnych technologii w zależności od branży, specyfiki biznesu. Co innego znaczy cyfryzacja firmy produkcyjnej, a co innego placówki pocztowej czy sądu, ze względu na specyfikę. 

Gdybym jednak miał wyciągnąć taki wspólny mianownik to pewnie byłaby to możliwość odciążenia ludzi z realizacji najbardziej monotonnych, nudnych, może bardzo ciężkich fizycznie zadań, poprzez ich automatyzację. Tak, żeby pracownicy mogli skupić się na innych, często ważniejszych zadaniach, do których np. wcześniej brakowało personelu lub wymagają specjalistycznej wiedzy, której zakodowanie w algorytmach jest póki co trudne lub nawet niemożliwe.

 

Dzięki cyfryzacji możemy korzystać z zaawansowanych narzędzi do analizy naszych dokumentów, danych, produktów, klientów, decyzji itd. Jak czegoś nie badamy, nie zbieramy danych to trudno wiarygodnie zmierzyć postęp. Część z nas to zna na pewno z testowania aplikacji, gdzie wprowadzając zmiany musimy wiedzieć jaki był stan przed, żeby wiedzieć potem jaki wpływ nasze poprawki miały na ogólną sytuację. 

Natomiast cyfryzacja to bardzo szeroki termin, obejmujący wiele aspektów działania samej organizacji. Począwszy od uświadomienia sobie, jakie dane możemy zbierać i co nam mogą dać, aż po zmianę świadomości na taką, gdzie ludzie, pracownicy, zdają sobie sprawę czemu i jak powinny korzystać z tych danych. Swoje decyzje kierują lub w dużej mierze wspierają właśnie zbieraniem danych.

To wszystko aż do momentu powstania w firmie kultury, gdzie każdy myśli i kieruje się danymi czyli tzw. data-driven organization – najpierw osoby, potem zespoły, działy, aż do najbardziej zaawansowanej postaci, kiedy dostęp do danych (odpowiednio przygotowanych) mają już wszyscy i ma to pozytywny wpływ na działanie całej firmy. Natomiast temat tej dojrzałości był bardzo fajnie przedyskutowany w jednym z poprzednich odcinków Twojego podcastu, także to polecam.

Tak, dzięki. Również polecam wrócić do data-driven i jeszcze kilku innych odcinków na ten temat, bo o tym długo mówiliśmy.

Czym jest Chmura Krajowa?

Cyfryzacja, chmura i to całe podejście to jest raczej taka rzecz, która już nie staje się opcją, tylko jest w pewnym sensie koniecznością w większości przypadków, bo po prostu ciężko będzie konkurować i być bardziej efektywnym nie wykorzystując nowej technologii. To jak kiedyś 100 lat wcześniej nie było mechanizacji i rolnictwo było głównie pracą ręczna w 100% , w tej chwili to już jest normalne, że jest traktor, który wykonuje większość rzeczy. Jest jedynie kilka osób lub nawet jedna, która to obsługuje, a czasem nawet już ta jedna osoba nie będzie potrzebna. To rozpędza się bardzo szybko.

Już wspomniałeś, że pracujesz w Chmurze Krajowej i sama fraza Chmura Krajowa brzmi patriotycznie. Co to oznacza w praktyce? Powiedz kilka słów o tym, czym jest Chmura Krajowa? 

To, że brzmi patriotycznie to oznacza tyle, że zostaliśmy założeni przez dwa podmioty krajowe i świadczymy usługi przede wszystkim na rynku polskim. Głównym celem naszych założycieli i pomysłodawców było stworzenie takiej platformy, która ułatwi i będzie stymulować rozwój polskich firm oraz administracji publicznej. Od początku istnienia trwały rozmowy i dyskusje Chmury Krajowej z największymi dostawcami chmur publicznych, żeby ich dostępność była jeszcze większa w naszym kraju, dzięki czemu wkrótce otwiera się region Google Cloud w Polsce.

Ważnym aspektem i celem od początku było też stworzenie organizacji, której usługi są w pełni zgodne i dostosowane do lokalnych regulacji, których w Polsce mamy bardzo dużo (zwłaszcza w sektorze finansowym), przez co nasze portfolio składa się z kompletu usług, dzięki którym klienci nie muszą zastanawiać się jak dostosować się do tych regulacji, a dostają odpowiednio dopasowany do nich produkt zgodny z tymi regulacjami, w tym nawet wsparcie w obsłudze prawnej. Zatrudniamy wiele osób, które mają doświadczenie biznesowe i techniczne zarówno na rynku prywatnym, jak i publicznym. Dzięki czemu znamy procedury i procesy na poszczególnych rynkach i możemy bardzo sprawnie wspierać te firmy i instytucje, zarówno z sektora prywatnego jak i publicznego. 

Teraz po ponad dwóch latach istnienia widzimy, że jest coraz więcej klientów, którzy zastanawiają się bardziej kiedy i jak przechodzi się do chmury niż dopiero rozważających w ogóle taką drogę.

Czyli nie ma już pytań „czy”, tylko „kiedy” i “jak”.

Dokładnie tak.

Bezpieczeństwo danych w Chmurze Krajowej

Przygotowując się do tego odcinka, też badałem, co się dzieje w Internecie ale też tak przy okazji pytałem znajomych, przedsiębiorców, prezesów, czy wiedzą coś na temat Chmury Krajowej. Padło pytanie na temat dostępu do danych. 

Biorąc pod uwagę, że założycielem, udziałowcami w tym przypadku jest PKO BP i Polski Fundusz Rozwoju, co to znaczy w praktyce? Czy to oznacza dla firma X wchodzącej w tę współpracę, zapisującej wszystkie dane w chmurze? Kto ma wgląd w moje dane? 

Cieszę się, że się uśmiechamy obydwaj słysząc i wypowiadając te słowa. Jak już wspomniałem, Chmura Krajowa została stworzona z myślą o pełnej zgodności z regulacjami na naszym rynku. Już z tego w dużej mierze wynika, że dane firm, które przechowywane są na naszych serwerach są dostępne tylko i wyłącznie dla tych firm. Tutaj na poparcie tej tezy, nasze własne usługi, infrastruktura zostały zbudowane w oparciu o Cloud Control Matrix czyli frameworku budowania usług chmurowych od CSA czyli Cloud Security Alliance.

Nie będę wchodził tutaj w szczegóły, natomiast jest to framework, który wyróżnia wszystkie aspekty technologiczne, procesowe takich właśnie rozwiązań. Wszyscy najwięksi dostawcy usług chmurowych chwalą się posiadaniem takiego certyfikatu, który potwierdza zgodność (CSA Star). 


Na bezpieczeństwo w Chmurze Krajowej (w tym danych) składa się także zespół Security Operation Center, który czuwa nad usługami 24 godziny na dobę, 7 dni w tygodniu. Oraz ponad 30 osób w samym zespole Security, które łącznie mają setki lat doświadczeń w pracy z wrażliwymi danymi i budowaniem bezpiecznych środowisk przechowywania i przetwarzania danych.

Google Cloud Data Center w Warszawie

14 kwietnia Google Cloud otwiera Data Center również w Polsce, w Warszawie. Fizycznie nie do końca wiadomo gdzie, ale gdzieś w Warszawie lub w okolicach. Nawet dobrze, że nie wiadomo, będzie bardziej bezpieczne.



Dlaczego to jest dobra wiadomość? Tak się składa, że my jako DataWorkshop też używamy Google Cloud już od dawna. Właśnie był taki dylemat, gdzie jest najbliżej Polski. Przez moment byliśmy bardziej w Belgii, teraz bardziej Finlandia i teraz jak będzie w Polsce to brzmi, że pewnie będziemy robić niedługo przeprowadzkę, albo przynajmniej część serwerów będzie stała tutaj. Ciekaw jestem, jak te wszystkie rzeczy się połączyły? Rozumiem, że Chmura Krajowa i współpraca, która się wytoczyła, przyspieszyła pewne procesy, prawda? I Google Cloud się tu pojawia, tak?

Tak jest. To bardzo bliska współpraca naszego zarządu, zarządu Google Cloud też miała tutaj duży, kluczowy wpływ na to, że ten region został stworzony i się otwiera rzeczywiście wkrótce. Będzie się nazywał europe-central2, to też już nie jest tajemnicą. Można to sobie zobaczyć w kalkulatorze cen Google Cloud, gdzie on już się od jakiegoś czasu pojawia. Do tej pory najbliżej były regiony Oslo, Frankfurt. 

Na to, że jest to bardzo dobra wiadomość, składa się wiele aspektów. Po pierwsze, te najbardziej techniczne, najpierw liczymy przede wszystkim zagadnienie regionalizacji danych czyli możliwość takiego skonfigurowania wybranych usług, żeby nasze dane były przetwarzane i przechowywane tylko na terenie wybranego regionu. Dla wielu przedsiębiorstw jest to ważne zagadnienie, że dane nie opuszczają granic naszego kraju, chociaż w większości przypadków myślę, że wynika to bardziej z preferencji, może nawet sentymentu, ponieważ nie ma w Polsce przepisów, które wskazują, że dane muszą być przetwarzane na terenie kraju. Nawet RODO definiuje, że można przetwarzać dane osobowe poza granicami, ale oczywiście na terenie Europejskiego Obszaru Gospodarczego. To jeszcze nie ma oczywiście zastosowania do infrastruktury krytycznej kraju, ale to już zupełnie inna działka.

Kolejnym zagadnieniem technicznym jest czas połączeń, bo dla prawie 75% naszego kraju, każde pojedyncze połączenie z systemami Google Cloud, przyspieszy o około 15 ms. W przypadku jednej, hostowanej w chmurze strony, może nie ma to dużego znaczenia, ale w przypadku przetwarzania dużych wolumenów danych i systemów czasu rzeczywistego np. modeli machine learning, które bieżąco analizują setki tysięcy rekordów danych na sekundę i szybciej, taka zmiana jest już bardzo znacząca. 

Są tam jeszcze aspekty rozwoju biznesu w Polsce, poprzez wzrost świadomości naszych przedsiębiorców, która na pewno spowoduje znaczny wzrost miejsc pracy w technologii i całym IT, ponieważ mamy w Polsce świetnych specjalistów, zarówno z kraju jak i zagranicy, choć już teraz jest ich za mało. Pojawiają się takie głosy, że Polska ma szansę stać się takim lokalnym cloud value, który będzie „ściągać” do siebie dodatkowo specjalistów od naszych sąsiadów z każdej strony. Ściągać w cudzysłowiu, bo teraz praca zdalna głównie (zwłaszcza w tej branży) – myślę, że pozostanie z nami już na bardzo długo. 

Pozostałe powody to już te stricte, standardowe zalety po prostu przejścia do rozwiązań chmurowych.




Jakie usługi Google Cloud będą dostępne już w regionie Polska?

Wiemy, że w zależności od tego, jaki jest region to czasem nie wszystko jest dostępne. Jako przykład – w Finlandii nie ma TPU dostępnego i trzeba tutaj bardziej w kierunku zachodnim (jeżeli chodzi o Europę) szukać. Natomiast takie podstawowe zwykle są jak Kubernetes, CVM itd. Jak to będzie na starcie w regionie Polska i czy są takie jakieś usługi albo limity, o których warto już wiedzieć teraz?

Mogę powiedzieć, że będzie to taki pełnoprawny, regularny region Google Cloud. Nie różniący się znacznie w stosunku do tych, które są ostatnio uruchamiane. Najważniejsze usługi do uruchamiania aplikacji, przetwarzania analizy danych będą na pewno dostępne. Wspomniane TPU póki co nie będzie. Także jeżeli jest to niezbędne to trzeba będzie wybrać sobie narazie inny, konkretny region w którym te możliwości mamy. Natomiast nie jest to nic dziwnego, bo tak jak mówisz właśnie, tego typu jednostki pojawiają się tylko w wybranych regionach. A poza tym dostajemy w pełni wyposażony, standardowy region Google Cloud.

Jakie usługi Google Cloud usprawnią naszą pracę z danymi?

Fajnie, przejdźmy teraz do takich konkretnych use case’ów, bo tak rozmawialiśmy przed nagraniem, że czasem, jak człowiek siedzi w swoim “pudle technologicznym”, to nie zawsze zdaje sobie sprawę, że pewne rzeczy nie są aż tak oczywiste.



Ja na przykład na dzień dzisiejszy ciężko mogę sobie wyobrazić życie bez chmur. Można sobie wyobrazić, ale to będzie tak naprawdę robienie wszystkiego, aby utrzymać to rozwiązanie niż dawanie wartości ludziom. Chciałem to pytanie zadać w taki sposób, że w Google Cloud jest w tej chwili mnóstwo różnych usług, rozwiązań. Jeżeli ktoś tam wchodzi po raz pierwszy to prawdopodobnie nie wie od czego zacząć. Więc fajnie byłoby wykorzystać Twoje doświadczenie, które masz, a masz duże i zastosować taki filtr, na co warto byłoby zwrócić uwagę i o jakich usługach na pewno warto pomyśleć, jeżeli mówimy w kontekście danych. Czyli nie chodzi o sam machine learning jako tako, tylko dane.

W pierwszym zdaniu wymienię kilka usług i potem opowiem kilka zdań o każdej z nich. Najważniejsze to Cloud Data Storage czyli przechowywanie danych, Pop/Sub (system do zarządzania kolejką), BigQuery (flagowa hurtownia danych), Cloud Data Fusion (narzędzie do budowania pipeline)

To są te, które tak powinny zostać na początek w głowie, natomiast szacuję, że takich komponentów jest prawdopodobnie około 50, które są wykorzystywane do pracy z danymi i w zależności od tego, co z tymi danymi robimy, wykorzystujemy inne narzędzie. 

Cloud Data Storage (tzw. CDS) to jest miejsce przechowywanie danych. To jest w chmurze, w której możemy tworzyć zbiory danych, plików o dowolnej zawartości, w których korzystamy również ze struktury folderów. Dane są oczywiście szyfrowane na kilku poziomach. W zależności od tego, jak często chcemy korzystać z tych danych, możemy dobrać odpowiedni model przechowywania, który pozwala nam na mniejsze koszty przechowywania plików, z których np. mniej korzystamy. 

Konfiguracja pozwala nam zdecydować, w którym regionie nasze dane mają być składowane oraz to kto i w jaki sposób może mieć do nich dostęp. Przechowując dane w postaci plików csv lub innych popularnych formatów do przechowywania danych (tj. json) mamy w chmurze ogromne możliwości integracji z innymi narzędziami. To jest w ogóle przewaga rozwiązań chmurowych, że te komponenty, które są niesamowite same w sobie, mają też świetne możliwości integracji między sobą. Także podłączenie takiego Cloud Storage jako źródła danych do innego systemu, najczęściej ogranicza się po prostu do wyklikania tego i da się to zrobić dosłownie w kilka minut. 

Pop/Sub, o którym to serwer kolejki komunikatów czyli w uproszczeniu – alternatywa np. do RabbitMQ. Rozwiązanie typu serwer less, co znaczy, że jest w pełni utrzymywane przez Google. Nie musimy się martwić ani o warstwę serwera aplikacyjnego ani sprzętowego. Ani o to, żeby ten serwer miał backupy czy wgrane najnowsze poprawki bezpieczeństwa. Po prostu tworzymy instancję takiej usługi i z niej korzystamy.

BigQuery, o którym mógłbym opowiadać naprawdę długo to flagowy komponent Google Cloud, właśnie do pracy z danymi. Myślisz dane w GSP, widzisz BigQuery – takie często widzę konotacje. W streszczeniu potęgę i najważniejsze cechy BigQuery – jest to skalowalna hurtownia danych. Pozwala na pracę z ogromnymi zbiorami (mowa tutaj o petabajtach i setkach petabajtów), korzystając z języka SQL. 

Złożone zapytania sql-owe na tak dużych danych, wykonują się błyskawicznie. Rzędy wielkości szybciej niż w typowych rozwiązaniach, np. relacyjnych baz danych. Ogromną zaletą BigQuery jak i większości komponentów jest model w jakim rozliczamy się za korzystanie, czyli pay-per-use, w którym płacimy tylko za dane, które przechowujemy i czas kiedy je przetwarzamy. Co daje możliwości na naprawdę spore optymalizacje kosztowe wykorzystania naszej hurtowni danych. 
Wiele rozwiązań do pracy z IoT to też bardzo popularny temat.

Jest to rozwiązanie, które się nazywa IoT Core, które pozwala na podłączanie, zarządzanie dziesiątkami tysięcy różnych rozwiązań. To są wszystko łatwe i fajne rozwiązania, natomiast to też nie jest tak, że nie znając Google Cloud w ogóle, otworzymy stronę i po 30 minutach będziemy mieli gotowe rozwiązanie. Tego też trzeba się oczywiście nauczyć, jednak czas poświęcony na zrozumienie tych komponentów, które mają przyjemny, graficzny interfejs, w porównaniu do czasu i lat doświadczenia, które musielibyśmy mieć stawiając odpowiednie serwery, zagłębiając się w protokoły komunikacji urządzeń IoT, musieli zadbać o skalowanie takich rozwiązań jest po prostu nieporównywalnie. I to jest właśnie ogromna moc tych rozwiązań chmurach.

Zgadzam się w 100% z tym, co powiedziałeś. W Data Workshop też używamy wszystkich tych komponentów, które były i właściwie dzięki temu bardzo szybko się skalujemy w różnych naszych, wewnętrznych produktach. Tu np. jeżeli chodzi też o BigQuery to tak naprawdę może mieć normalną bazę danych (np. MySQL), ale BigQuery jest bardzo mocno zoptymalizowana pod ten Big czyli terabajty albo nawet znacznie więcej. 

To jest takie normalne, BigQuery jest bardzo fajnie zoptymalizowane i wyniki widzimy bardzo szybko. Też fajna jest ta możliwość podpinania BigQuery w różnych miejscach, chociażby robienie dashboardów. Sprawna, fajna rzecz, którą aż chce się użyć. Właśnie kontynuując tą myśl dalej, bo przed ML zwykle mówimy o tym, żeby dane odpowiednio przygotować i to jest taka rola data engineering i jest taki słynny skrót w tej branży ETL czyli Extract, Transform, Load. Co to jest? Dlaczego to jest ważne i właśnie na ile chmura ułatwia życie, kiedy chcemy wykonać takie procesy przygotowawcze danych?

Super, ponieważ czuję, że w poprzednim pytaniu tam jeszcze zabrakło miejsca na naprawdę wiele fajnych komponentów, z których można korzystać. ETL podejrzewam, że większość słuchaczy dobrze kojarzy skrót tak jak rozwinąłeś. Proces pobierania danych z jednego lub więcej źródeł danych, przygotowanie lub raczej dostosowanie tych danych do naszych potrzeb i załadowanie ich później do np. hurtowni danych w celu dalej analizy lub raportowania. Jest to część standardowej terminologii procesów, systemów i osób zajmujących się danymi. 
Takie przygotowanie czy dostosowanie, składać może się z wielu kroków, różnych transformacji, od oczyszczenia danych z błędnych wpisów, poprawieniu ich, o bogaceniu, o inne dane, sprowadzeniu do wspólnego formatu, który jest później akceptowany przez naszą hurtownię i kolejne narzędzia, z których korzystamy.

Google Cloud dostarcza wiele komponentów do budowania takich pipeline’ów, które adresują kolejne kroki ETL-a. Tu chyba skupię się przede wszystkim na Cloud Data Fusion, które pozwala dokładnie na budowanie takich pipeline’ów, nawet za pomocą interfejsu graficznego Drag&Drop – także niekoniecznie pisania kodu.

Oczywiście są też zwolennicy budowania takich rozwiązań za pomocą kodu, co oczywiście ma też swoje zalety i dla takich zastosowań Google Cloud posiada też rozwiązanie tj. Dataflow, które pod spodem ma Apache Beam co dla doświadczonych inżynierów danych jest już wystarczającą informacją.

Cloud Data Fusion posiada setki, a na pewno dziesiątki gotowych integracji z popularnymi systemami zewnętrznymi, które pozwalają na szybką integrację i szybkie pobranie danych. Oprócz tego setki wbudowanych, najpopularniejszych danych – usuwanie duplikatów, usuwanie anomalii, dzięki czemu w bardzo krótkim czasie jesteśmy w stanie zbudowanie pipeline, który na bieżąco będzie przetwarzał gigabajty danych z różnych systemów. 

Pod maską Cloud Data Fusion uruchamiane pipeline są na klastrach Dataproc (to jest inny komponent). Jest to serwerowa wersja Hadoopa w Chmurze. Data Fusion automatycznie zmienia przepływy zaprojektowane w interfejsie graficznym na tzw. job’y Dataproca, które są potem uruchamiane. Istnieje oczywiście możliwość skorzystania z MapReduce lub Apache Spark – to już takie szczegóły, nie wiem czy warto w tym momencie wchodzić w to.

Kolejnym narzędziem jest np. Dataprep. Bardzo wygodny interfejs graficzny do takiego „przygotowywania” danych, ponieważ to narzędzie pozwala też na eksplorację wizualną każdego rodzaju danych, czy to posiadających zdefiniowaną strukturę i relację czy też nie. Dane są albo mogą być przygotowane do dalszych etapów ETL lub po prostu eksplorowane przez analityków w poszukiwaniu zależności i innych ciekawostek. 

Google Cloud w swoim portfolio posiada również w pełni darmowe narzędzie do budowania raportów i dashboardów. Mowa tutaj o Data Studio, o którym też wspomniałeś, które jest połączeniem możliwości arkusza kalkulacyjnego z programem do budowania prezentacji. Jeżeli ktoś porusza się w miarę biegle w takich dwóch narzędziach to bez problemu zbuduje ładne raporty i dashboardy korzystając z Data Studio, które swoją drogą też ma setki konektorów do zewnętrznych źródeł, m.in. oczywiście BigQuery, pliki z Google Cloud Storage, Google Analytics ale też naturalnie do MySQL, PostgreSQL, Kaggle, różnych API facebookowych, Twitter itd. Dla zaawansowanych zastosowań business intelligence, Google posiada od ponad roku w portfolio Looker’a.

Jest to rozwiązanie klasy enterprise business intelligence i o jego możliwościach można by zrobić całą serię odcinków. 
Także podsumowując, Google posiada rozwiązania na każde zagadnienie. Na każdą część ETL’a, na każdą część systemu pracy z danymi. Od momentu pobrania przez przechowanie, archiwizację, przetwarzanie, eksplorację i analizę, aż po raportowanie i najczęściej dodatkowo wykorzystanie elementów machine learning w analizie i predykcjach.

Jak wykorzystując dostępne usługi Machine Learning, można osiągnąć dużo, robiąc niewiele?

No właśnie, machine learning teraz możemy o tym porozmawiać, już jako kolejny krok taki logiczny, bo wspomnieliśmy o tym, że bardzo łatwo można dane przechowywać, potem odczytywać, przetwarzać i potem już jak je przetworzymy to aż się prosi, aby zastosować ML albo tzw. AI. Tutaj też warto powiedzieć, że jak zarówno Google albo inni więksi gracze chmurowi np. Microsoft, robią duże zaangażowanie albo takie mocne postępy w kierunku tzw. after ML czyli kiedy robiąc małym wysiłkiem, można osiągnąć fajne rzeczy.

Co prawda też warto zrozumieć jak do tego podejść i żeby to było nie teoretyczne to fajnie jakbyś podał tak z 3 albo więcej przykładów, żeby to brzmiało tak bardziej praktycznie. Jak wykorzystując dostępne usługi ML’owe, można osiągnąć dużo, robiąc niewiele?

Zacznę od tego, że na Google Cloud składają się w tym momencie dziesiątki różnych rozwiązań związanych z ML czy sztuczną inteligencją. To jest właśnie moim zdaniem jedna z największych zalet korzystania z rozwiązań chmur publicznych. Dostajemy dostęp do gotowych, budowanych miesiącami i latami rozwiązań modeli uczenia maszynowego, uczonych w odpowiedni sposób przez osoby z bardzo dużym doświadczeniem, które są już wgrane na serwer produkcyjny, mają wystawione restowe API, mają skonfigurowane logowanie błędów.

Wyskalują się nam do takich rozmiarów, jakich tylko będziemy potrzebować w ciągu minut, a nawet sekund. Sam dobrze wiesz ile pracy jest potrzeba, żeby przygotować odpowiednie modele, zbudować system do ich testowanie, wdrażania kolejnych wersji, zaimplementować do tego API, logowanie, skalowanie itd. To jest wiele złożonych tematów, a w chmurze mamy możliwość podjęcia karty kredytowej, stworzenia projektu i w ciągu kilka minut możemy z takiego rozwiązania zacząć korzystać. 

Te rozwiązania sztucznej inteligencji są w Google dostępne na trzech poziomach. Powiedzmy takiej samodzielności albo gotowości do użycia. Nawiązując do pytania, skupię się do tych takich gdzie wiedza dotycząca znajomości algorytmów, wiedza dotycząca ML, niekoniecznie jest wręcz wymagana. Także ten pierwszy poziom to są takie gotowe modele, które dostajemy już razem z API. Tu nie potrzebujemy praktycznie żadnej wiedzy na temat machine learning, żeby zacząć korzystać z takich rozwiązań.

Przykładem jest tutaj np. Cloud Vision API, które po wgraniu zdjęcia, taguje je nam odpowiednimi etykietami. Szacuję, że tych etykiet jest około 40-50 tysięcy różnych, tj. niebo, samochód, komputer, osoba, krawat, książka, ulica, pies itd. Każde zdjęcie może być otagowane wieloma etykietami i przy każdej takiej etykiecie dostajemy procentową pewność algorytmu co do tej etykiety, czyli wgrywamy zdjęcie samochodu, dostajemy informacje – samochód z pewnością 99,5%. Z Cloud Vision API możemy korzystać albo przez stronę www, albo przez API z dowolnej aplikacji, którą tworzymy, albo z linii poleceń, jeżeli np. potrzebujemy jednorazowo otagować sobie zdjęcia. Cloud Vision API rozpoznaje też znane miejsca na świecie, budynki i inne popularne lokalizacje.

Rozpoznaje logotypy marek, rozpoznaje ludzkie twarze tzn. opisując je około 30 parametrami i starając się zdefiniować jakie uczucia, miny widać na tych zdjęciach. Naprawdę niesamowite. Każdy może teraz od ręki pobawić się wpisując w wyszukiwarce Cloud Vision API Demo. Tam pojawia się strona, gdzie można przeciągnąć zdjęcie i zobaczymy jakie są wyniki. Odpowiedź można obejrzeć sobie też w JSON na potrzeby późniejszej budowania aplikacji. Wgrywając zdjęcie samochodu, dostaniemy pewnie około 50 etykiet, czasem nawet z marką. Z takimi szczegółowymi elementami jak wydech, lusterko, hak itd. Naprawdę bardzo polecam sprawdzić jak to działa. 

Dla branży retail interesujące może być to, że korzystając z tego rozwiązania można wybierać produkty podobne do siebie wizualnie. Tego typu zastosowania widziałem. 

Innymi przykładami takich rozwiązań gotowych do użycia od ręki, są rozwiązania speech-to-texttext-to-speach, bazujące na modelach googlowych. Rozwiązania pozwalają na syntezę tekstu, również w języku polskim oraz w drugą stronę, na transkrypcję audio co może mieć bardzo szerokie zastosowania np. w biurach obsługi klienta, gdzie mamy nagrania rozmów z naszymi klientami i chcemy potem zrobić transkrypcję, żeby np. badać albo szukać różnych fraz, zwrotów w tych transkrypcjach. Użytkownicy telefonów z androidem oraz użytkownicy Google Home korzystają z tych rozwiązań praktycznie codziennie. 

Bardzo ważnym, często badanym przez naszych klientów rozwiązaniem jest Dialogflow. Jest to narzędzie do budowania chatbotów i voicebotów. Rozwiązań, które możemy podpiąć pod numer telefonu lub do okienka czatu na naszej stronie internetowej i naprawdę w bardzo prosty sposób zaprogramować scenariusz rozmowy takiego chatbota. Pod maską Dialogflow działa wiele googlowych rozwiązań machine learning, w tym rozpoznawania mowy, intencji użytkownika, odpowiednie dopasowanie odpowiedzi i jeszcze kilka. 

Ciekawe jest tutaj to, że nie tworzymy drzewiastych struktur rozmowy tylko definiujemy intencje i konteksty. Podczas rozmowy istnieje możliwość przepinania się między intencjami i nawet powrotu do wcześniejszych wątków, o których była mowa, dzięki czemu taka rozmowa jest bardziej naturalna.

Konfiguracja takiego chatbota to dosłownie opisanie, wypisanie pytań, zwrotów, którymi może posługiwać się użytkownik oraz odpowiednia liczba parafraz. Na jedno pytanie jak stworzymy 5-10 parafraz to jest już naprawdę bardzo dużo, wystarczająco, żeby później Dialogflow poradził sobie z kolejnymi parafrazami, nawet jeżeli użytkownik zmienia kolejność wyrazów w zdaniu. W takich wypowiedziach użytkownika można zaznaczyć, że oczekujemy np. liczby lub daty, albo nazwy, albo jakiegoś innego ciągu znaków zdefiniowanej listy. 

Oczywiście istnieje możliwość integracji Dialogflow z bazą danych tak, żeby Dialogflow mógł odpowiedzieć nam np. informacją o cenie naszego produkty czy czasach odjazdu autobusów, w zależności od tego po co budujemy takiego chatbota. Do zbudowania takiego inteligentnego chatbota, korzystając z Dialogflow, naprawdę niepotrzebna jest żadna wiedza dotycząca sztucznej inteligencji, a w godzinę, dwie można zrobić bardzo fajne demo, które robi wrażenie na większości klientów.

Oprócz tego typu rozwiązań, istnieją też już rozwiązania typu custom, to już konkretnie dla inżynierów ML, specjalistów, którzy mają dużo bardziej sprecyzowane wymagania i potrzeby. Tam znajdziemy m.in. te wirtualne maszyny z GPU czy TPU, o których mówiliśmy wcześniej.

Jak rozpocząć pracę w chmurze?

Właśnie tak słucham tego, co opowiadasz i przypominam, że celem tego odcinka było to, żeby powiedzieć, jakie możliwości mamy w tej chwili w zasięgu ręki i tak naprawdę niewiele trzeba byłoby zrobić, żeby zacząć tego używać. Z drugiej strony, jednak nie jest to jeszcze takie powszechne. Stąd pojawia się takie dość naturalne pytanie: jak myślisz, co hamuje polskie przedsiębiorstwa, żeby zacząć używać w pełni chmury? Czy to chodzi o brak wiedzy, śmiałości, kompetencji czy jeszcze coś? Czy da się to jakoś zmienić? 

źródło: giphy.com


Na podstawie wielu ankiet, jeszcze większej liczby spotkań z klientami bezpośrednio, z naszą firmą, ale też na większych wydarzeniach, przejawiają się zawsze te same zagadnienia w kontekście blokerów, hamulców przejścia do chmury. Wszystkie oscylują wokół braku wiedzy, braku edukacji, doświadczenia. Także po pierwsze nieznajomość rozwiązań, bo firmy po prostu nie wiedzą co można znaleźć w chmurze, oprócz magazynu do przechowywania danych i przykładowo jednostek mocy obliczeniowej. Google Cloud od kilku lat, regularnie dokłada kolejne, coraz bardziej sprofilowane, konkretne usługi do swojego portfolio. 

W tym momencie znajomość tych wszystkich usług, nawet dla osób pracujących bezpośrednio z chmurą jest sporym wyzwaniem. Także przedsiębiorstwa nie wiedząc co jest chmurze albo nie zdając sobie nawet sprawy co może być w chmurze, nie wyciągają rąk, często nie wykazują chęci, nie mają czasu na rozpoznawanie samodzielne takich rozwiązań. Nieznajomość przepisów, trochę strach przed nowym, często firmy zadają takie pytania dotyczące właśnie bezpieczeństwa, o którym rozmawialiśmy: czy to jest na pewno bezpieczne, dlaczego jest bezpieczne, jakie mechanizmy powodują i kto będzie miał dostęp do tych danych? 

Ważnym zagadnieniem jest często strach przed kosztami, natomiast który znowu wynika z niewiedzy, nieznajomości modeli rozliczeniowych w chmurze. Ludzi nie wiedzą dokładnie jak sprawdzić jakie będą koszty utrzymania ich systemów tym bardziej, że po pierwsze nie wiedzą jak te systemy będą mogły wyglądać w chmurze. Nie zawsze przeniesienie tej infrastruktury, którą mamy u siebie 1:1 do chmury jest dobrym rozwiązaniem. Także często warto skorzystać z konkretnych komponentów, tylko trzeba o nich dobrze wiedzieć.

Kolejny powód, znów dotyczący bezpośrednio edukacji to brak kompetencji technicznych pracowników firm. Nawet jeżeli w firmie istnieją chęci migracji lub przynajmniej rozpoznania technologii chmurowych na szczeblach menedżerskich to często jest niwelowane, blokowane lub negowane przez osoby, do których takie pytania trafiają, które przy natłoku prac codziennych nie są w stanie poświęcić wystarczająco czasu na rozpoznanie, poczytanie i taką obiektywną opinię na temat takich rozwiązań. 

Blokerem często (już nie bezpośrednio związanym z edukacją i wiedzą) są koszty poniesione na aktualną infrastrukturę. Słyszymy od CEO czy CTO: „Ale ja wydałam rok temu X zł na to rozwiązane i nie dostanę teraz więcej pieniędzy na kolejne migracje i zmiany”. 

To takie główne powody, które przychodzą mi do głowy i rzeczywiście pojawiają się regularnie w rozmowach z naszymi klientami. Zresztą wiesz, w wielu kwestiach i tutaj rozwiązaniem jest po prostu edukacja, edukacja, edukacja. A to, że Google otwiera region w Polsce spowoduje, że wszystkie powyższe tematy zostaną dobrze zaadresowane.

Rozwój technologii chmury w Polsce

Właśnie, to może doprecyzujmy. Jak Google Cloud, tak i Microsoft inwestuje duże środki, aby wybudować Data Center w Polsce. Tak jak wspomnieliśmy, Google właśnie otwiera się w kwietniu. Pewnie następny będzie Microsoft. Co to oznacza dla Polski? Czy te rzeczy się dzieją? Na co to może dokładnie wpłynąć i jakie my możemy zaobserwować zmiany po tych działaniach?

Duże środki, o których mówisz to oczywiście nie są tylko pieniądze na budowanie fizycznej infrastruktury, ale również na działania marketingowe oraz na szkolenia i zachęcanie przedsiębiorstw do korzystania z chmury. W dużej mierze właśnie na adresowanie tych hamulców, o których mówiłem przed chwilą. Działania te mają na celu znaczne podniesienie świadomości i wiedzy na temat rozwiązań i przede wszystkim samego bezpieczeństwo chmur publicznych. Zarówno dla osób technicznych, jak i tych bardziej odpowiedzialnych za decyzje biznesowe. 

Część tych środków będzie przeznaczona na kredyty, które pozwolą na nieodpłatne albo mocno sponsorowane korzystanie z usług chmurowych, np. na czas budowy Proof of Concept albo przy zobowiązaniu się klienta na przeniesienie części workload’ów do chmury na jakieś inne benefity. To na pewno zwiększy liczbę chętnych do skorzystania, spróbowania i zapoznania się z możliwościami rozwiązań chmurowych. 

Szkolenia z rozwiązań chmurowych, które będą i są już w sumie realizowane, również przez Chmurę Krajową, dla odbiorców na różnym poziomie zaangażowania technologicznego, czyli tych osób, które będą bezpośrednio pracować z chmurą i tych, które będą znały jej potencjał, żeby odpowiednio dopasować produkt czy strategię. Na pewno wpłyną bardzo pozytywnie na wiedzę i rozpoznawalność tych usług chmurowych wśród firm.

Regiony i akcje marketingowe Google i Microsoft będą miały również znaczący wpływ na wzrost liczby interesujących miejsc pracy w polskich firmach – ale na pewno też w samym Google i Microsoft. Więcej ludzi pracujących w chmurach i z chmurami to na pewno więce ciekawych pomysłów i dalej kolejne biznesy oparte o nowoczesne, fajne technologie i rozwiązania chmurowe. 

Także podsumowując, widzimy dużo plusów na wielu różnych płaszczyznach i już nie możemy się doczekać.

Czyli brzmi to w tej chwili tak, że część osób wie, że chmura jest, ale z drugiej strony brakuje takich argumentów przekonujących, że w miarę łatwym sposobem można osiągnąć więcej. To oznacza, że to myślenie trochę musi się zmienić i nie chodzi tylko o wirtualną instancję, tylko masz tam szereg usług, które bardzo pięknie ze sobą się integrują. Tutaj mogę potwierdzić, że Google Cloud pod tym względem jest bardzo fajnie przemyślane, dlatego też używamy od dobrych kilku lat w DataWorkshop, bo pięknie to się integruje. Tam czuć, że ktoś dba o to i pięknie zszywa te wszystkie usługi, które są dostępne.


Zdecydowanie, ja nie mogę się nie zgodzić. Sam jestem użytkownikiem i polecam wszystkim. Natomiast trzeba na początku zdefiniować cały problem, który chcemy rozwiązać i potem znaleźć odpowiednie rozwiązanie między naprawdę wieloma fajnymi komponentami Google Cloud.



Nasz odcinek dobiega końca. Dzięki wielkie, że udało się znaleźć chwilę czasu, aby porozmawiać i podzielić się swoim doświadczeniem, które jest duże. Jak wymieniłeś te wszystkie komponenty, które też dają możliwości to aż sprawia wrażenie, że się chce po odcinku usiąść i je zobaczyć, chociażby odpalić Cloud Vision Demo. Bo to naprawdę w tej chwili kwestia minut czy pół godziny, aby zobaczyć pierwsze wyniki. Więc dzięki wielkie, że udało się porozmawiać i do usłyszenia przy następnej okazji.

Super, dziękuję bardzo, było mi bardzo miło. Pozdrawiam.


Od 2013 roku zacząłem pracować z uczeniem maszynowym (od strony praktycznej). W 2015 założyłem inicjatywę DataWorkshop. Pomagać ludziom zaczać stosować uczenie maszynow w praktyce. W 2017 zacząłem nagrywać podcast BiznesMyśli. Jestem perfekcjonistą w sercu i pragmatykiem z nawyku. Lubię podróżować.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *