Brak kategorii

Jak zmusić leniwe sieci neuronowe do produkcji leków?


Z tego odcinka dowiesz się:

  1. Czy leki są konieczne? Dyskusja o tym, czy współczesne społeczeństwo jest zdrowsze dzięki lekom, i jak kiedyś radzono sobie bez nich.
  2. Przypadkowe odkrycia w medycynie. Wiele odkryć medycznych miało miejsce przez przypadek, co pokazuje, jak skomplikowany jest świat nauki i jak trudne jest kontrolowane odkrywanie leków.
  3. Uczenie maszynowe w odkrywaniu leków. Rozważania nad tym, czy uczenie maszynowe może przyspieszyć i usprawnić proces odkrywania nowych leków, nawet w tak skomplikowanej dziedzinie jak biologia i chemia.
  4. Molecule.one i rola Stanisława Jastrzębskiego. Stanisław opowiada o swoim udziale w startupie Molecule.one, który wykorzystuje nowoczesne narzędzia do wspierania procesów odkrywania leków.
  5. Wyzwania i innowacje w R&D. Omówienie trudności związanych z prowadzeniem projektów badawczo-rozwojowych (R&D) w dziedzinie uczenia maszynowego i syntezy chemicznej oraz jak sobie z nimi radzić.
  6. Znaczenie uczenia maszynowego w praktyce. Przykłady, jak uczenie maszynowe może przyspieszyć i zoptymalizować procesy w różnych branżach, nie tylko w medycynie.
  7. Przyszłość AI w nauce i odkrywaniu leków. Spekulacje na temat przyszłości AI w nauce, potencjalnych przełomów i tego, jak mogą one wpłynąć na zdrowie i życie ludzi.

Czy leki są konieczne? Jak sobie wyobrazić dawne czasy, to kiedyś leków nie było. Czy możemy stwierdzić, że ludzie byli bardziej chorzy? Już widzę te komentarze, że „tak”, ale z drugiej strony przeanalizujmy nasze obecne społeczeństwo, np. dzieci. Czy stan zdrowia był kiedykolwiek gorszy niż jest teraz, mimo tego że tych leków mamy tak dużo? Stąd pytanie: jak myślisz, czy leki są konieczne?

Z drugiej strony, wcale nie próbuję powiedzieć, że nie, ale proces wykrywania leków jest dość magiczny. Mimo tego że zajmują się tym naukowcy, to dość często (nie wszyscy to przyznają wprost) nie do końca wiedzą, jak zrobić to najlepiej. To nie wynika z tego, że oni nie chcą zrozumieć jako naukowcy, chcą – tylko nasz świat naprawdę jest bardzo skomplikowany.

Zresztą chociażby w książce „Antykruchość” jest powiedziane m.in. na temat medyków, że dość dużo tych największych odkryć wydarzyło się przez przypadek, a niekoniecznie w laboratorium. Jednocześnie rozważanie na temat tego, że odkrywamy tylko przez przypadek, działa. Tego nie możemy ukryć, ale fajnie byłoby mieć jakieś narzędzia, klucz do tego, żeby jednak w sposób bardziej kontrolowany wykrywać leki, które mogą być pomocne.

Właśnie o tym dzisiaj będzie rozmowa. Czy jest możliwość, że uczenie maszynowe wesprze ten proces, mimo tego że ta cała branża jest bardzo skomplikowana – zrozumienie biologii, chemii i tych wszystkich relacji, które zachodzą pomiędzy i wiele innych rzeczy, o których często w ogóle się nie wspomina w szkole? Są w tej chwili dostępne na rynku pewne leki, które stwierdzono, że są dość stabilne, ale nadal nie do końca jest zrozumiałe, dlaczego one działają. To jest ciekawy stan, w którym jesteśmy. Czy jest szansa, że uczenie maszynowe może to wesprzeć? 



Gościem tego wywiadu jest Stanisław Jastrzębski, który m.in. teraz dołącza bardziej do startupu Molecule.one. Jego zadaniem będzie wspieranie procesów wykorzystując nowoczesne narzędzia. Ma pewne przemyślenia, że niektóre zmiany mogą nastąpić znacznie szybciej, niż może się wydawać.

Ciężko jest określić, co oznaczają te zmiany, bo można je różnie zdefiniować, ale pod koniec poznasz na to odpowiedź. Zapraszam do przeczytania całej rozmowy, żeby znaleźć odpowiedzi. Padły też bardzo fajne dyskusje na tematy dookoła: co to oznacza prowadzić projekty R&D? Jak oni sobie radzą z ryzykiem, które w tym przypadku występuje dość duże? Jakie są narzędzia, by nie wpadać w tzw. „czarne dziury”?

Jeszcze przed rozpoczęciem malutkie ogłoszenie. Warto wspomnieć przynajmniej o trzech moich autorskich i praktycznych kursów:

  1. Python dla analizy danych i Data Science
  2. Machine Learning i Data Science
  3. Przetwarzanie języka naturalnego NLP

Jak chcesz zacząć używać uczenie maszynowe w praktyce po to, żeby przenosić namierzalną wartość, to warto być na moich kursach, bo pewnie ciężej będzie znaleźć bardziej prosty sposób, żeby to zrozumieć. 




Cześć Staszku. Przedstaw się: jak się nazywasz, czym się zajmujesz i gdzie mieszkasz.

Cześć. Nazywam się Staszek Jastrzębski. Jestem w takim trochę okresie przejściowym. Obecnie jestem post-dokiem w Nowym Jorku na New York University pod opieką Kyunghyun Cho i Krzysztofa Gerasa. Najpierw rozkręcałem zespół machine learningowy w Molecule.one, potem z pójściem na post-doc przełączyłem się na rolę advisora i doradzam w sprawach naukowych. Ale jest to okres przejściowy, post-doc’a kończę i już za miesiąc będę w Warszawie na pełen etat w Molecule.one i na Uniwersytecie Jagiellońskim. 

Czekamy na Ciebie tutaj. Myślę, że po tym podcaście więcej osób również będzie chciało się z Tobą poznać na żywo. 

Powiedz mi, co ostatnio ciekawego przeczytałeś? Dlaczego warto byłoby to przeczytać?

Ostatnio przeczytałem 4 książki pod rząd Isaaca Asimova. To jest klasyczny pisarz science-fiction i bardzo mnie wciągnęły te lektury. Jest to seria o Robotach. Bardziej znana jest chyba jego seria Fundacja, która jest preludium do tego. To co jest tak najbardziej znane z serii o Robotach to oczywiście trzy prawa robotów.

Pierwsze prawo jest takie, że robot nie może przez brak czynu lub czyn, w jakikolwiek sposób wyrządzić szkodę człowiekowi, ale bardzo jest ciekawe to, że interpretacja tego już nie jest oczywista. Co np. jeżeli robot powie coś, co zasmuci człowieka, mimo że jest prawdą?

Wszystkie książki bawią się tym konceptem, jak ciężko jest zrobić, żeby robot naprawdę był bezpieczny. To, co jest dla mnie szczególnie interesujące to to, że te tematy dalej są bardzo aktualne w researchu na co dzień w sieciach neuronowych.

Dalej nie wiemy jak zrobić, żeby roboty były bezpieczne. Jest wiele różnych pomysłów obecnie, ale żaden nie jest uznany. Widać, że Asimov już te 50 lat temu miał dobrego nosa, jakie problemy będziemy mieli dzisiaj. 

Jest taki film „Ja, robot” z 2004 r. – film z Hollywood, więc są różne rzeczy, które można spokojnie pominąć, ale były tam też pokazane dylematy koncepcyjne i warto pooglądać i porozważać na ten temat, bo faktycznie to są różne wyzwania i te wyzwania już się stają coraz mniej futurystyczne, tylko bardziej dotyczą naszej rzeczywistości albo za chwilę będą dotyczyć. 

Tak jest, film bardzo fajny.



Na czym polega Twoja praca? Już część rzeczy masz wykonanych, dalej działasz na tym obszarze, masz pewne plany, więc podziel się dokąd dążą Twoje działania, eksperymenty. Co chcesz osiągnąć? 

Wydaje mi się, że jednym takim wątkiem, który przejawiał się w moich badaniach, można podsumować stwierdzeniem, że sieci neuronowe są leniwe. Właśnie na post-doc’u (przynajmniej patrząc na to z perspektywy czasu, bo to zdecydowanie nie było oczywiste na początku) to wszystkie te prace są w mniejszym lub większym stopniu inspirowane tą obserwacją.

 

Co to znaczy, że sieci neuronowe są leniwe?

Jest jeden taki eksperyment z sieciami neuronowymi, który wydaje mi się, że ładnie ilustruje, nawet jeżeli jest troszeczkę sztuczny lub niepraktyczny. Jeżeli wytrenujemy typową sieć konwolucyjną (czyli trochę to, od czego zaczęła się ta nowa rewolucja deep learningu) na typowym benchmarku rozpoznawania obrazów, który się nazywa CIFAR-10, sieć neuronowa (przynajmniej na początku, ale też w dużej mierze na końcu) będzie klasyfikować to, czy dane zdjęcie przedstawia samolot na podstawie tego, czy jest na niebieskim tle.

Czyli użyła najprostszych cech i w ten sposób można powiedzieć, że jest leniwa. Uczy się tego, co w najprostszy sposób pozwala wykonywać jej zadanie. Oczywiście to nie brzmi, jakby to był problem, ale niestety jest problemem, jeżeli przez to nie nauczy się tego, na czym nam zależy w konkretnym problemie, który rozwiązujemy (biznesowym czy naukowym). Tutaj jest bardzo ciekawa sprzeczność, że z jednej strony to fajnie, że się uczy prostych rzeczy, ale z drugiej strony czasami jest to problem. 

W czasie post-doc’a pracowałem nad paroma projektami: dwa raczej teoretyczne, a trzeci bardziej praktyczny, to mogę opowiedzieć o tym bardziej praktycznym. Grupa Krzysztofa Gerasa zajmuje się w dużej mierze wykrywaniem raka piersi na podstawie mammogramów czy też innych modalności. Sieci neuronowe są leniwe, ale jednocześnie te same sieci neuronowe na tym zadaniu wykrywania raka ze zdjęć mammograficznym osiągają wyniki podobne lub zbliżone do radiologów.

Badaliśmy to, ja wykonałem mało pracy, większość pracy była wykonana przez wspaniałych doktorantów. Analizowaliśmy przecięcie tych dwóch rzeczy. Na jakiej zasadzie sieć neuronowa, która uczy się prostych sieć, może dobrze rozwiązywać problem, który wymaga szkolenia radiologa tak długo, bo to są studia medyczne i potem parę lat specjalizacji radiologicznej. Jedna obserwacja jest taka, że sieci neuronowe są świetnie skonstruowane, żeby uczyć się jednego typu prostych cech: to są takie bardzo małe, teksturowe detale.



Coś w stylu, że sieć neuronowa powie, że coś jest słoniem dlatego, że ma skórę słonia lub powie, że coś jest psem dlatego, że wykryje, że ma sierść taką jak pies. To są te detale, które np. usuwa kompresja *jpg. Jeżeli zapiszemy zdjęcie w *jpg, który ma niską rozdzielczość, to wtedy tych cech nie będzie, zdjęcie będzie bardziej rozmyte. Sieci neuronowe wspaniale używają tych cech. Są w stanie wycisnąć jak z cytryny wszystko.

Oczywiście to są badania w toku, więc mamy jakiś tam papier workshopowy i pracujemy teraz nad dłuższą wersją, więc być może coś się tu jeszcze zmieni.

To, co się okazało w naszych badaniach lub przynajmniej wydaje się obecnie prawdziwe, to to, że to bardzo pomaga w wykrywaniu raka piersi, bo na mammogramach te drobne cechy są jedną z kluczowych oznak tego, że dana zmiana w piersi jest faktycznie rakiem. Usunięcie tych cech przez np. lekkie rozmycie obrazka (tak jakby *jpg to zrobił) czy lekkie rozmycie mammogramu, bardzo pogarsza działanie sieci neuronowej. 


To jest bardzo ciekawy wątek. Jak powiedziałeś, sieci neuronowe są leniwe, przez co trochę przypominają ludzi. Przy okazji przypomnę konferencję, którą miałem okazję organizować w 2018 r., gdzie Mateusz Opala w swojej prezentacji podawał wiele przykładów m.in. związanych z computer vision, kiedy np. trzeba było rozpoznać buty sportowe.





To, czego nauczyła się sieć to nie tyle, że potrafi odróżnić but sportowy, tylko jak właśnie jest trawa to będzie to prawdopodobnie but sportowy. Jak ktoś tam na szpilkach stanął na tej trawie to też rozpoznawał to jako but sportowy. To jest przykład na to, jak sieci neuronowe idą na skróty. 

Porozmawiajmy o produkcie, który będzie tworzony w ramach Molecule.one, ale najpierw może jakiś kontekst. Co to jest za firma i co próbuje zrobić? 

Można to opowiedzieć na różnym poziomie szczegółowości. Zacznę od takiego najwyższego, czyli co to jest proces odkrywania leków? Molecule.one jest jednym z bloczków w tym bardzo długim procesie, który na końcu daje nam np. aspirynę. Trzeba powiedzieć parę słów o tym procesie. 

Po pierwsze jest to bardzo długi proces i do tego bardzo kosztowny. Odkrycie jednego leku może kosztować 1 mld $, może trwać ponad 5 lat i mieć bardzo wiele etapów. W takim typowym procesie odkrywania leków zaczyna się od proponowania wielu struktur czy związków chemicznych, z których jeden mamy nadzieję będzie tą aspiryną, tym co naprawdę działa.


Można sobie wyobrazić taki lejek, który zaczyna się od bardzo dużej ilości związków, możemy przesiewać miliony związków, a na końcu ten lejek się kończy jednym związkiem. 

Gdzie jest Molecule.one w tym lejku? Molecule.one jest na samym początku. Jeżeli chemik chce sprawdzić 10 tys. różnych struktur chemicznych, to to, że wymyślił tylko, że chce sprawdzić strukturę chemiczną, oczywiście nie wystarcza. Musi ją jeszcze zrobić w laboratorium i naprawdę mieć probówkę z tą specyficzną substancją i to jest to, czym zajmuje się Molecule.one.

Do nas przychodzi chemik i mówi, co chce zrobić, a my mu mówimy jak to zrobić, czyli dajemy mu taki przepis na związki chemiczne. To jest jeden z pierwszych etapów w całym procesie drug discovery czy odkrywania leków. Jeden z takich istotnych powodów tego, że ten proces jest długi wiąże się ze śmieszną obserwacją – tak jak mamy Prawo Moore’a, że moc obliczeniowa tanieje nam z czasem, tak w procesie odkrywania leków, mamy coś odwrotnego.

źródło: giphy.com

Z każdym rokiem odkrycie jednego związku chemicznego, który jest lekiem, kosztuje właściwie coraz więcej, jak się popatrzy na perspektywę ostatnich 50 lat. 

Jak to opowiadasz, to od razu pojawia się kilka innych pytań, ale zacznę chyba od końca. Dlaczego jest tak? Dlaczego to drożeje? Co jest przyczyną?

Przyczyn jest parę, ale jeżeli miałbym podać główną przyczynę, to jest to to, że słabo rozumiemy biologię. Być może, w pewnym sensie wyczerpaliśmy to, co rozumieliśmy. Jest to jedno spojrzenie. Gdybyśmy bardziej szczegółowo zrozumieli biologię, ten proces na pewno byłby istotnie krótszy, bo byłoby mniej „nietrafionych” związków chemicznych. 

Najlepiej ilustruje to to, że mechanizm działania związków chemicznych, których codziennie używamy jak np. ibuprofen, dalej nie jest do końca jasny, mimo że są do kupienia w aptece. To jest jedna odpowiedź.

Druga odpowiedź jest taka, że są inne elementy tego procesu, które go bardzo spowalniają. W szczególności jednym z nich jest to, że robienie związków chemicznych jako struktur w laboratorium jest po prostu trudne. To nie jest tak, że chemicy mogą sobie wymyślić jaką chcą strukturę dodać, jakiekolwiek atomy w jakiejkolwiek aranżacji.

Wręcz odwrotnie, muszą się trzymać dosyć konkretnych reguł i związków, które da się łatwo zrobić. Wynika to z tego, że mimo tego, jak wielkie były odkrycia w chemii organicznej, dalej synteza czy przeprowadzenie reakcji jest w pewnym sensie trudne i działa w dosyć niestabilny sposób – czasami zadziała, a czasami nie. To jest jeden z tych innych elementów, które bardzo spowalniają ten proces. 

Co Molekule.one stara się rozwiązać? Chcemy zwiększyć skuteczność tego, na ile możemy polegać na reakcjach chemicznych i dzięki temu dać możliwość chemikom, próbować wszystkie ich pomysły, zamiast tylko ograniczać się do tych, które łatwo zrobić w laboratorium. 

Zatem w tym przypadku uczenie maszynowe, tak jak w wielu innych przypadkach, pojawia się w formie filtra. Mamy bardzo dużo przeróżnych możliwych kombinacji i to również może być w zupełnie innych branżach, totalnie niezwiązanych z medycyną.

To, co można robić przy pomocy ML, to stwierdzić, na którą kombinację (1%, 0,5% czy 0,0001%) warto zwrócić uwagę. De facto oznacza to, że fizycznie trzeba po prostu tysiąc lub milion razy mniej spróbować różnych kombinacji. 

Powiedz mi tak w liczbach, jeżeli chodzi o czas. Wiem, że to wszystko zależy itd., ale powiedzmy, jak to jest teraz (lata albo miesiące)? I jak to jest przy pomocy uczenia maszynowego? Jaka to jest mniej więcej skala?

Bardzo się cieszę, że o tym wspomniałeś z tej perspektywy, że trzeba zrobić filtr. Jest to jeden ze sposobów, w jaki nasz system jest używany. Jest to praktyczny przykład, że ktoś przychodzi z milionem związków i chciałby wybrać z nich tysiąc, które akurat da się w miarę łatwo zrobić.

Jeżeli chodzi o czas, to też jest bardzo istotna rzecz, którą można poprawić dzięki machine learning. Tutaj nie ma jakiś oficjalnych benchmarków, więc też nie chciałbym podawać liczb bardzo konkretnie, ale na pewno można powiedzieć, że jeżeli pokubełkujemy sobie różne podejścia, załóżmy oparte o tradycyjne algorytmy, nie wykorzystujące w żaden sposób uczenia maszynowego i algorytmy, wykorzystujące ML, to spokojnie można mówić o przyspieszeniu rzędu 10 do 100 razy na związek, jeżeli używamy machine learningu.

ML jest w stanie zgadnąć bardzo dużo rzeczy, które wcześniej musiał algorytm przeczesywać ręcznie. Żeby podeprzeć moje słowa, warto wspomnieć, że tego typu wyniki są widoczne w wielu dziedzinach, nie tylko w naszych. Przykładowo, jeżeli chcemy przewidywać własności chemiczne związku np. temperatura, w której się rozpuści, takie rzeczy tradycyjnie robiło się kosztownymi symulacjami kwantowymi. Ale bardzo dużo badań ostatnio pokazuje, że można mieć sieć neuronową, która jest 100 razy szybsza, a daje taką samą dokładność. Coś takiego tutaj obserwujemy.

To nie jest jedyny aspekt, jak poprawiamy wcześniejsze rozwiązania, ale niewątpliwie szybkość jest dosyć istotna.

Skoro o tym wspomniałeś, to powiedz, jakie są jeszcze aspekty?

Wydaje mi się, że drugi tak samo istotny aspekt jest taki, że te wcześniejsze rozwiązania, które nie opierały się o ML, zazwyczaj działały tylko i wyłącznie na związkach, które były w pewnym sensie albo znane (czyli ludzie zrobili go i jest na ten temat jakieś opracowanie w literaturze), albo bardzo konkretnie spełniają jakieś reguły.

Dużo rozwiązań wcześniejszych działało w ten sposób i dalej działa, że chemicy robili po prostu reguły, że ten związek da się tak uprościć i taką zrobić reakcję, a ten inny tak. Z tego powodu rozwiązania, które nie używają ML, mają ten konkretny problem, że chemicy wrzucają jakiś związek, a dany system mówi, że nie wie, jak go zrobić, bo jest zbyt daleki lub zbyt niepodobny do tego, co wcześniej zostało opisane regułami. Zatem drugim kluczowym aspektem, gdzie ML pomaga, oprócz szybkości jest to, że pozwala działać na nowych strukturach.

To jest ciekawe. Tu też faktycznie jest taka rzecz, która pojawia się w dość nieoczywisty sposób, mówiąc ogólnie o uczeniu maszynowym, że klasycznie by było tak, że tak się złożyło, że zebrało się listę reguł, ale jednak przyznajmy, że te reguły, zależności są dość ograniczone. Mózg człowieka musiał to przepuścić przez siebie i to nie zawsze jest wydajny filtr.

Mózg człowieka ma swoje zalety też, których nadal ML nie potrafi wyrabiać, ale z drugiej strony też ma wady, które właśnie ML akurat w tym przypadku jest w stanie wychwycić i znaleźć nieoczywiste rzeczy, jakieś związki, o których wcześniej nikt nie pomyślał i to jest piękne.

Ciekaw jestem, jak często jesteście zaskakiwani takim właśnie wynikiem? Coś udało się wykryć, na co nikt wcześniej nie wpadł, ale z drugiej strony to też nie było zbyt skomplikowane. To bardziej chodzi o to, że to po prostu było gdzieś widoczne, ale nikt na to nie wpadł. Czy były takie sytuacje i czy to jest rzadkość, czy takie sytuacje zdarzają się w miarę regularnie? 

Wydaje mi się, że największą różnicą (chociaż niekoniecznie zaskoczeniem) jest to, że ten system oparty o ML faktycznie jest w stanie bardzo dużo związków zrobić, w porównaniu do systemu opartego o reguły. To może być różnica np. 30%.

Wcześniej co trzeci związek, w porównaniu do systemów opartych o ML, nie był syntetyzowany. To, co jest może trochę zaskakujące, to to, że cena związku ostatecznie to nie jest tylko to, jak go zrobić, czyli ten przepis kucharski, ale też koszt potrzebnych składników.

Ciasta mogą mieć bardzo różne koszty w zależności czy jedno używa drogich orzechów czy matchy, a drugie nie. Tutaj też mamy taki ciekawy efekt, że czasami jesteśmy w stanie zaproponować syntezy, które są bardzo tanie, dlatego że mamy w bazie danych ceny związków, których normalnie chemik nie ma w głowie. Tu są takie efekty, że np. jedna fabryka leków w Chinach przestała działać i przez to nagle dana grupa związków zaczyna być bardzo droga i przez to nie powinna być wyszukiwana jako potencjalne leki.

W pewnym sensie ekonomia potrafi w bardzo dziwny sposób wpływać na ceny leków czy sterować procesem wyszukiwania leków przez to, że bardzo potrafi zmieniać koszta. Albo np. powstaje jakaś nowa klasa związków, bo ktoś wymyślił nową reakcję i nagle proces odkrywania leków jest bardziej możliwy, bo te związki nagle potaniały. Takie rzeczy faktycznie się pojawiają i one wynikają nawet nie tyle z uczenia maszynowego, co z kombinacji ML z tym, że znamy ceny związków na rynku i możemy je sprawdzać. 

Pierwsza rzecz, na którą wpływacie, to jest czas – szybciej udaje się znaleźć rozwiązania. Druga rzecz to zmiana sposobu działania, czyli takie rzeczy, które przedtem były z jakiś tam powodów ograniczane i w ogóle nie dochodziło do analizy.

Trzecia rzecz to wartość biznesowa, czyli co z tego, że udało się coś znaleźć, ale ile to kosztuje? To mi przypomina trochę, jak pracowałem w General Electric, byłem akurat w Healthcare i tam problem był podobny. Taki zwykły inżynier potrafi to skonstruować, żeby to było trwałe, działało dobrze, ale on za bardzo się nie zna, czy to jest drogie. Jego to w ogóle zwykle nie obchodzi.

Dopiero potem, gdzieś na samym końcu, kiedy już to przeszło weryfikacje przeróżne, ktoś dokonuje obliczeń i wychodzi na to, że to jest zbyt drogie. Tam też budowałem system, który szybko oddawał informację zwrotną, ile to jest warte. To chyba działało dość podobnie, że była taka baza, chociaż ta baza też jest bardzo ciekawa, bo to nie jest taka trywialna baza.

Podejrzewam, że u Was jest podobnie, bo nie zawsze da się łatwo znaleźć, ile kosztuje to coś, bo to zależy od wielu kontekstów – np. w którym kraju jesteś. Te wszystkie konteksty trzeba uwzględnić, ale myślę, że to też podobna historia, kiedy osoba, która projektuje, zwykle nie ma takiej wiedzy ekonomicznej, która by była przydatna na etapie projektowania. 

Teraz spróbujmy wejść w szczegóły, jeżeli chodzi o robienie takich projektów R&D. Uczenie maszynowe samo w sobie to jest wyzwanie, bo tam są pewne rzeczy mniej określone, większe ryzyko. W zależności od tego, jak skomplikowany jest projekt, to to ryzyko się podnosi. Jak wsłuchuję się w to, co mówisz, to czuć, że tego ryzyka jest dość dużo, bo wiele rzeczy mogło pójść nie tak.

Zastanawiam się, jak do tego w ogóle podchodzicie z praktycznego punktu widzenia. Czy tutaj też macie np. takie zastosowanie Prawa Pareta, że próbujecie znaleźć te 20% przypadków, gdzie warto zainwestować w wysiłek, bo to przynosi 80% wartości? Być może jakoś inaczej wewnątrz to nazywacie? Ciekaw jestem, jak zarządzacie ryzykiem w projekcie, który to ryzyko ma dość duże?

Bardzo się cieszę, że o tym wspomniałeś, to jest kluczowe w tym, co robimy, ale pozwolę sobie trochę odpowiedzieć inaczej na to pytanie i potem wrócić do niego, bo żeby narysować tę odpowiedź, muszę troszeczkę więcej opowiedzieć o tym, jak ten produkt wygląda od strony AI.

Wydaje mi się, że to fajnie pokaże zestaw wyzwań, które tam są. Myślę, że wszyscy czytelnicy będą kojarzyć AlphaGo. Jest to system sztucznej inteligencji zrobiony przez DeepMind (tutaj specjalnie używam słowa „system”, bo to wiąże ze sobą algorytmy szukania i sieci neuronowe), który umie grać w Go.

Go jest niesamowicie trudną grą, wcześniej ludzie myśleli, że rozwiąże ją ktoś 10 lat później, niż DeepMind to zrobił. To jest bardzo skomplikowana gra, ludzie myśleli, że to jest poza możliwościami AI. Wynika to z tego, że jest po prostu bardzo dużo ruchów. To jest gra, w której kładziemy białe i czarne kamienie na bardzo dużej planszy i przez to, to drzewo wyszukiwań ruchów jest po prostu niewyobrażalnie większe niż szachy. Takie algorytmy jak w szachach, gdzie to jest bardziej taka heurystyka plus szukanie, raczej nie działają.

DeepMind udało się to zrobić, w szczególności dzięki temu, że byli w stanie zagrać ok. 100 mld różnych ruchów w tej grze w czasie uczenia i dzięki temu, nauczyć się jak grać w tę grę optymalnie. To był kluczowy element tego, że im się to udało, poza niesamowicie oczywiście genialnymi rozwiązaniami z zakresu sztucznej inteligencji. 

To, co jest ciekawe i to dlaczego przytoczyłem to, to nasz problem może być tak samo sformułowany, tylko jest jeszcze trudniejszy niż Go. Też możemy sobie wyobrażać robienie syntezy związku jako grę. Zaczynamy od tego związku, którego chemik chce i dać mu przepis kucharski, jak go zrobić.

Musimy przeszukać całe drzewo gry, gdzie każdy ruch to jest rozbicie tego związku na dwa prostsze, aż dojdziemy do związków, które można kupić. Czyli widać taki obrazek, że mamy drzewko, gdzie na górze mamy cały związek, a potem go tniemy, np. na pół, znowu na pół, aż dojdziemy do takiej rzeczy, którą można kupić, typu jakiś kwas, wodę, cokolwiek. Rzecz, którą załóżmy można kupić w sklepie i zmieszać.

Dlaczego to jest dużo trudniejsze niż Go? Nie dość, że ten czynnik możliwych ruchów jest załóżmy podobny lub przynajmniej wyobrażalnie podobny, to najgorsze jest to, że nie wiemy, jakie ruchy można robić. W momencie jak mamy związek, nie jest tak, że po prostu wiemy, jaką reakcję można zastosować, tylko musimy nauczyć się tego z danych, których niestety jest nie 100 mld, tylko bardziej 1 mln.

Z tej perspektywy, mam nadzieję, że widać, że jest to taki problem bardzo R&D w naturze. Po prostu nie ma tutaj jakiś takich rozwiązań, że zapytamy bazę danych o cenę związków, wręcz odwrotnie. To jest tylko jeden z elementów, ale najtrudniejszym elementem jest rozbicie związku głównego na mniejsze związki, które można kupić. Ta droga to jest ta gra w Go i to jest kluczowy problem AI czy problem technologiczny. 

Bardzo byśmy chcieli, żeby był reinforcement learning i nawet próbowaliśmy w którymś momencie, ale przez to, że nie mamy 100 mld ruchów, tylko 1 mln zaszumionych danych o reakcjach (swoją drogą, one pochodzą z patentów w Stanach), to po prostu reinforcement learning tutaj jeszcze nie pomaga. Bardziej trzeba się skupić na tym, żeby dobrze przewidywać ruchy, bo w Go ruchy to są reguły.

Wiemy, gdzie można postawić biały i czarny kamień, że w szczególności nie można postawić kamienia na kamieniu. My musimy nauczyć się tych ruchów i to jest na razie kluczowy problem. 

Ale tak, reinforcement learning w przyszłości bardzo prawdopodobne, że będzie przydatny.

Film dokumentalny o AlphaGo | prod. DeepMind



Z zaszumionymi danymi i patentami to brzmi trochę tak, że w tej chwili przez przypadek to, co zrobiliście, to jest taki system weryfikacyjny jakości tych patentów i czuć, że tam jest szum, prawda?

Można powiedzieć, że jest to istotnie drugi wynik. Faktycznie są to dane bardzo zaszumione. Ktoś tam czasami wpisze temperaturę sto razy za dużą albo zapomni wpisać, że dodał tam jakiś kwas czy coś, więc te dane są faktycznie bardzo zaszumione i to jest kluczowy problem: jak modelować chemię? W gruncie rzeczy, chcemy się nauczyć natury czy fizyki, a mamy tylko milion danych i to jest bardzo mało w tym kontekście. 

To tak chciałem po prostu narysować, bo wydaje mi się, że to troszeczkę pomoże odpowiedzieć na to pytanie. Zapytałeś, jak myślimy o tym, jak budować wartość z użyciem AI i czy jest to zasada Pareto? 

Właśnie bardzo tak. Nasz kluczowy pomysł, jak budować wartość z takim produktem, który daje przepisy kucharskie, jak stworzyć dany związek jest taki, żeby skupić się na tym podzbiorze chemii czy tym podzbiorze reakcji, którego umiemy się nauczyć.

Mimo że te dane są niesamowicie zaszumione i bardzo niedoreprezentowane, jest podzbiór reakcji, których jesteśmy w stanie dobrze użyć (nazwijmy ją popularną chemią). Ta zasada Pareto tutaj bardzo wchodzi, ponieważ robimy AI, ale skupiamy się na niesamowicie wąskim wycinku chemii (czyli załóżmy te 120% z zasady Pareto), ale to już nam daje 80% wartości.

Jeżeli jesteśmy w stanie używać popularnej chemii, to już jesteśmy w stanie zrobić bardzo dużo związków, bo one w odkrywaniu leków są zwykle robione dosyć podobnymi reakcjami z różnych powodów, m.in. dlatego, że to są leki, więc mają podobne struktury. Zasada Pareto jest bardzo istotna w tym, jak myślimy o tym produkcie. 

Spróbujmy zrozumieć, co to znaczy w praktyce. Łatwo jest powiedzieć, że jak najbardziej Wam rezonuje skupianie się na rzeczach, które są najbardziej wartościowe przy najmniejszym wysiłku, ale co to znaczy w praktyce?

Jakie są kryteria, że wy rozumiecie, że akurat trzeba się skupić na tym: jakie są alarmy, gdy zaświeci się „zielona lampka”, czy da się szybko zidentyfikować, co robicie? Jak to wygląda od strony praktycznej, jeżeli chodzi o planowanie, logistykę?

Opowiem najpierw historię z Tesli, z wykładu o ich autopilocie. Potem opowiem podobną historię u nas i może w ten sposób zilustruję, co robimy w tym kontekście. To jest jeden aspekt tego, jak sobie radzimy z wprowadzeniem zasady Pareto w praktyce, bo rozumiem, że to jest głównie pytanie. 

Przykład Tesli, jak oni podchodzą do autopilota – jednym z aspektów autopilota w Tesli jest oczywiście to, żeby rozpoznać znak STOP. Bardzo źle by było, jakby autopilot nie rozpoznał znaku stopu. Okazało się, że słabo sobie radzą w którymś momencie ich pracy (teraz już zakładam, że sobie dobrze radzą) z tym, że znaki STOP są w różnej ilości konfiguracji, bo np. znak STOPu okazuje się, że może być trzymany przez człowieka na ulicy, może być trzymany przez człowieka na odwrót (znak STOPu trzyma, ale go obrócił o 180 stopni), może być za drzewem, może być z naklejoną naklejką.


Tesla podchodzi do tej klasy problemu, robiąc sobie pętlę uczenia aktywnego, czyli znajdują takie przykłady, gdzie jest ciężko, a potem zbierają je z całej swojej floty (czyli zbierają podobne przykłady, które mają podobną właściwość), budują zbiór danych. Teraz włączając ten zbiór danych do ich zbioru całego, po nauczeniu się znowu sieci neuronowej czy całego systemu, potencjalnie będzie on już odporny na te znaki STOPu. 

Analogicznie my realizujemy zasadę Pareto w ten sposób, że po prostu testujemy to, co chcemy. To brzmi prosto, ale jest bardzo rzadko realizowane w praktyce, przynajmniej w tej dziedzinie. Zresztą wydaje mi się, że często ogólnie w AI przemyśle.

Budujemy testy, które bardzo specyficznie sprawdzają wiedzę chemiczną modelu versus to, że on umie dobrze przewidywać reakcję. Dzięki temu, nasz model działa dużo bardziej stabilnie od tej popularnej chemii i będzie działał u większej ilości klientów. 

Czyli analogicznie, jak Tesla by chciała, żeby rozpoznawać znak STOPu, który jest odwrócony o 180 stopni, my też chcemy, żeby nasz model działał stabilnie w sytuacjach, w których dostajemy dziwne związki. 

Na przykład wyszło nam coś ciekawego w czasie pracy – sprawdzaliśmy jedną właściwość chemiczną, która jest kluczowa – nazywa się regioselektywność. Polega na tym, że jeżeli mamy jakąś reakcję, to tam są dwa substraty. Jeden substrat przykleja się do drugiego, ale może się przykleić w różnych miejscach.

Czy jeżeli model rozumie regioselektywność to wybierze dobre miejsce do przyklejenia się? To, co się ciekawego okazało, to regioselektywność nie była kluczowym aspektem dla modelu, żeby dobrze działać. Właśnie nauczyła się jakiś skrótów, była trochę leniwa. Uczyła się świetnie rozbijać związek, ale niestety nie wiedziała do końca, gdzie co się przyklei, bo nie było to dla niej konieczne z pewnych powodów.

Zrobiliśmy wewnętrzny test, który to sprawdza, a potem wprowadziliśmy to jakby bardziej bezpośrednio do trenowania. Tego typu podejście, gdzie trochę jak Tesla, identyfikujemy, gdzie nie działamy z tej popularnej chemii i wprowadzamy to do systemu albo poprawiając to bezpośrednio, albo poprawiając trenowanie, pozwala nam w bardziej systematyczny sposób myśleć o tym, co i jak realizować tą zasadą Pareto i jak ją testować. 

Skąd wiecie, że nie przegapiliście czegoś ważnego? Wyobraźmy sobie, że jest 100% rzeczy, które można wykonać, są te 20% najciekawsze, atrakcyjne i teraz skąd wiecie, że akurat top 5 albo top 10 nie przegapiliście? 

Różnie to można powiedzieć, np. jest tak, że są fale popularności różnych imion dzieci. Trochę to jest tak, że jest pewien zestaw reakcji, które są obecnie istotne. Te trendy się zmieniają z czasem, ale w miarę można je zidentyfikować. Po prostu wiemy, jaki zestaw reakcji jest najczęściej używany, żeby syntetyzować związki chemiczne, które są lekopodobne i na nich się skupiamy.

Na nich się skupiamy też w tych testach, o których wspomniałem. To troszeczkę jest tak, że analizujemy trendy, które są na rynku i na tej podstawie skupiamy się na danym podzbiorze chemii. 

Jak to się stało, że zostałeś naukowcem?

To był kontrolowany zbieg okoliczności, ale głównie zbieg okoliczności. Na pewno zawsze miałem coś takiego, że bardzo lubiłem rozumieć rzeczy, ale tak ogólnie to był to proces stochastyczny. 

Pierwszy element jest taki, że programowałem od bardzo małego. Mój tata z jakiś powodów (z czego się bardzo cieszę) uczył mnie programować od małego, od podstawówki. Wtedy programowaliśmy np. jakiś bardzo prosty silnik fizyczny. To wprowadziło mnie w świat programowania bardzo wcześnie i było to jednym z kluczowych moich zainteresowań. Ja zawsze chciałem zostać fizykiem, ale nie zostałem. Miałem taki ze sobą zakład w liceum, że jeżeli zostanę laureatem Olimpiady Fizycznej, to pójdę na medycynę, bo też chciałem być lekarzem. Jeżeli dojdę do finału, to pójdę na fizykę. 

Jak można zgadnąć, ani laureatem, ani do finału się nie dostałem, więc stwierdziłem, że jak już mi tak pójdzie źle, to pójdę na informatykę. Tak wyszło, że poszedłem na tę informatykę na UJ. Okazało się to fantastycznym zbiegiem okoliczności. W 2011 r. to było. Wtedy sieci neuronowych tych głębokich w Polsce po prostu nie było.

Tak upraszczam, ale myślę, że to jest w miarę dobre uproszczenie. Były oczywiście sieci neuronowe, ale tego podejścia deep learningowego prawie w ogóle nie było, ale akurat na UJ był profesor Igor Podolak, który był moim opiekunem na studiach indywidualnych. On w gruncie rzeczy zaciekawił mnie tym tematem i dzięki niemu bardzo się nim zainteresowałem.

To był bardzo istotny zbieg okoliczności i też wtedy stworzyła się grupa GMUM (Group of Machine Learning Research) na UJ, która chyba teraz jest największą grupą deep learningu w Polsce, a wtedy w ogóle się nie zajmowała sieciami neuronowymi, więc też taki ciekawy zbieg okoliczności.

Ja się interesuje tym, że te sieci neuronowe leniwie się uczą, ale to też jest strasznie duży przypadek. Pamiętam, że wysłałem aplikację na staż u profesora Yoshua Bengio i potem ten list został w skrzynce spamowej całego Instytutu w Montrealu przez rok. W ogóle nikt go nie otworzył, bo wpadł do skrzynki spamowej, nie wiem czemu (wysłałem go z Gmaila).

Dopiero po roku odpowiedzieli mi i trochę przez to, że wpadł do tej skrzynki spamowej, może miałem trochę inny proces na rekrutację. W gruncie rzeczy dzięki temu, że pojechałem tam rok później, to miałem okazję pracować w tematach optymalizacyjnych. To był taki kolejny zbieg okoliczności. One stały się podstawą mojego doktoratu i w ogóle teraz zainteresowań. 

Tych przypadków było jeszcze trochę, więc tak koniec końców to, że zostałem naukowcem i to, że w szczególności działam w optymalizacji, jest kontrolowanym zbiegiem okoliczności. Jednak zawsze mnie interesowała nauka i teraz się bardzo cieszę, że to, co robię, łączy ze sobą wszystkie aspekty, które gdzieś tam po drodze lubiłem, bo jest chemia, fizyka, programowanie, sztuczna inteligencja, praca z ludźmi. Jakoś się to wszystko tak ułożyło, że łączy ze sobą te elementy, które mnie interesują. 


To jest ciekawe, bo z jednej strony to jest zbieg okoliczności, ale z drugiej to warto przyznać, jaka jest Twoja postawa, bo jeżeli wziąć losową osobę, postawić w to miejsce, to podejrzewam, że wyniki byłyby zupełnie inne.


Tu chciałem, żeby też wybrzmiało, na ile po prostu jesteś otwarty na świat i lubisz eksperymentować i poznawać różne rzeczy. Po prostu, jak przydarzy Ci się jakaś okazja, to próbujesz to potestować. Potem, co Ci się udaje i myślę, że to też nie przypadek, dlaczego pracujesz teraz w Molecule.one. Właśnie próbujesz łączyć różne kropki.

To też był straszny przypadek, że pracuję w Molecule.one, bo wszystko dzięki temu, że mieliśmy wspólnego znajomego i po prostu, wtedy byłem jedną z niewielu osób w Polsce, która interesowała się równolegle sieciami neuronowymi i chemią. 

Masz część związaną ze światem naukowym, z drugiej strony teraz jesteś zaangażowany w startup, czyli projekt biznesowy. Jak się to łączy? W Stanach Zjednoczonych naukowcy faktycznie czasem robią biznes, w Polsce to się dzieje coraz częściej, w szczególności jeżeli mówimy o młodszych naukowcach.

Natomiast myślę, że to nadal jest dość rzadkie zjawisko i wiele osób albo siedzi na uczelniach, albo robi biznes. Nie jest takie popularne, że jesteś tu i tu. Chociaż to jest takie fajne, żeby się nawzajem uzupełniać. Jak to jest u Ciebie, jak to łączysz i jakie są plany? Czy jest szansa, że na któryś z obszarów bardziej się zdecydujesz czy jednak chcesz balansować pomiędzy?

Teraz jestem bardziej po stronie nauki. Tak jak wspominałem, o ile zaczynałem rozkręcać ten zespół machine learningowy, teraz jestem bardziej advisorem naukowym, ale to się zmienia za miesiąc, bo będę już na stałe w Molecule.one, więc możemy powiedzieć, że się uśrednia na to, że jestem pół na pół. Faktycznie tak jak mówisz, to jest bardzo ciekawe spostrzeżenie, że w Polsce (przynajmniej ogólnie) to jest dużo bardziej rzadkie niż w Ameryce – szkoda.

Wydaje mi się, że bardzo naturalnym jest, żeby było więcej spin-offów z uczelni, patentów i tych patentów i spin-offów w Polsce jest mało. Ciężko powiedzieć, z czego to wynika. Nie chcę tutaj hipotetyzować.

Wydaje mi się, że jednym z najciekawszych kierunków, w które idzie sztuczna inteligencja teraz, jest automatyczne odkrywanie naukowych rzeczy (automatic scientific discovery). W szczególności w perspektywie kolejnych 5, 10 lat, sieci neuronowe i AI będą bardzo kluczowe w kontekście odkryć naukowych, już na skalę nagrody Nobla.

Z tej perspektywy bardzo mnie interesuje to przecięcie. Są tu problemy naukowe, jak sieci neuronowe mogą takie odkrycia robić czy pomagać naukowcom, ale też wręcz z definicji wynika, że trzeba mieć również biznes, który, przynajmniej jeżeli chodzi o odkrywanie leków, operuje jakimiś dużymi pieniędzmi, potem może robić te eksperymenty w laboratorium itd.

Oczywiście są takie dziedziny naukowe, gdzie nie trzeba mieć dużych pieniędzy, ale akurat w moim obszarze zainteresowań eksperymenty potrafią być drogie. 

Jeżeli mnie interesuje lub widzę potencjał w tym przecięciu, że AI pomaga w nauce, chemii czy w odkrywaniu leków, to nie ma właściwie wyjścia i trzeba być gdzieś tam pośrodku tych dwóch bardzo fascynujących pól i ich przecięcia. Motywacja wychodzi z naturalności tego działania.

Jest też motywacja bardziej filozoficzna. Proces odkrywania leków, jak wspominałem, jest bardzo drogi i bardzo nieefektywny. Wydaje mi się, że to jest ciekawy problem do rozwiązania i to też bardzo mnie motywuje, żeby nad nim pracować długofalowo czy w biznesie, czy w nauce.

Ciekawy jestem, czy masz jakiś określony pułap, co chciałbyś minimum osiągnąć, żeby uznać, że ten cały proces zaangażowania się w ten projekt, poświęcania swojej energii, po prostu miał sens? 

Nie, w sumie nie. Po prostu traktuję to tak, że to jest to, na czym się skupiam i zobaczymy. Nie wiem, kto to zrobi, ale nie ma jeszcze takiego przykładu klarownego, że sieć neuronowa bardzo pomogła w odkryciu jakiegoś leku. Jest trochę papierów, które tak twierdzą, ale ja bym tutaj z rezerwą podchodził do tych stwierdzeń.

Bardziej one były formą narzędzia, ale nie były kluczowe. O ile nie jest tak, że jest to mój personalny cel, to wydaje mi się, że będzie taki troszeczkę milestone całego tego pola, jeżeli faktycznie kluczową częścią leku, który będzie do kupienia w aptece, było użycie AI. Wydaje mi się, że wtedy naprawdę jako cała społeczność zobaczymy, że faktycznie AI jest w stanie pomagać procesowi odkrywania leków i w szczególności pomagać ogólnie nauce.

W tym momencie to, co mnie fascynuje, czyli to przecięcie AI i procesu naukowego, ma dużo fajnych drobnych sukcesów, ale nie ma jeszcze czegoś takiego, że faktycznie AI pomogło coś odkryć. Raczej to są takie rzeczy, że osiąga podobne wyniki, jak jacyś lekarze, ale nie ma czegoś takiego, że np. AI powiedziało coś nowego o raku piersi. Bardzo jestem ciekawy, kiedy zaczną się pojawiać takie pierwsze wyniki. Wydaje mi się, że to będzie element kolejnej rewolucji w deep learningu i AI.

Właśnie o to chciałem zapytać, czyli ten moment, kiedy to nastąpi, brzmi trochę jak rewolucja, ale odwołując się do AlphaGo to ograniczeniem obecnie jest po prostu mniejsza ilość danych, których próbka jest zaszumiona.


Jeżeli powstanie takie rozwiązanie, które będzie w stanie niezależnie, samodzielnie coś wytworzyć, wykombinować, to to by trochę brzmiało, że to coś będzie w stanie wygenerować też więcej próbek, bo będzie lepiej rozumieć rzeczywistość (przynajmniej pewien wycinek rzeczywistości). To tworzy zupełnie inne możliwości niż mamy teraz. To coś podobnego, jak był computer vision przed ImageNet i właściwie po 2012 r. To jest coś takiego? Taki milestone?

Tak, to jest absolutnie fascynująca możliwość, prawdziwa interakcja. Możemy tu się skupić na wielu zastosowaniach AI, nie tylko robieniu reakcji. W momencie, kiedy faktycznie AI zacznie wykonywać te eksperymenty bardziej samodzielnie, to też ma ten potencjał, że to będzie, tak jak mówisz, coś zupełnie nowego.

W szczególności jestem bardzo podekscytowany tą interakcją, tzn. jeżeli AI będzie samo proponować eksperymenty, np. które reakcje wykonać to bardzo ciekawa jest interakcja tego z chemikiem i co razem mogą zrobić. Tutaj troszeczkę naciągam analogię, ale są takie fajne wyniki, że ludzie używając AlphaGo potrafią się nauczyć nowych rzeczy o Go. Jest dużo takich przykładów od DeepMindu. Fajnie, że to się dzieje w AlphaGo, ale co jeśli zacznie się to gdzieś w nauce?

Myślę, że to będzie wymagać dużych postępów, nie tylko w ilości danych czy w ilości pieniędzy, ale też w technikach AI i to jest część motywacji, dla której jestem na tym przecięciu nauki i biznesu. 

Faktycznie w przypadku AlphaGo to się wydarzyło przy okazji. Tego nikt wprost nie planował, że wykryły się inne takie wzorce, na które nikt wcześniej nie wpadł. 

Aż kusi zapytać o jeszcze jedną rzecz. Skoro jest magiczny punkt X, być może uda się go osiągnąć (teraz trochę oczywiście to wróżenie), ale powiedzmy czy to jest perspektywa 5, 20, 50 lat? Jak czujesz?

Mi się wydaje, że to jest bardziej perspektywa 5-10 lat. Oczywiście, myśmy nigdy nie zdefiniowali, co mamy na myśli, więc to, ile to będzie, jest tym bardziej wróżeniem z fusów, bo tu jasnej definicji nie postawiliśmy. W każdym razie moment, w którym ogólnie będą pierwsze bardzo jasne wyniki, że AI odkryło coś naukowego, postawiłbym w stylu 5-10 lat, bo już teraz nie jesteśmy daleko w różnych innych dziedzinach.

Konkretnie w odkrywaniu leków i chemii, gdzie troszeczkę mam więcej informacji. Bardzo ekscytujące jest to, że równolegle z poprawą AI, poprawiają się też nasze umiejętności symulacji. Przypominam, że chemia jest procesem fizycznym, więc w gruncie rzeczy, jakbyśmy umieli zasymulować to wszystko, to dużą ilość problemów byśmy zniwelowali.

Wydaje mi się, że bardzo tu jest istotna symulacja i ta symulacja postępuje równolegle z mocą AI i z mocą obliczeniową AI, sprawia, że ten postęp może być szybszy, niż nam się wydaje. 

Tutaj warto wspomnieć chociażby o komputerach kwantowych, które mogą mieć duże znaczenie w chemii. Tu może być perspektywa bardziej 50 lat.

Tak bym postawił, 5-10 lat to jest tutaj moja hipoteza. Pewnie nie mam racji, ale chętnie sprawdzę za 5-10 lat.

My faktycznie nie zdefiniowaliśmy, co to jest, ale w miarę określiliśmy, że to będzie taki punkt przełomowy i tu plus minus da się zrozumieć, o co chodziło. 

W obecnych czasach ciężko jest pominąć temat COVIDu, więc pytanie czy to, czym się zajmujecie, w jakichś sposób może się przełożyć na znalezienie leku lub szczepionki? Czy działacie w tym kierunku?

Najbardziej obiecującym procesem znalezienia leku na COVID jest szczepionka. Nie mniej, inne sposoby to właśnie znalezienie nowej struktury, która działa jak lek i w tym kontekście, udostępniliśmy nasze rozwiązania dla wszystkich naukowców, którzy szukają leku na koronawirusa i współpracujemy z paroma grupami.

W szczególności warto wspomnieć o takim projekcie z Montrealu, grupy profesora Yoshua Bengio, który się nazywa LambdaZero (to jest oczywiście w analogii do AlphaZero). Idea jest taka, żeby zaprząc podobny algorytm do szukania leków, które przyczepiają się do białek, które są istotne w kontekście mechanizmu działania COVIDa. Tam kluczowa innowacja jest taka, że przeszukują straszne ilości tych związków.

W tym kontekście była potrzeba użycia bardzo szybkiego algorytmu do oceny syntetyzowalności i właśnie w ramach tego zawiązaliśmy współpracę z dwoma osobami w tym projekcie. Użyli naszego darmowego rozwiązania, przepuściwszy przez nasz system 100-200 tys. związków, które im oceniliśmy z punktu widzenia syntetyzowalności. Takie coś byłoby dosyć trudne z użyciem innych rozwiązań ze względów czasowych. 

Kiedy się dowiemy, czy to gdzieś pomogło? Jakie są dalsze kroki?

Tutaj nie mogę szczegółów podawać. Tyle co jest widoczne na stronie LambdaZero, mogę powiedzieć. Projekt działa już od jakiegoś roku i na stronie jest pokazane, że znaleźli związek, który dobrze w symulatorze działa i da się go zrobić teoretycznie w laboratorium. Ale czy są praktyczne wyniki, to jeszcze nie jest nic ogłoszone i też jakiś timeline ciężko podać. 

Na koniec chciałbym zapytać, być może trochę filozoficznie, trochę etycznie: jak myślisz, dokąd to wszystko dąży, jeżeli chodzi o sens tego, co się dzieje? Jaki to będzie miało wpływ na ludzi? Czy ludzie staną się zdrowsi przez te rozwiązania, które mogą powstać?

Myślę, że najlepiej się skupić na tym, ile ten proces kosztuje i jaki jest długi. Jak wspomniałem, proces odkrywania leków czyli od góry tego lejka do jednego związku, może kosztować załóżmy 1 mld $. Stąd prosta implikacja, że dla chorób, które dotyczą tylko np. 10 tys. osób, niestety po prostu ten proces nie jest opłacalny.

Zmniejszenie kosztów tego procesu, do czego wydaje mi się, że połączenie AI i symulacji ma ogromny potencjał, ma szansę sprawić przeprowadzenie całego procesu dostatecznie tanim. Nawet dla tych chorób, które dotyczą małej populacji. Jest takich chorób niestety bardzo dużo. To są w szczególności jakieś genetyczne zmiany, które prowadzą do konkretnych schorzeń, które często wiemy, jak wyleczyć, jaki jest mechanizm tej choroby, ale po prostu nie opłaca się od strony rynkowej i dowolne rozwiązania polityczne tego nie zmienią.

Tutaj to jest największy potencjał ogólnie zastosowań metod AI czy lepszych symulacji w procesie odkrywania leków.

Mamy nadzieję, że jeżeli proces będzie tańszy, to w praktyce to oznacza, że leki staną się po prostu dostępne, bo niestety są inne analogie, jak np. z ropą. Kiedy ropa tanieje lub nawet czasem jest ujemna (czyli ktoś płaci, żeby ktokolwiek tę ropę kupił), a benzyna delikatnie być może spada, a może czasem niekoniecznie.

Te procesy w ekonomii czasem są dość ciekawe, jeżeli chodzi o to, że regularnie rosną, ale nie zawsze chcą spadać. Trzymajmy kciuki, żeby w tym przypadku to faktycznie wpłynęło korzystnie na ludzi, bo technologia ma ogromny potencjał.

Oczywiście są pewne rzeczy, które jeszcze trzeba lepiej zrozumieć, sprawdzić i to jest właśnie to, czym się zajmujesz. Pięknie będzie, jeżeli to rozwiązanie faktycznie się przyczyni do tego, żeby problemy życiowe, które w tej chwili są pomijane, bo tak jak chociażby wspomniałeś, że nie zawsze to jest opłacalne, czyli nie ma możliwości tych leków zbudować tymi metodami, które w tej chwili są dostępne, to przynajmniej tutaj mamy nadzieję, że to będzie osiągalne, namacalne rozwiązanie dla większej grupy osób.


Być może też nie dla wszystkich, chociaż być może to w tym kierunku mogłoby dążyć, bo ostatecznie technologie, jak już ta mądrość pojawi się na poziomie cyfrowym, to technologicznie to już nie będzie drogie. Bardziej problem jest w tym, żeby się dostać do tego punktu. W tej chwili jak AlphaGo się pojawiła, jej uruchomienie już nie jest takie skomplikowane, to już są zdecydowanie mniejsze pieniądze. 

To chyba tyle na dzisiaj. Dzięki wielkie za rozmowę, życzę żeby udało Ci się rozwinąć jako człowiek, jako osoba, która lubi poznawać świat. Mam nadzieję, że to się przyczyni ku temu, żebyśmy my jako ludzie, cywilizacja znaleźli się na nowym, lepszym poziomie naszego rozwoju. Dzięki wielkie.

Dzięki bardzo za zaproszenie i rozmowę. Do usłyszenia.




Jeśli spodobał Ci się ten wywiad to bardzo proszę, poleć co najmniej jednej osobie, żeby również mogła go wysłuchać. Będę Ci wdzięczny za różnego rodzaju potwierdzenie, czyli w iTunes możesz postawić 5 gwiazdek, napisać komentarz. Dzięki temu, ten podcast będzie bardziej dostępny dla innych ludzi. 

Zapraszam Cię również do zapisania się na newsletter, bo dzięki temu będziesz dostawać najnowsze informacje. Nie spamujemy, za to przypominamy, kiedy wychodzą nowe odcinki i też przesyłamy prezenty, gdy takie się pojawią. 


Pytanie, które zadałem na końcu Staszkowi: dokąd to dąży, bo fajnie, że uda się znaleźć takie narzędzia, mechanizm, na podstawie którego można znajdować leki szybciej, sprawniej, trafniej, ale co to oznacza dla ludzi? Czy to nie będzie tak, że zachłanność kogoś poniesie za daleko? Po nagraniu podcastu rozmawialiśmy i między innymi Staszek jest bardzo optymistycznie nastawiony na to, że w tej chwili nie ma lepszego systemu niż kapitalizm.

Np. w Stanach Zjednoczonych jako taki mechanizm pewnego hamulca, to są różne zabezpieczenia albo patenty, które trwają X lat, a później można sobie spokojnie te leki produkować i rynek powinien to regulować, żeby cena była adekwatna. Jest nastawiony tutaj bardziej optymistycznie, chociaż też wspomniał o przykładzie niefajnym, który się wydarzył w swoim czasie, kiedy jedna firma skupowała patenty, a potem jak już je skupiła, to podnosiła ceny i to były leki, które człowiek musiał zużywać, bo to była kwestia życia i śmierci.

Firma oczywiście miała duże zyski, przychody, ale kosztem czego? Zdaje sobie sprawę, że takie sytuacje mogą występować, ale mimo tego jest nastawiony optymistycznie i chciałbym też trzymać się tej myśli. Z drugiej strony warto mieć na uwadze, czy faktycznie technologia przyczyni się ku temu, znajdzie się we właściwych rękach?

 

Tu pytanie też na koniec dla Ciebie: jak myślisz, co powinno się stać, żeby taka technologia była we właściwych rękach i jak te właściwe ręce można zdefiniować? Skąd dowiemy się, że te ręce są właściwe?

Od 2013 roku zacząłem pracować z uczeniem maszynowym (od strony praktycznej). W 2015 założyłem inicjatywę DataWorkshop. Pomagać ludziom zaczać stosować uczenie maszynow w praktyce. W 2017 zacząłem nagrywać podcast BiznesMyśli. Jestem perfekcjonistą w sercu i pragmatykiem z nawyku. Lubię podróżować.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *