Sztuczna inteligencja wspiera diagnostykę raka piersi, ale lekarz wciąż ma ostatnie słowo

Sztuczna inteligencja analizuje duże zbiory danych medycznych, co w programach przesiewowych pozwala zidentyfikować pacjentów z ryzykiem raka piersi szybciej niż tradycyjne metody – mówi dr Marcin Sieniek, naukowiec kierujący zespołem badaczy nad AI w Google Health w Kalifornii.

Publikacja: 15.10.2024 13:34

dr Marcin Sieniek:  Uważam, że sztuczna inteligencja ma największy potencjał we wczesnych etapach di

dr Marcin Sieniek: Uważam, że sztuczna inteligencja ma największy potencjał we wczesnych etapach diagnostyki, podczas badań przesiewowych, gdzie analizowana jest duża liczba przypadków, a większość pacjentów jest zdrowa. To właśnie tam możemy odciążyć lekarzy, pozwalając im skupić się na bardziej złożonych przypadkach, wymagających indywidualnego podejścia i specjalistycznej wiedzy.

Foto: Adobe Stock

Gdyby miał pan wyjaśnić swojej babci, czym dokładnie zajmuje się pan i pana zespół w Google, to jakby pan to opisał?

Już kilka razy odpowiadałem na to pytanie rodzinie, więc mam wprawę: uczymy komputery rozpoznawać oznaki chorób na obrazach medycznych, na przykład na mammogramach. Komputer analizuje te obrazy i identyfikuje zmiany, które mogą sugerować zmiany chorobowe, również te nowotworowe.

Jak to wygląda w przypadku raka piersi?

Dobrym przykładem jest diagnostyka raka piersi. To choroba, która dotyka około 15 procent kobiet. Dlatego wdrożono programy przesiewowe, w ramach których kobiety są regularnie zapraszane na mammografię, czyli specjalistyczne zdjęcia rentgenowskie piersi. Dotychczas obrazy te były interpretowane przez dwóch radiologów, a w razie niezgodności między nimi konsultował trzeci, bardziej doświadczony lekarz. Teraz sztuczna inteligencja może wspomagać ten proces. Uczy się na ogromnych zbiorach danych i rozpoznaje wzorce, które mogą świadczyć o nowotworze; to przyspiesza diagnozowanie i zwiększa dokładność diagnozy.

AI ma też zastosowanie w profilaktyce ciąży – na czym tu polega jej pomoc?

Pewnie nawiązuje pani do projektu, nad którym pracowałem; to był program finansowany z grantu Fundacji Billa i Melindy Gatesów, którego celem było wdrożenie tanich aparatów USG w Afryce, by zwiększyć dostępność badań prenatalnych. Wybór padł na Afrykę, ponieważ tam właśnie brakuje wykwalifikowanego personelu medycznego, a jednocześnie interwencje związane z opieką okołoporodową mają największy wpływ na zmniejszenie śmiertelności matek i dzieci. Do niedawna wysoki koszt urządzeń USG stanowił barierę, jednak obecnie ich ceny spadły, co otworzyło nowe możliwości, ale barierą pozostał brak specjalistów. W Zambii, gdzie projekt był realizowany, w całym kraju jest jedynie siedmiu radiologów i brakuje personelu wyszkolonego w obsłudze i interpretacji USG. Zamiast długotrwałego szkolenia specjalistów, opracowaliśmy system, który umożliwia proste skanowanie przez położne czy doule. Choć skany nie są tej samej jakości, co te wykonywane przez ekspertów, AI jest w stanie znaleźć na nich kluczowe informacje - wiek płodowy i pozycję płodu. Drugie wskazanie jest ważne, bo niewłaściwa pozycja może prowadzić do komplikacji podczas porodu. Jeśli AI wykryje, że pozycja płodu nie jest prawidłowa, zaleca się przewiezienie matki do szpitala, gdzie może być wykonane cesarskie cięcie. To ważna informacja, ponieważ w Afryce wciąż powszechne jest rodzenie w domu.

Jak to się stało, że rozwija pan sztuczną inteligencję, a co za tym idzie – zmienia przyszłość medycyny?

Sukces takich projektów to zasługa całego zespołu – programistów, radiologów, lekarzy pierwszego kontaktu, a także osób zajmujących się produktem i interfejsem użytkownika. Jest to innowacja, której nikt nie dokonałby samodzielnie, bo nikt nie kończy studiów z wiedzą zarówno radiologiczną jak i programistyczną. Nie ma jednej osoby, która zna się na wszystkim. Udało mi się znaleźć w zespole, który pracuje właśnie nad szerzej rozumianą ochroną zdrowia i odgrywam w nim taką rolę, że mam pewne pojęcie o sztucznej inteligencji; są osoby, które mają pojęcie o radiologii czy medycynie. Wspólnie, krok po kroku, dążymy do udoskonalenia systemu opieki zdrowotnej.

Sformułowanie „udało mi się” brzmi skromnie, bo przecież to nie przypadek, że znalazł się pan w takim zespole, prawda?

Czytaj więcej

Kobiety z różnych krajów "różnie chorują" na raka piersi. Wiedza o tym jest ważna

I tak, i nie. Wielu mówi: „Wyznacz sobie ambitny cel i krok po kroku zmierzaj do jego realizacji.” Moje doświadczenie jest inne. Na każdym etapie kariery korzystałem z okazji, które się pojawiały. Jeśli udało mi się coś osiągnąć, stawiałem sobie nowe, trudniejsze cele. To nie była od razu wielka wizja, że będę pracował nad medycyną i AI. Raczej możliwości, które napotkałem, dobrze pasowały do moich wartości i umiejętności, więc po prostu je wykorzystywałem.

Dla przeciętnego człowieka zajmuje się pan skomplikowanymi rzeczami – na przykład multimodalnymi modelami językowymi w diagnostyce. Czym są i jak działają?

Dynamiczny rozwój modeli multimodalnych obserwujemy od niedawna, ale już teraz można mówić o przełomie w dziedzinie sztucznej inteligencji.

Wcześniej AI w medycynie ograniczała się głównie do analizy obrazów lub tekstu, bez możliwości ich jednoczesnego przetwarzania. Przez długi czas działania na tekście były dość ograniczone, ale w ostatnich latach to się zmieniło. Modele multimodalne pozwalają na równoczesne przetwarzanie różnych typów danych – na przykład obrazu i tekstu, głosu i obrazu, a nawet wideo i dźwięku. W medycynie taki model może jednocześnie analizować zdjęcia radiologiczne i generować tekstowy opis.

To ogromna zmiana, bo wcześniejsze modele AI, z których korzystaliśmy np. przy raku piersi, miały na celu jedynie analizę obrazów – odpowiadały „tak” lub „nie” na pytanie, czy pacjentka wymaga dalszych badań. Natomiast multimodalne modele, które potrafią pracować zarówno na obrazach, jak i tekstach, otwierają przed nami nowe możliwości.

Przykładowo, model analizujący rentgen klatki piersiowej może pomóc przy rozpoznawaniu wielu chorób, ale trenowanie go na wszystkie 200 schorzeń wykrywanych na rentgenie jest kosztowne i czasochłonne. Tu wkraczają modele wielomodalne, umożliwiając bardziej elastyczne podejście. W modelu multimodalnym możemy zadać pytanie w języku polskim lub angielskim, a on na podstawie analizy obrazu odpowie na przykład: „Czy mięsień sercowy jest powiększony, a prawe płuco zapadnięte?” – nawet jeśli nikt wcześniej specjalnie tego obrazu nie „etykietował” pod tym kątem.

Jednocześnie ten sam model multimodalny może znaleźć zastosowanie w automatyzacji tworzenia notatek medycznych. Po analizie obrazu, AI jest w stanie wygenerować opis badania, co znacząco usprawnia pracę radiologa i ogranicza czas poświęcany na dokumentację. Takie modele wielomodalne mają też potencjał w edukacji medycznej. Wyobraźmy sobie studenta radiologii, który chce lepiej zrozumieć jakieś rzadkie zagadnienie. Model multimodalny może szybko przeszukać bazę danych i znaleźć przypadki obrazów odpowiadające jego zapytaniu. Co więcej, możliwy jest też dialog z takim modelem. Pacjent, może na przykład wgrać swoje zdjęcie z mammografii, a AI – w formie chatbota – odpowie na pytania o wynik, wyjaśniając, dlaczego coś jest niepokojące i pokazując szczegóły na obrazie.

Technologia, którą pan rozwija, potrafi wykryć nowotwór szybciej niż najlepszy specjalista?

Mieliśmy takie przypadki. W jednej z prób klinicznych w Chicago nasza sztuczna inteligencja wykryła nowotwór, który został przeoczony przez lekarzy. Pacjentkę skierowano na rezonans magnetyczny, który potwierdził diagnozę AI. Zdarzają się więc sytuacje, gdy AI trafnie wykrywa chorobę we wczesnym stadium.

Oczywiście, sztuczna inteligencja w medycynie nie jest pozbawiona ograniczeń. Choć zdarzają się przypadki trafnego wykrywania chorób we wczesnym stadium, jak np. nowotworów z 5-letnim wyprzedzeniem z 30-procentową skutecznością - to może się wydawać imponujące. Jednak z drugiej strony oznacza, że – postawiony przed tak trudnym zadaniem model – przegapiałby 70 procent przypadków. Pytanie brzmi, jak zaprojektować interwencję medyczną na podstawie tak nieprecyzyjnego sygnału. Sztuczna inteligencja daje nam nowe narzędzia, ale do społeczności medycznej należy zdefiniowanie, jak te narzędzia optymalnie wykorzystać. Dlatego na razie ograniczamy się do bardziej osiągalnych zadań, z którymi medycyna wie, co zrobić, np. wykrywania już obecnego nowotworu.

Kiedy nadejdzie ten moment, kiedy pacjent przyjdzie do lekarza, a ten podłączy go do komputera i komputer postawi diagnozę?

Myślę, że wdrożenie sztucznej inteligencji w medycynie to proces, który wymaga czasu i uwzględnienia specyfiki poszczególnych badań. Konieczne będzie przeprowadzenie szczegółowych testów i certyfikacji, aby zapewnić skuteczność i bezpieczeństwo tych rozwiązań.

Należy jednak pamiętać, że sztuczna inteligencja nie zastąpi lekarza w każdym aspekcie. W wielu przypadkach ze względu na złożoność i indywidualny charakter problemów medycznych, wdrażanie sztucznej inteligencji nie jest po prostu uzasadnione. Jednocześnie wszystko wskazuje na to, że sztuczna inteligencja będzie odgrywać coraz większą rolę w medycynie, przejmując wiele rutynowych zadań. Dzięki temu procesy diagnostyczne i terapeutyczne staną się szybsze i bardziej dostępne. Na przykład w Google Health, we współpracy z naszą siostrzaną firmą Verily, mamy model Arda, który zajmuje się optometrią. To program przesiewowy dla cukrzyków, który bada siatkówkę oka pod kątem uszkodzeń mogących prowadzić do ślepoty. Normalnie takie badanie przeprowadza okulista, ale dzięki AI możemy zwiększyć ich dostępność tam, gdzie brakuje specjalistów – na przykład na wiejskich terenach w Indiach czy Tajlandii, gdzie pracujemy. Dzięki sztucznej inteligencji, która może wspomóc interpretację obrazów medycznych, część procesu diagnostycznego da się przenieść bliżej pacjenta – do gabinetu lekarza rodzinnego. W niektórych przypadkach możliwe jest wykorzystanie do tego urządzenia mobilnego, takiego jak smartwatch.

Czytaj więcej

Nie chodzi o kliniki wyłożone marmurami. Profesor Agnieszka Kołacińska-Wow o tym, co liczy się w leczeniu raka piersi

Obecnie są już modele AI, które potrafią przeprowadzać screening zaburzeń rytmu serca, takich jak migotanie przedsionków na podstawie zapisów EKG. Przykładem może być rozwiązanie wdrożone przez Fitbit, które uzyskało zatwierdzenie amerykańskiej Agencji Żywności i Leków (FDA). Myślę więc, że przyszłość medycyny z wykorzystaniem sztucznej inteligencji nie oznacza rezygnacji z kontaktu z lekarzem czy zastąpienia go robotem. Wręcz przeciwnie, chodzi raczej o zwiększenie dostępności, szybkości i efektywności. Wiele procesów diagnostycznych będziemy mogli wykonać u lekarza pierwszego kontaktu, pielęgniarki, a nawet na naszym smartwatchu, zamiast w specjalistycznej klinice.

Czy dziś są obszary, w których sztuczna inteligencja działa lepiej niż lekarze?

Tak, zwłaszcza w rutynowych zabiegach, takich jak LASIK, czyli laserowa korekcja wzroku. Miałem niedawno taką operację w Stanach i zauważyłem, że wytrenowany model AI wykrył moment, w którym kichnąłem, i automatycznie wyłączył laser. Tego rodzaju rozwiązania są już powoli wdrażane w coraz większej liczbie procedur medycznych.

Druga sprawa to diagnostyka, zwłaszcza programy przesiewowe. Droga do postawienia diagnozy często jest długa i rozpoczyna się od analizy dużej ilości obrazów i danych medycznych. W większości przypadków wyniki są negatywne, a tylko niewielki odsetek pacjentów kwalifikuje się do dalszej diagnostyki. Uważam, że sztuczna inteligencja ma największy potencjał we wczesnych etapach diagnostyki, podczas badań przesiewowych, gdzie analizowana jest duża liczba przypadków, a większość pacjentów jest zdrowa. To właśnie tam możemy odciążyć lekarzy, pozwalając im skupić się na bardziej złożonych przypadkach, wymagających indywidualnego podejścia i specjalistycznej wiedzy. Programy przesiewowe o małej ilości wskazań, takie jak mammografia, mają ogromny potencjał, bo w zasadzie diagnozuje się głównie nowotwory. Istnieją także inne zastosowania – USG ciąży, badania serca, tomografia komputerowa płuc czy badania siatkówki oka, o których wspominałem wcześniej.

Są jednak badania, które ciężko zautomatyzować, należy do nich rentgen klatki piersiowej. To jedno z najczęściej wykonywanych badań na świecie, które diagnozuje około 200 różnych chorób. Trenowanie modeli AI do interpretowania wyniku jest bardzo złożone i niepraktyczne. Niektóre modele są bardziej dokładne niż lekarze, ale inne nie są wystarczająco dobre, więc jeszcze się ich nie stosuje.

Czy jest taka diagnoza, której nie powierzyłby pan sztucznej inteligencji?

Zaufanie do sztucznej inteligencji w medycynie opiera się na solidnych podstawach naukowych. Każde rozwiązanie, zanim trafi do użytku, musi przejść rygorystyczne testy kliniczne i uzyskać certyfikację, które potwierdza jego skuteczność i bezpieczeństwo. Spełnienie tych wysokich standardów jest gwarancją rzetelności AI.

Wydaje mi się, że ludzie będą chętniej korzystać z AI w sytuacjach mniejszego ryzyka, np. w programach przesiewowych, gdzie pacjent prawdopodobnie jest zdrowy. W takich przypadkach AI może przynieść realne korzyści, oferując szybszą i bardziej precyzyjną analizę danych niż lekarz. Natomiast w przypadku poważnych chorób pacjenci zwykle poszukują opinii wielu specjalistów, niezależnie czy pierwszą diagnozę postawiła AI czy człowiek. W tak krytycznych sytuacjach ludzie są mniej skłonni do "eksperymentowania" z nowymi technologiami, mimo zapewniania o ich wysokiej rzetelności.

Dlaczego nie ufamy sztucznej inteligencji?

W społeczeństwie rzeczywiście istnieje pewna ostrożność wobec sztucznej inteligencji i jest ona uzasadniona. Sztuczna inteligencja w medycynie to nowość, która budzi wiele pytań i wątpliwości. To zrozumiałe, biorąc pod uwagę, że wiele osób nie do końca rozumie nawet tradycyjne metody diagnostyki i leczenia. Pojawienie się "urządzenia", które ma podejmować decyzje medyczne, naturalnie rodzi obawy i potrzebę dodatkowych wyjaśnień.

W postrzeganiu sztucznej inteligencji, i technologii ogólnie, często pojawiają się skrajności: albo drastyczne niedocenianie, albo przecenianie jej możliwości. Trudno jest mieć dobrze skalibrowane przekonanie o tym, jak bardzo możemy ufać urządzeniom, a nawet lekarzowi. Warto pamiętać, że wiele technik obrazowania, w tym rentgenowskie, mają pewne immanentne niedoskonałości wynikające z fizycznych ograniczeń technologii – niezależnie od tego, czy interpretowane są przez lekarza, czy AI. Wyzwanie polega na tym, żeby podjąć optymalną decyzję na podstawie niepełnych informacji.

Często nie zdajemy sobie sprawy, że medycyna w dużej mierze opiera się na pewnych przybliżonych “algorytmach” postępowania . Lekarz – podobnie jak sztuczna inteligencja – nie zawsze ma pełen obraz sytuacji. Diagnoza często jest rezultatem analizy objawów i wyników badań, która prowadzi do określenia najbardziej prawdopodobnej przyczyny dolegliwości. Zdarza się jednak, że lekarz nie ma pewności i w takim przypadku może zalecić dodatkowe badania lub terapię obejmującą różne warianty leczenia. Musimy podejmować decyzje przy określonym poziomie ryzyka. Jest zresztą taki znany, naukowo udowodniony fakt, że ludzie są bardzo słabi w ocenie niskich ryzyk. Dlatego podejmują często nieracjonalne decyzje, jak gra w loterię, czy ubezpieczanie się przed mało prawdopodobnymi wypadkami. Nasz mózg nie ewoluował w taki sposób, aby potrafić zauważyć różnicę między jedną tysięczną a jedną dziesięciotysięczną szansy.

Więcej danych sprawia, że AI staje się mądrzejsza? Czy istnieje limit, po którym przestaje efektywnie przetwarzać dane?

Zasadniczo im więcej danych, tym lepiej. Ale jeśli model jest już dobrze wytrenowany na wysokiej jakości danych, a “dorzucimy” dane niższej jakości, może to obniżyć jego skuteczność. Ciekawym problemem jest też „przetrenowanie” modelu. Nie chodzi tu o ilość danych, ale o to, że zbyt długie trenowanie na tych samych danych bez odpowiednich zabezpieczeń sprawia, że model zaczyna „zapamiętywać” dane treningowe, a nie uczy się generalizować wniosków na nowe dane. Kluczowe jest więc balansowanie treningu, aby model mógł skutecznie rozpoznawać wzorce w nowych, nieznanych danych, a nie tylko w tych, na których został wytrenowany.

Czy AI może w przyszłości zastąpić lekarzy w niektórych dziedzinach medycyny, czy raczej będzie tylko wspierać ekspertów, bo dla pacjentów bardziej liczy się kontakt z lekarzem, dotyk, rozmowa...

Czytaj więcej

Profilaktyka nie gwarantuje, że nie zachorujemy na raka, ale daje szansę na wyleczenie

Możemy sobie wyobrazić szerokie spektrum zastosowań AI, od wspierania lekarzy w automatycznej segmentacji organów w radioterapii poprzez priorytetyzację pacjentów o podwyższonym ryzyku powikłań, aż po diagnozy w całości dokonywane przez model. AI może zautomatyzować żmudne i czasochłonne procesy, odciążając uwagę lekarza i pozwalając mu się skupić na bardziej złożonych aspektach opieki nad pacjentem.

Możemy również wykorzystać AI do zapewnienia jakości – systemy mogą przeglądać decyzje lekarzy i wychwytywać ewentualne błędy. W niektórych obszarach, takich jak mammografia, AI może zastąpić jednego z dwóch radiologów, a to zmniejszy zapotrzebowanie na kadrę medyczną, której i tak już brakuje. W innych przypadkach AI może podejmować autonomiczne decyzje, jak w modelu ARDA stosowanym do retinopatii cukrzycowej, gdzie analizuje obrazy siatkówki i podejmuje decyzje bezpośrednio, co znacznie usprawnia proces diagnostyczny w miejscach, w których brakuje specjalistów. Kontakt ludzki, dotyk i rozmowa pozostaną ważne, ale w niektórych przypadkach pacjenci mogą preferować szybsze, bardziej dostępne diagnozy AI. Co ciekawe, badania pokazały, że w pewnych sytuacjach pacjenci ocenili notatki wygenerowane przez AI jako bardziej empatyczne niż te napisane przez lekarzy. Być może w przyszłości systemy ochrony zdrowia będą oferować pacjentom większy wybór w zakresie diagnostyki i leczenia. Możliwe będą np. szybsze i tańsze rozwiązania oparte na sztucznej inteligencji, a także opcja dopłaty do bardziej spersonalizowanej opieki lekarza.

Jest pan doktorem informatyki, doktorat obronił na AGH, pana prace były publikowane w „Nature”, a wyniki doprowadziły do pierwszej próby klinicznej w Chicago. Dlaczego prowadzi pan swoje badania w Stanach Zjednoczonych? Nie ma takich możliwości w Polsce? Czego nam brakuje – potencjału, zaawansowania technologicznego, pieniędzy?

Przed emigracją do Stanów robiłem doktorat w Polsce i choć miałem w tym sporo frajdy, to ostatecznie doszedłem do wniosku, że uczelnia nie była dla mnie. Obroniłem doktorat z dobrymi wynikami i miałem publikacje, ale ciągła optymalizacja pod kątem pozyskiwania grantów utrudniała skupienie się na jednym temacie. Trudno też było przenieść odkrycia z nauki do biznesu. To nie jest krytyka wyłącznie polskiego systemu – naukowcy na Zachodzie też często muszą stale pisać wielostronicowe wnioski, żeby przekonać biurokratę do przyznania finansowania. Dla mnie to nie był optymalny sposób pracy.

Moje najlepsze badania, o których pani wspomniała (choćby to opisane w „Nature”, czy też późniejsze próby kliniczne AI) przeprowadziłem już w ramach pracy w Google Health w Stanach Zjednoczonych. Google to wyjątkowe miejsce, bo może pozwolić sobie na bardziej ryzykowne, ale potencjalnie najbardziej przełomowe badania. Mam wrażenie, że w Polsce wciąż nie mamy firm, które mogłyby sobie pozwolić na projekty badawczo-rozwojowe o tak dalekim horyzoncie zwrotu z inwestycji. Natomiast Polska bardzo się zmieniła przez tych 10 lat od kiedy z niej wyjechałem i dynamicznie się rozwija. Mamy świetnych programistów i dynamiczny ekosystem startupowy; to jest ogromny atut. Polacy osiągają sukcesy, a gospodarka idzie do przodu. Techniczne umiejętności mamy na światowym poziomie, ale – w mojej ocenie – wciąż uczymy się sprzedaży i transferu innowacji z uczelni do przemysłu.

Brakuje również cierpliwego kapitału inwestycyjnego: dobrze skonstruowane Programy Polskiego Funduszu Rozwoju odegrały sporą rolę w rozpędzeniu ekosystemu na najwcześniejszych etapach, ale w fazie wzrostowej firm o kapitał jest wciąż bardzo trudno - pozyskanie rundy B i dalszej w Polsce jest praktycznie niemożliwe i wtedy następuje największy drenaż mózgów do krajów gdzie ten kapitał jest. Polska ma jednak swoje silne strony i ogromny potencjał. Nasz wzrost gospodarczy przez ostatnie 30 lat był po Chinach drugim najszybszym na świecie; można być z tego dumnym.

Czytaj więcej

Prezenterki stworzone przez AI w meksykańskiej telewizji. "Świetnie sobie radzą"

Jest pan również aniołem biznesu. Co pana motywuje do wspierania start-upów?

Dostrzegam pewną przewagę społeczeństw, w których przedstawiciele starszych pokoleń, którzy osiągnęli sukces w biznesie czy technologii, aktywnie wspierają młodych ludzi. Dzielą się z nimi doświadczeniem, kontaktami i kapitałem. W Polsce, ze względu na naszą historię, ta tradycja nie jest tak silnie zakorzeniona, a kapitału wciąż brakuje. Dlatego postanowiłem, że skoro sam nie rozwijam potencjału naukowego w Polsce, to będę wspierał młodych polskich przedsiębiorców, oferując im kapitał i mentoring. Chcę mieć swój wkład w sukces Polaków, nawet przebywając za granicą. Polska to obecnie miejsce pełne energii i innowacyjności. W porównaniu z Europą Zachodnią czy niektórymi sektorami gospodarki USA, gdzie widoczne jest pewne "skostnienie", Polska dynamicznie się rozwija. Nasz kraj ma teraz unikalną szansę, bo szybko rośnie, a system nie jest jeszcze tak skostniały.

Jakie ma pan plany związane z rozwojem sztucznej inteligencji w medycynie?

Pracuję nad projektami, o których jeszcze nie mogę mówić, ale są bardzo ekscytujące. Technologia, zwłaszcza sztuczna inteligencja, rozwija się bardzo szybko. To banał, ale systemy wielomodalne, duże modele językowe mają liczne zastosowania – zarówno w ochronie zdrowia, jak i w innych dziedzinach gospodarki. Można poprawić wiele aspektów życia społeczeństwa. Zobaczymy, ile z tego, co robię, pozostanie w obszarze zdrowia, a ile będzie dotyczyło innych dziedzin. W AI tak dużo się dzieje, że praktycznie w każdym jej obszarze można znaleźć ciekawe wyzwania i osiągnąć coś wartościowego.

Jak udaje się panu utrzymać równowagę między życiem zawodowym a osobistym?

Udało mi się wypracować system, który dobrze sprawdza się w moim przypadku. Mimo możliwości pracy zdalnej, preferuję codzienne dojazdy do biura rowerem. To dla mnie sposób na aktywny początek dnia, uporządkowanie myśli i wyraźne oddzielenie życia zawodowego od prywatnego. Po godzinach pracy staram się zagospodarować czas dla siebie: gram w siatkówkę, gram w zespole muzycznym i spędzam czas z bliskimi. Oczywiście, zdarza się, że po tym wszystkim wieczorem otwieram laptopa, jeśli jakiś projekt mnie wciągnie, ale staram się zachować równowagę.

Przez ostatnie 10 lat udało mi się utrzymać balans. Dzięki temu, uniknąłem wypalenia zawodowego. Myślę, że to naturalna potrzeba naszego pokolenia – szukamy harmonii między różnymi sferami życia. W porównaniu z wcześniejszymi etapami mojej kariery, kiedy prowadziłem własną firmę lub pracowałem w innych miejscach, teraz czuję, że udało mi się tę równowagę osiągnąć.

Gdyby miał pan wyjaśnić swojej babci, czym dokładnie zajmuje się pan i pana zespół w Google, to jakby pan to opisał?

Już kilka razy odpowiadałem na to pytanie rodzinie, więc mam wprawę: uczymy komputery rozpoznawać oznaki chorób na obrazach medycznych, na przykład na mammogramach. Komputer analizuje te obrazy i identyfikuje zmiany, które mogą sugerować zmiany chorobowe, również te nowotworowe.

Pozostało 98% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Zdrowie
Program szczepień przeciw HPV w szkołach nie działa, jak należy. Rodzice pytają - nikt nie umie odpowiedzieć
Zdrowie
Pajączki na nogach to nie tylko problem estetyczny. Mogą być objawem poważnej choroby
Zdrowie
Popularny słodzik może sprzyjać chorobom sercowo-naczyniowym. Wyniki badania
Zdrowie
Gra na skrzypcach podczas usuwania guza mózgu? Neurochirurg o zabiegach „awake”
Zdrowie
Badanie pokazało, że weekendowe nadrabianie zaległości w śnie jest ważne dla zdrowia