Czy można wierzyć AI w sprawach zdrowia? Gdy algorytm zaczyna wprowadzać w błąd

Sztuczna inteligencja coraz śmielej wkracza w obszar informacji medycznej. Dla wielu osób stała się pierwszym „konsultantem” w chwili niepokoju, objawów czy oczekiwania na wizytę u lekarza. Problem zaczyna się wtedy, gdy generowane przez AI podsumowania brzmią pewnie, są podane na samej górze wyników wyszukiwania – a jednocześnie są nieprawdziwe lub wyrwane z kontekstu. Właśnie na to zwraca uwagę brytyjski dziennik The Guardian w głośnym materiale śledczym opublikowanym na początku 2026 roku.

Google od miesięcy promuje funkcję AI Overviews jako szybki i „pomocny” skrót najważniejszych informacji. W teorii ma ona ułatwiać użytkownikom poruszanie się po złożonych tematach, także zdrowotnych. W praktyce – jak pokazuje śledztwo dziennikarzy Guardiana – w wielu przypadkach prowadzi do dezinformacji, która może realnie zagrażać zdrowiu, a nawet życiu pacjentów.

Jako redakcja ONKOKURIERA zawodowo i merytorycznie zajmujemy się m.in. tematyką chorób nowotworowych, nie korzystamy z przeglądów Google AI w obszarze medycznym. Zbyt często widzimy uproszczenia, błędne wnioski i fałszywe rekomendacje. Artykuł Guardiana jedynie potwierdza te obawy – i robi to w sposób wyjątkowo niepokojący.

Jednym z najbardziej alarmujących przykładów opisanych w materiale jest rekomendacja, jaką Google AI Overviews miała przedstawiać osobom chorym na raka trzustki: unikanie tłuszczów w diecie. Brzmi rozsądnie? Tylko na pierwszy rzut oka.

Eksperci cytowani przez dziennik Guardian jednoznacznie podkreślają, że jest to zalecenie dokładnie odwrotne do obowiązujących standardów klinicznych. Pacjenci z rakiem trzustki bardzo często cierpią na ciężkie zaburzenia wchłaniania i niedożywienie. Dieta bogata w kalorie i tłuszcze – przy odpowiedniej suplementacji enzymów trzustkowych – bywa kluczowa, aby chory w ogóle był w stanie przejść chemioterapię czy operację. Błędna porada algorytmu może więc nie tylko pogorszyć stan chorego, ale realnie zmniejszyć jego szanse na leczenie.

Równie niebezpieczne są przykłady dotyczące testów czynności wątroby. Google AI Overviews miała prezentować „normy” wyników badań w sposób oderwany od kontekstu klinicznego, bez uwzględnienia wieku, płci, pochodzenia etnicznego czy nawet systemu referencyjnego danego kraju. Dla osób z zaawansowaną chorobą wątroby, które często długo nie mają objawów, może to oznaczać jedno: fałszywe przekonanie, że wszystko jest w porządku i rezygnację z dalszej diagnostyki.

Eksperci cytowani przez Guardian ostrzegają wprost – taka dezinformacja może sprawić, że pacjent nie zgłosi się na kontrolę lub zbagatelizuje poważny sygnał ostrzegawczy.

AI odnawi recepty bez lekarza: pilotaż w stanie Utah pokazuje, jak blisko jesteśmy „autonomicznej medycyny”

Śledztwo ujawnia także „całkowicie błędne” informacje dotyczące diagnostyki nowotworów ginekologicznych. Przykład? Sugerowanie, że cytologia jest testem wykrywającym raka pochwy. To nie tylko nieprawda, ale informacja, która może sprawić, że kobieta z realnymi objawami” nie zgłosi się do lekarza.

Podobne problemy dotyczą obszaru zdrowia psychicznego. Organizacje pacjenckie alarmują, że AI generuje porady, które są niepełne, potencjalnie stygmatyzujące, a czasem wręcz niebezpieczne – zwłaszcza w przypadku psychoz czy zaburzeń odżywiania. W momentach kryzysu emocjonalnego internet bywa pierwszym miejscem szukania pomocy. Jeśli odpowiedź jest błędna, konsekwencje mogą być dramatyczne.

Szczególnie niepokojący jest jeszcze jeden aspekt opisany przez dziennik Guardian: ta sama fraza wyszukiwania potrafi generować różne odpowiedzi AI w zależności od momentu. Dla użytkownika oznacza to chaos informacyjny, a jednocześnie trudność w ocenie, która wersja jest prawdziwa. Paradoksalnie, im bardziej odpowiedź brzmi profesjonalnie, tym większe zaufanie wzbudza – nawet jeśli jest błędna.

Nie chodzi o to, by odrzucać sztuczną inteligencję jako narzędzie. AI może wspierać analizę danych, badania naukowe czy organizację systemu ochrony zdrowia. Problem pojawia się wtedy, gdy algorytm zaczyna pełnić rolę „pierwszego lekarza”, bez odpowiedzialności, bez kontekstu klinicznego i bez jasnego komunikatu o ograniczeniach.

Google zapewnia, że większość AI Overviews jest rzetelna i że firma stale pracuje nad poprawą jakości. Jednak przypadki opisane przez dziennik Guardian pokazują, że w obszarze zdrowia „większość” to za mało. Tu każdy błąd może kosztować bardzo dużo.

Jeśli jest jedna lekcja płynąca z tego śledztwa, to konieczność ogromnej ostrożności. AI nie zna historii pacjenta, nie widzi go w gabinecie, nie bierze odpowiedzialności za konsekwencje swoich „rad”. W medycynie nie ma bezpiecznych skrótów.

Dlatego – zwłaszcza w chorobach tak złożonych jak nowotwory, choroby wątroby czy zaburzenia psychiczne – przeglądy AI nie powinny być traktowane jako źródło wiedzy, a już na pewno nie jako podstawa decyzji zdrowotnych. W tym przypadku sceptycyzm nie jest brakiem zaufania do technologii. Jest po prostu rozsądkiem.

Robotyka i sztuczna inteligencja w częściowej nefrektomii