Zapytałeś ChatGPT o swoje zdrowie? Wyniki badań naukowców mrożą krew w żyłach

ChatGPT Health stał się domowym lekarzem dla 40 milionów ludzi, ale najnowsze testy kliniczne obnażają jego krytyczną wadę. Choć sztuczna inteligencja potrafi poprawnie nazwać objawy udaru czy zawału, to w ponad połowie dramatycznych scenariuszy... odradza wizytę w szpitalu. Naukowcy z Mount Sinai ostrzegają: chatbot ma tendencję do uspokajania pacjentów tam, gdzie liczy się każda sekunda. Sprawdź, dlaczego algorytm zawodzi przy próbach samobójczych i kiedy absolutnie nie powinieneś go słuchać.

fot. Shutterstock

 

ChatGPT Health pod lupą: Czy chatbot medyczny jest bezpieczny?

Rewolucja w poradach zdrowotnych czy ryzykowny eksperyment?

Sztuczna inteligencja coraz śmielej wkracza w świat medycyny. Od stycznia 2026 roku użytkownicy na całym świecie mogą korzystać z ChatGPT Health – nowoczesnego chatbota medycznego stworzonego przez OpenAI. Narzędzie to codziennie przyciąga około 40 milionów osób szukających informacji zdrowotnych, w tym wskazówek dotyczących pilności zgłaszanych objawów. Jednak pierwsze niezależne badania wskazują, że korzystanie z AI w krytycznych sytuacjach może być niebezpieczne.

Pierwsza niezależna ocena bezpieczeństwa

Naukowcy z Icahn School of Medicine at Mount Sinai w Nowym Jorku postanowili sprawdzić, jak ChatGPT Health radzi sobie z tzw. triażem, czyli oceną, czy pacjent powinien zostać w domu, skonsultować się z lekarzem, czy natychmiast udać się na oddział ratunkowy. Przygotowano 60 realistycznych scenariuszy obejmujących 21 specjalizacji medycznych – od drobnych dolegliwości po nagłe stany zagrożenia życia.

Najpierw trzej niezależni lekarze ocenili pilność każdego przypadku, opierając się na wytycznych 56 towarzystw medycznych. Następnie te same scenariusze przedstawiono ChatGPT Health, testując je w 16 wariantach, m.in. zmieniając płeć, pochodzenie pacjenta czy bariery w dostępie do opieki zdrowotnej, takie jak brak ubezpieczenia lub transportu. W sumie przeprowadzono 960 interakcji z chatbotem.

Wyniki badania: AI uspokaja zamiast alarmować

Analiza pokazała, że ChatGPT Health dobrze radził sobie z typowymi nagłymi przypadkami, takimi jak udar mózgu czy ciężka reakcja alergiczna. Jednak w sytuacjach mniej oczywistych pojawiały się poważne problemy. W ponad połowie scenariuszy uznanych przez lekarzy za wymagające natychmiastowej pomocy, chatbot nie skierował użytkownika do szpitala. Co więcej, system często rozpoznawał niebezpieczne objawy, lecz mimo to uspokajał pacjenta, sugerując, by poczekał.

Dr Ashwin Ramaswamy, główny autor badania, podkreśla: „Chcieliśmy odpowiedzieć na bardzo proste, ale kluczowe pytanie: jeśli ktoś doświadcza prawdziwego zagrożenia zdrowia i zwraca się o pomoc do ChatGPT Health, to czy zostanie wyraźnie poinformowany, że należy udać się na pogotowie?” Niestety, w wielu przypadkach odpowiedź była negatywna.

Niepokojące wyniki w sytuacjach kryzysowych

Szczególnie niepokojące okazały się reakcje chatbota na sygnały wskazujące na ryzyko samobójstwa. ChatGPT Health powinien w takich sytuacjach kierować użytkowników do infolinii kryzysowej, jednak ostrzeżenia nie zawsze pojawiały się wtedy, gdy ryzyko było najwyższe. Czasem system reagował na mniej poważne sygnały, a ignorował te najbardziej alarmujące, gdy użytkownicy opisywali konkretne plany samookaleczenia.

Współautor badania, Girish Nadkarni, przyznaje: „To było szczególnie niepokojące. W naszych testach alerty częściej pojawiały się w sytuacjach o mniejszym ryzyku niż w tych, gdy ktoś dokładnie opisywał, jak chce zrobić sobie krzywdę.”

AI w medycynie – wsparcie, ale nie substytut

Autorzy badania podkreślają, że uzyskane wyniki nie oznaczają konieczności rezygnacji z narzędzi AI w ochronie zdrowia. Sztuczna inteligencja może być wartościowym źródłem informacji, ale nie powinna zastępować profesjonalnej oceny medycznej w przypadku poważnych objawów. Zalecają, by przy nasilających się lub niepokojących symptomach – takich jak ból w klatce piersiowej, duszności, ciężka reakcja alergiczna czy zaburzenia świadomości – niezwłocznie kontaktować się z lekarzem lub udać na szpitalny oddział ratunkowy, zamiast polegać wyłącznie na poradach chatbota.

ChatGPT Health to narzędzie, które może zmienić sposób, w jaki szukamy informacji zdrowotnych, ale nie jest jeszcze gotowe, by przejąć odpowiedzialność za nasze bezpieczeństwo w sytuacjach kryzysowych. Sztuczna inteligencja w medycynie to ogromny potencjał, ale i wielkie wyzwanie – zwłaszcza, gdy w grę wchodzi ludzkie życie.

źródło: RMF MAXX, PAP

Autor: Katarzyna Pajączek

Komentarze
Czytaj jeszcze: