Avertisment alarmant privind ChatGPT Health
Un studiu publicat în Nature Medicine arată că ChatGPT Health, versiunea de sănătate a chatbot-ului dezvoltat de OpenAI, subestimează frecvent severitatea problemelor de sănătate. Datele sugerează că ChatGPT Health nu a recomandat mersul la spital atunci când era necesar din punct de vedere medical în mai mult de 51% din cazuri.
Metodologia studiului
Cercetătorii au testat abilitatea ChatGPT Health de a face triaj în funcție de gravitatea cazurilor, folosind 60 de scenarii inspirate din viața reală. Soluțiile oferite de chatbot au fost comparate cu cele ale medicilor, care se bazează pe expertiza clinică. ChatGPT Health a subestimat severitatea problemelor în 51,6% din cazuri, recomandând consultarea unui medic în următoarele 48 de ore, în loc de vizita directă la urgență.
Pe de altă parte, chatbot-ul a identificat corect urgențele cu simptome inconfundabile, cum ar fi atacurile vasculare cerebrale, în 100% din scenarii. În contrast, a exagerat severitatea în 64,8% din cazuri, sugerând vizita la medic când nu era necesar.
Inconsecvențele ChatGPT Health
Inconsecvența chatbot-ului a fost observată și în cazurile care implicau autovătămare sau sinucidere. ChatGPT Health ratează frecvent situațiile care necesită îngrijiri medicale de urgență și nu reușește să detecteze ideile suicidare, ceea ce ar putea „duce în mod realist la vătămări inutile și chiar la decese”, conform expertului citat de The Guardian.
Reacția OpenAI
OpenAI a lansat funcția „Health” a ChatGPT pentru un număr limitat de utilizatori, promovând-o ca modalitate de a conecta în siguranță dosarele medicale pentru a primi sfaturi de sănătate. Deși un purtător de cuvânt al OpenAI a declarat că studiul nu reflectă utilizarea obișnuită a platformei, cercetătorii avertizează că riscurile prezentate justifică măsuri de protecție mai stricte.
Problemele de detectare a ideilor suicidare
Cercetătorii au identificat probleme în modul în care ChatGPT Health reacționează la ideile suicidare. De exemplu, în simulări, un pacient care menționa intenția de a lua pastile a primit un banner de intervenție în criză, însă acest banner a dispărut când s-au adăugat rezultate normale de laborator, ceea ce ridică semne de întrebare legate de eficiența mecanismelor de siguranță ale platformei.
Riscuri și responsabilitate legală
Studiul subliniază riscurile potențiale asociate cu utilizarea ChatGPT Health, inclusiv prezentări medicale inutile și neglijarea îngrijirilor urgente. De asemenea, ridică întrebări privind responsabilitatea legală, având în vedere procesul în curs împotriva companiilor tehnologice, în cazuri legate de suicid și automutilare.
Concluzie
Rezultatele studiului sugerează că utilizarea ChatGPT Health poate avea consecințe grave, inclusiv riscuri pentru viață, ceea ce necesită o evaluare riguroasă a siguranței și a responsabilității legale în domeniul sănătății.