Șaptesprezece radiologi din 12 spitale din șase țări au analizat 264 de imagini radiografice, dintre care jumătate fuseseră generate de instrumentele de inteligență artificială ChatGPT sau RoentGen.
Când medicii radiologi nu erau conștienți de adevăratul scop al studiului, doar 41% dintre ei au identificat spontan imaginile generate de inteligența artificială, potrivit unui raport publicat în revista Radiology.
După ce au fost informați că setul de date conținea imagini sintetice, precizia medie a radiologilor în diferențierea razelor X reale de cele sintetice a crescut la 75%.
‘Faptul că există radiografii false suficient de realiste pentru a-i înșela pe radiologi creează o vulnerabilitate cu mize mari în litigii frauduloase dacă, de exemplu, o fractură fabricată ar putea fi imposibil de distins de una reală’, a declarat într-un comunicat conducătorul studiului, Dr. Mickael Tordjman de la Școala de Medicină Icahn de la Mount Sinai din New York.
‘Există, de asemenea, un risc semnificativ de securitate cibernetică în cazul în care hackerii ar accesa rețeaua unui spital și ar planta imagini sintetice pentru a manipula diagnosticele pacienților sau ar provoca haos clinic pe scară largă prin subminarea fiabilității fundamentale a dosarului medical digital’, a mai spus Tordjman.
Precizia a patru modele lingvistice mari – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) și Llama 4 Maverick (Meta Platforms) – în detectarea imaginilor false a variat între 57% și 85%.
Chiar și ChatGPT-4o, modelul care a creat deepfake-urile, nu a reușit să le detecteze pe toate, deși a identificat mai multe decât celelalte LLM-uri, au raportat cercetătorii.
‘Potențial, vedem doar vârful aisbergului’, a spus Tordjman despre posibilitatea unor scanări CT și RMN false. ‘Stabilirea unor seturi de date educaționale și a unor instrumente de detectare este acum esențială’.