Imagini radiologice false pot induce în eroare radiologii și AI-ul
Imagini radiologice generate de inteligența artificială pot păcăli nu doar radiologii experimentați, ci și tehnologiile AI în sine, conform unui studiu recent. Aceasta ilustrează potențialul de manipulare și eroare asociat cu utilizarea AI în domeniul medical, raportat de agenția Reuters, preluată de ziarulprahova.ro.
👉 Analiza unui eșantion internațional de imagini radiologice
Șaptesprezece radiologi din 12 spitale din șase țări au analizat 264 de imagini radiografice, dintre care jumătate au fost generate de instrumentele de inteligență artificială ChatGPT sau RoentGen. În condițiile în care medicii nu erau informați despre natura studiului, doar 41% dintre ei au reușit să identifice corect imaginile sintetice, arată raportul publicat în revista Radiology.
După ce au fost informați că setul de date includea imagini generate artificial, precizia mediului de identificare a crescut semnificativ, atingând 75%. Acest rezultat subliniază riscurile majore asociate cu utilizarea AI în radiologie.
👉 Riscuri de securitate și capacitatea detecției AI
Dr. Mickael Tordjman, conducătorul studiului de la Școala de Medicină Icahn de la Mount Sinai din New York, a declarat: “Faptul că există radiografii false suficient de realiste pentru a-i înșela pe radiologi creează o vulnerabilitate cu mize mari în litigii frauduloase”. Acesta a adăugat că “există, de asemenea, un risc semnificativ de securitate cibernetică în cazul în care hackerii ar accesa rețeaua unui spital”.
Precizia în detectarea imaginilor false a variat considerabil între cele patru modele de inteligență artificială analizate, cu rezultate cuprinse între 57% și 85%. Chiar și ChatGPT-4o, care a generat imaginile, nu a reușit să le identifice pe toate, deși a avut mai multe succesuri comparativ cu celelalte modele. Tordjman a subliniat că “stabilirea unor seturi de date educaționale și a unor instrumente de detectare este acum esențială”.