Světová zdravotnická organizace (WHO) uvedla, že je nadšená z potenciálu umělé inteligence ve zdravotnictví, avšak varovala před jejím unáhleným používáním. Narážela přitom na velké jazykové modely, které mohou pacientům poskytovat zavádějící informace. Informoval o tom web Health World.
WHO na svém webu varovala před zbrklým nasazením AI ve zdravotnictví. Její zavádění totiž nedoprovází dostatečná opatrnost a kontroly. Organizace měla na mysli velké jazykové modely jako ChatGPT, jejichž rychlý vývoj „probudil“ i řadu expertů.
Organizace vyzvala podle Health World k dodržování zásad transparentnosti, odbornému dohledu a přísného hodnocení výsledků. Unáhlené využívání neotestovaných systémů AI by mohlo mít řadu závažných dopadů.
WHO warns against bias, misinformation in using AI in healthcare https://t.co/0JFlivHbh6 pic.twitter.com/Z1gqXf9aJG
— Reuters (@Reuters) May 16, 2023
Umělá inteligence by mohla zavádějícími informacemi a radami navést zdravotníky k chybám, poškodit tak pacienty a zničit důvěru v tyto technologie, což by znemožnilo nebo zpomalilo jejich další naopak pozitivní přínosy.
Velké jazykové modely generují texty v podstatě nerozeznatelné od lidské práce. Se správností informací už je to však horší. Údaje použité k tréningu AI navíc nemusí být podle WHO objektivní a jasné.
Správné využití
Během svého učení mohou navíc využívat informace, k jejichž použití jim nebyl udělen souhlas. Nelze opomenout ani otázky ohledně bezpečnosti soukromých dat o zdravotním stavu pacientů, které umělé inteligenci poskytují.
WHO nabádá tvůrce politik a legislativ k prioritnímu zajištění bezpečnosti pacientů, zatímco samotní strůjci jazykových modelů apelují na jejich přísnější regulaci. Šéf OpenAI Sam Altman vyzýval před pár dny k vládním opatřením americký Kongres.
List The Guardian nedávno upozornil na studii, podle níž je umělá inteligence empatičtější během poskytování odpovědí než lidští lékaři. Mohla by například sloužit k získávání rutinních odpovědí od pacientů.
Také může zlepšit přístup k informacím a podpořit rozhodování lékařů a zefektivnit diagnostiku zdravotního stavu pacientů. Současně by však mohla být zneužita k šíření dezinformací.
Pokud by se AI dostala do špatných rukou, mohla by šířit falešné zdravotnické informace v podobě textového, zvukového nebo video obsahu na internetu. Takový obsah by bylo těžké odlišit od toho důvěryhodného.