Umělá inteligence může vést k zániku lidstva, varují odborníci, a to včetně šéfů společností OpenAI a Google Deepmind. Jiní experti však takové obavy považují za nerealistické. Informuje o tom BBC, New York Times a další servery.
Desítky z těchto expertů podpořily prohlášení zveřejněné na webových stránkách Centra pro bezpečnost umělé inteligence.
Artificial intelligence poses „extinction“ risk, bosses of top firms warn https://t.co/ljGiiz5ABh
— BBC News (World) (@BBCWorld) May 30, 2023
„Zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou vedle dalších rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka,“ uvádí se v něm. NY Times píše, že podle expertů může být AI nebezpečná úplně stejně jako jaderná válka.
Prohlášení podpořili Sam Altman, šéf společnosti OpenAI, která vytváří ChatGPT, Demis Hassabis, šéf společnosti Google DeepMind, a Dario Amodei ze společnosti Anthropic. Výzvu podepsal také Geoffrey Hinton, který již dříve vydal varování před riziky plynoucími ze superinteligentní umělé inteligence. Dalším signatářem je Yoshua Bengio, profesor počítačových věd na univerzitě v Montrealu.
Hinton, profesor Bengio a profesor newyorské univerzity Yann LeCunn jsou často označováni za „kmotry umělé inteligence“ pro svou průkopnickou práci v této oblasti. V roce 2018 za ni společně získali Turingovu cenu, která se uděluje za mimořádný přínos v oblasti počítačových věd.
Jiní odborníci obavy mírní
Profesor LeCunn, který rovněž pracuje ve společnosti Meta, však prohlásil, že tato apokalyptická varování jsou přehnaná. Mnoho dalších odborníků se podobně domnívá, že obavy z vyhlazení lidstva umělou inteligencí jsou nerealistické a odvádějí pozornost od problémů, jako je zaujatost systémů, které jsou již nyní problémem.
Arvind Narayanan, počítačový vědec z Princetonské univerzity, již dříve řekl BBC, že katastrofické scénáře podobné sci-fi jsou nereálné. „Současná umělá inteligence není zdaleka tak schopná, aby se tato rizika mohla naplnit. V důsledku toho se odvádí pozornost od krátkodobých škod, které umělá inteligence způsobuje“.
Mediální pokrytí údajné „existenční“ hrozby ze strany AI se sněhově nabalilo od března 2023. Odborníci, včetně šéfa společnosti Tesla Elona Muska, tehdy podepsali otevřený dopis vyzývající k zastavení vývoje nové generace technologie AI. Ptali se, zda lidstvo vůbec má „vyvíjet ne-lidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit“.
Naproti tomu nová kampaň má velmi krátké prohlášení, jehož cílem je „otevřít diskusi“.
Riziko řeší i britský premiér
Prohlášení srovnává riziko, které představuje jaderná válka. Ve svém blogovém příspěvku OpenAI nedávno naznačila, že superinteligenci by mohly státy regulovat podobně jako jadernou energii. „Pravděpodobně nakonec bude potřeba něco jako IAEA (Mezinárodní agenturu pro atomovou energii) pro úsilí v oblasti superinteligence,“ napsala firma.
Sam Altman i šéf Googlu Sundar Pichai patří k technologickým lídrům, kteří o regulaci AI nedávno diskutovali s britským premiérem. V rozhovoru s novináři ohledně nejnovějšího varování před riziky AI Rishi Sunak zdůraznil přínosy pro ekonomiku a společnost. „Viděli jste, že nedávno pomáhala ochrnutým lidem chodit, objevovala nová antibiotika. Musíme se však ujistit, že se to děje způsobem, který je bezpečný a spolehlivý,“ řekl.
Sunak se minulý týden sešel s generálními řediteli významných společností zabývajících se umělou inteligencí. „Diskutovali jsme o tom, jaká ochranná opatření je třeba zavést. Jaký typ regulace by měl být zaveden, aby nás ochránil. Lidé budou znepokojeni zprávami, že AI představuje existenční rizika, jako jsou pandemie nebo jaderné války. Chci je ujistit, že se tím vláda velmi pečlivě zabývá,“ řekl.
Britský premiér také řekl, že o této otázce nedávno jednal s dalšími vedoucími představiteli, a to na summitu předních průmyslových zemí G7, a brzy ji znovu nadnese v USA. Skupina G7 nedávno vytvořila pracovní skupinu pro umělou inteligenci.