Bývalý výkonný ředitel společnosti Google Eric Schmidt se obává, že umělou inteligenci mohou využít teroristé k tomu, aby „škodili nevinným lidem“. Informuje o tom BBC, The Independent a další servery.
„Skutečné obavy, které mám, nejsou ty, o kterých mluví většina lidí v souvislosti s umělou inteligencí. Já mluvím o extrémním riziku,“ řekl Eric Schmidt BBC.
Former Google boss Eric Schmidt says he worries about an 'Osama bin Laden scenario' where artificial intelligence is used 'to harm innocent people'.
— BBC Radio 4 Today (@BBCr4today) February 13, 2025
He tells @amolrajan 'rogue states' like North Korea or Iran could do harm through 'a Chernobyl-scale event' using AI.
#R4Today
Miliardář, který v letech 2001-2017 vedl Google, řekl v pořadu Today, že „Severní Korea nebo Írán, nebo dokonce Rusko“ by mohly tuto technologii přijmout a zneužít k výrobě biologických zbraní. Vyzval k vládnímu dohledu nad soukromými technologickými společnostmi, které vyvíjejí modely umělé inteligence, ale varoval, že přílišná regulace by mohla potlačit inovace.
Schmidt souhlasil s americkými kontrolami vývozu výkonných mikročipů, které pohánějí nejpokročilejší systémy umělé inteligence. Bývalý americký prezident Joe Biden před svým odchodem z funkce omezil vývoz mikročipů do všech zemí kromě 18, aby zpomalil pokrok protivníků ve výzkumu AI. Toto rozhodnutí by mohl Donald Trump ještě zvrátit.
„Vzpomeňte si na Severní Koreu, Írán nebo dokonce Rusko. Tato technologie je pro ně natolik efektivní, že by ji mohli zneužít a způsobit skutečné škody,“ řekl Schmidt.
„Vždycky se obávám scénáře ‚Usáma bin Ládin‘, kdy máte nějakého skutečně zlého člověka, který ovládne nějaký aspekt našeho moderního života a použije ho k poškození nevinných lidí,“ dodal. Bin Ládin zorganizoval útoky z 11. září 2001, kdy teroristé z al-Káidy ovládli letadla a zabili tisíce lidí na americké půdě.
Vlády by měly AI regulovat, míní
Schmidt navrhl rovnováhu mezi vládním dohledem nad vývojem umělé inteligence a nadměrnou regulací tohoto odvětví. „Pravdou je, že umělou inteligenci a budoucnost budou z velké části vytvářet soukromé společnosti. „Je opravdu důležité, aby vlády pochopily, co děláme, a dohlížely na nás. Měly by to regulovat,“ míní miliardář.
Hovořil z Paříže, kde skončil summit AI Action, na němž USA a Velká Británie odmítly dohodu podepsat. Viceprezident USA JD Vance řekl, že regulace by „zabila transformační odvětví právě ve chvíli, kdy se rozjíždí“. Jak píše The Independent, podle Británie dohoda neposkytuje jasné záruky ohledně globální správy umělé inteligence nebo neřeší „složitější otázky“ týkající se národní bezpečnosti.
Schmidt se ale také vyslovil proti přílišné regulaci v Evropě. „Jejím důsledkem je, že revoluce v oblasti umělé inteligence, která je podle mého názoru nejdůležitější revolucí od dob elektřiny, nebude vynalezena v Evropě“. Velké technologické společnosti podle něj „před 15 lety nechápaly“ potenciál, který AI má, ale nyní ho chápou.
Pozor na telefony ve školách
Eric Schmidt byl šéfem společnosti Google, když tato společnost koupila Android, společnost, která nyní vytváří nejpoužívanější operační systém pro mobilní telefony na světě. Nyní podporuje iniciativy, které mají zabránit tomu, aby smartphony používaly děti ve školách.
„Myslím, že chytré telefony jsou pro děti bezpečné, ale je třeba to moderovat,“ řekl. „Všichni se shodneme na tom, že děti by měly být chráněny před špatnostmi online světa.“
Zastánci omezení používání chytrých telefonů dětmi tvrdí, že telefony jsou návykové a „odvádějí děti od činností, které jsou pro zdravý vývoj nezbytné“.
Australský parlament nedávno schválil zákon, který v roce 2024 zakáže používání sociálních médií pro děti mladší 16 let. Premiér Anthony Albanese uvedl, že je důležité chránit děti před jejich „škodlivostí“.
Nedávná studie zveřejněná v lékařském časopise The Lancet naznačila, že zákaz používání mobilních telefonů ve školách nezlepšuje chování žáků ani jejich prospěch. Zjistila však, že delší doba strávená u chytrých telefonů a sociálních médií obecně je spojena s horšími výsledky ve všech těchto ukazatelích.