Skupina renomovaných výzkumníků a předních osobností v oblasti umělé inteligence (AI) vyjádřila své obavy o budoucnost lidstva 22 slovy. Prohlášení je krátké, ale velmi jasné: "Snížení rizika vyhynutí umělé inteligence by mělo být globální prioritou vedle dalších rizik na společenské úrovni, jako jsou pandemie a jaderná válka." Prohlášení podepsali generální ředitel Google DeepMind Demis Hassabis, generální ředitel OpenAI Sam Altman a Geoffrey Hinton a Yoshua Bengio, oba vítězové Turingovy ceny za práci v oblasti AI.
Centrum pro Bezpečnost AI, nezisková organizace se sídlem v San Francisco, vydal prohlášení na společnou podporu mnoha důležitých hráčů na v oblasti AI. Prohlášení nenabízí žádná konkrétní řešení, ale představuje jednotný pohled na potřebu většího zaměření na bezpečnost AI.
AI jako globální hrozba
Není to poprvé, co tito odborníci sebrali odvahu vyjádřit své obavy. Někteří z nich byli letos signatáři otevřeného dopisu, ve kterém vyzvali k půlroční „pauze“ ve vývoji AI. Dopis vyvolal kritiku, někteří říkají, že zveličuje rizika, která AI představuje, zatímco jiní souhlasí s riziky, ale ne s tím, jak je řešit.
Skeptici tyto předpovědi zpochybňují a poukazují na to, že systémy AI nezvládnou ani relativně jednoduché úkoly, jako je řízení auta. Navzdory letitému úsilí a miliardovým investicím v této oblasti výzkumu jsou plně samořiditelná auta stále daleko od reality. Pokud umělá inteligence nezvládne ani tento jediný úkol, jakou šanci má v nadcházejících letech dosáhnout všech ostatních lidských úspěchů? AI jako globální hrozba?!
Nicméně obhájci a AI skeptici souhlasí s tím, že systémy umělé inteligence již představují určité hrozby – od umožnění hromadného sledování až po napájení algoritmů „prediktivní policie“ a vytváření dezinformací a nepravdivých informací.
"Existuje velmi častý mylný názor, dokonce i v komunitě AI, že existuje." jen pár "černých pohledů"," je pro The New York Times řekl Dan Hendrycks, generální ředitel AI Security Centers. "Ale ve skutečnosti by mnoho lidí vyvolalo obavy z těchto věcí v soukromí."
Debata o zabezpečení AI je složitá a kontroverzní a podrobnosti je často obtížné pochopit. Základním předpokladem je, že systémy AI by mohly rychle pokročit a překonat bezpečnostní mechanismy. Jako příklad je často uváděn rychlý pokrok velkých jazykových modelů jako indikátor možného budoucího získávání inteligence. Odborníci varují, že s jistou úrovní sofistikovanosti by se to mohlo stát nelze kontrolovat jejich provoz.
Otázka bezpečnosti Umělá inteligence je zvláště důležitá pro Evropu, která ve své politice a legislativě zakotvila etické pokyny pro spolehlivou umělou inteligenci. V Evropě jsme již viděli mnoho příkladů systémů umělé inteligence, které jsou používány způsoby, které jsou v rozporu s našimi hodnotami – jako je použití automatizovaných algoritmů rozpoznávání obličeje ve veřejných prostorách. Otázkou je, zda je regulace dostatečně účinná, nebo se budeme muset zamyslet nad přísnějšími opatřeními, jako je dočasné pozastavení vývoje AI.
Toto je další připomínka, že musíme být opatrní, protože "cesta do pekel je dlážděna dobrými úmysly". Musíme si pamatovat, že technologie není ze své podstaty dobrá nebo špatná – záleží na tom, jak ji používáme. Prozatím se nezdá, že by nás AI dnes ohrožovala, ale je důležité zůstat ostražití a připravit se na všechny eventuality. Koneckonců, je lepší být v bezpečí, než litovat.