Een groep gerenommeerde onderzoekers en leidende figuren op het gebied van kunstmatige intelligentie (AI) uitte in 22 woorden hun bezorgdheid over de toekomst van de mensheid. De verklaring is kort maar heel duidelijk: "Het verminderen van het risico op het uitsterven van AI moet een wereldwijde prioriteit zijn, naast andere risico's op maatschappelijk niveau, zoals pandemieën en een nucleaire oorlog." De verklaring werd ondertekend door Demis Hassabis, CEO van Google DeepMind, Sam Altman, CEO van OpenAI, en Geoffrey Hinton en Yoshua Bengio, beiden Turing Award-winnaars voor hun werk op het gebied van AI.
Centrum voor AI-beveiliging, een non-profitorganisatie gevestigd in San Francisco, gaf de verklaring ter gezamenlijke steun van vele belangrijke spelers vrij op het gebied van AI. Het statement biedt geen concrete oplossingen, maar geeft wel een eenduidig beeld van de noodzaak om meer aandacht te besteden aan AI-beveiliging.
AI als wereldwijde dreiging
Het is niet de eerste keer dat deze experts de moed hebben gevat om hun bezorgdheid te uiten. Sommigen van hen waren dit jaar ondertekenaar van een open brief, waarin ze opriepen tot een "pauze" van zes maanden in de ontwikkeling AI. De brief heeft kritiek gekregen, waarbij sommigen zeggen dat het de risico's van AI overdrijft, terwijl anderen het eens zijn met de risico's, maar niet met hoe ze moeten worden aangepakt.
Sceptici twijfelen aan deze voorspellingen en wijzen erop dat AI-systemen zelfs relatief eenvoudige taken, zoals autorijden, niet aankunnen. Ondanks jarenlange inspanningen en miljarden investeringen in dit onderzoeksgebied, zijn volledig zelfrijdende auto's nog ver verwijderd van de realiteit. Als AI zelfs deze ene taak niet aankan, welke kans heeft het dan om alle andere menselijke prestaties in de komende jaren te bereiken? AI als wereldwijde dreiging?!
Echter, de advocaten en AI-sceptici zijn het erover eens dat AI-systemen al een aantal bedreigingen vormen - van het mogelijk maken van massasurveillance tot het aandrijven van algoritmen voor "predictive policing" en het creëren van desinformatie en valse informatie.
“Er is een veel voorkomende misvatting, zelfs in de AI-gemeenschap, dat die er is slechts een paar 'zwarte weergaven'," is voor De New York Times zei Dan Hendrikcks, CEO AI-beveiligingscentra. "Maar in werkelijkheid zouden veel mensen hun zorgen over deze dingen privé uiten."
Het AI-beveiligingsdebat is complex en controversieel, en de details zijn vaak moeilijk te begrijpen. De basisaanname is dat AI-systemen snel kunnen evolueren en beveiligingsmechanismen kunnen overtreffen. Als voorbeeld wordt de snelle vooruitgang van grote taalmodellen vaak aangehaald als indicatie voor de mogelijke toekomstige verwerving van intelligentie. Deskundigen waarschuwen dat het met een zekere mate van verfijning zou kunnen worden onmogelijk om hun werking te beheersen.
Een kwestie van veiligheid AI is vooral belangrijk voor Europa, dat ethische richtlijnen voor betrouwbare AI heeft verankerd in haar beleid en wetgeving. In Europa hebben we al veel voorbeelden gezien van AI-systemen die worden gebruikt op manieren die in strijd zijn met onze waarden, zoals het gebruik van geautomatiseerde algoritmen voor gezichtsherkenning in openbare ruimtes. De vraag is of de regulering effectief genoeg is, of dat we zullen moeten nadenken over strengere maatregelen, zoals het tijdelijk stilleggen van de ontwikkeling van AI.
Dit is een andere herinnering dat we voorzichtig moeten zijn, want "de weg naar de hel is geplaveid met goede voornemens". We moeten niet vergeten dat technologie niet inherent goed of slecht is - het gaat erom hoe we het gebruiken. Voorlopig lijkt AI ons vandaag niet te bedreigen, maar het is belangrijk om waakzaam te blijven en ons voor te bereiden op alle eventualiteiten. Het is tenslotte beter om veilig te zijn dan sorry.