In einem offenen Brief, der vom gemeinnützigen Future of Life Institute veröffentlicht wurde, fordert eine Gruppe von Forschern für künstliche Intelligenz, darunter Tesla-CEO Elon Musk, ein Moratorium für die Entwicklung groß angelegter künstlicher Intelligenzsysteme. Ihr Brief lautet: KI-Entwicklung stoppen! Der Brief drückt Besorgnis über die potenziellen Risiken aus, die diese Systeme für die Gesellschaft und die Menschheit darstellen, sowie über das mangelnde Verständnis und die fehlende Kontrolle über sie. Die Forscher drängen die KI-Labore, die Aktualisierung von KI-Systemen, die stärker als GPT-4 sind, für mindestens sechs Monate einzustellen und mit unabhängigen Regulierungsbehörden zusammenzuarbeiten, um Sicherheitsprotokolle zu entwickeln.
Eine Gruppe hochkarätiger KI-Forscher, darunter der CEO von Tesla – Elon Musk und der Autor An Yuval Noah Harari, unterzeichnete einen offenen Brief, in dem ein Moratorium für die Entwicklung großer Systeme künstlicher Intelligenz gefordert wird. Der vom gemeinnützigen Future of Life Institute veröffentlichte Brief stellt fest, dass sich Labore für künstliche Intelligenz auf der ganzen Welt in einem „unkontrollierten Rennen“ befinden, um maschinelle Lernsysteme zu entwickeln und einzusetzen, die zu leistungsfähig sind, als dass irgendjemand, einschließlich ihrer Schöpfer, sie beherrschen könnte. verstanden. Oder es geschafft, zuverlässig zu kontrollieren.
Stoppen Sie die KI-Entwicklung
Der Brief fordert ausdrücklich KI-Labore auf, das Training von KI-Systemen für mindestens sechs Monate einzustellen, leistungsfähiger als GPT-4, und arbeiten Sie mit unabhängigen Regulierungsbehörden zusammen, um Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln. Die Unterzeichner argumentieren, dass diese Pause angesichts der hohen Risiken notwendig ist, um die Sicherheit und Regulierung zukünftiger KI-Systeme zu gewährleisten, die sie für die Gesellschaft und die Menschheit darstellen.
Es ist unwahrscheinlich, dass die Forderung nach einem Moratorium unmittelbare Auswirkungen auf das aktuelle Klima in der Forschung zu künstlicher Intelligenz haben wird, in dem Technologieunternehmen wie Google und Microsoft sich beeilt haben, neue Produkte einzuführen, ohne die Auswirkungen auf Sicherheit und Ethik vollständig zu berücksichtigen. Es ist jedoch ein Zeichen für den wachsenden Widerstand gegen diesen „Jetzt senden und später beheben“-Ansatz, der zukünftige Vorschriften und Gesetze beeinflussen könnte.
Stirn OpenAI, die er gründete Elon Musk, drückte die potenzielle Notwendigkeit einer „unabhängigen Überprüfung“ zukünftiger KI-Systeme aus, um dies sicherzustellen Sicherheitsstandards zu erfüllen. Die Unterzeichner des offenen Briefes argumentieren, dass es jetzt an der Zeit ist, dass KI-Labore und unabhängige Experten zusammenarbeiten, um gemeinsame Sicherheitsprotokolle für fortschrittliches Design und Entwicklung zu entwickeln und umzusetzen KI, die von unabhängigen externen Experten geprüft und überwacht werden.
Obwohl es eine sofortige Wirkung gibt eines offenen Briefes ungewiss, betont die Notwendigkeit eines ständigen Dialogs und der Zusammenarbeit zwischen Forscher der künstlichen Intelligenz, Technologieunternehmen und Regulierungsbehörden, um die verantwortungsvolle Entwicklung und den Einsatz von KI-Systemen in Zukunft sicherzustellen.