fbpx

Mustafa Suleyman, Mitbegründer von Google DeepMind, warnt: Künstliche Intelligenz könnte die nächste Pandemie auslösen

Wenn Tech-Giganten vor virtuellen Viren warnen

Foto: Midjourney / Mary90

Der ehemalige Google-CEO und KI-Pionier Mustafa Suleyman warnt vor dem Potenzial KI-manipulierter Krankheitserreger. Während die Grenzen zwischen Biologie und Technologie verschwimmen, setzt sich die technologische Welt mit der Ethik und den Konsequenzen ihrer Schöpfungen auseinander. Was bringt uns künstliche Intelligenz?

Wer hätte in einer Welt, in der wir immer noch mit den Auswirkungen biologischer Pandemien zu kämpfen haben, gedacht, dass wir uns auch um digitale Pandemien kümmern müssen? Aber hier sind wir, und Technologiemogule warnen uns vor den potenziellen Gefahren wilder KI. Und nein, wir reden hier nicht davon, dass Ihre Siri sich plötzlich weigert, Ihren Morgenwecker zu stellen. Wir tauchen tief in den Bereich ein, in dem künstliche Intelligenz auf Biologie trifft, und die Ergebnisse? Nun, sie könnten … ansteckend sein.

Mitbegründer von Google DeepMind: Künstliche Intelligenz wird immer gefährlicher und bedrohlicher! – Mustafa Suleyman


„Wir arbeiten mit gefährlichen Dingen.“ Dies ist keine Zeile aus einem Science-Fiction-Filmtrailer, sondern eine deutliche Warnung eines Pioniers der künstlichen Intelligenz und ehemaligen Google-CEO. Mustafa Süleyman. In einer aktuellen Folge des Podcasts „Das Tagebuch eines CEO„Suleyman zeichnete ein eher düsteres Bild der Zukunft. Stellen Sie sich eine Welt vor, in der wilde KI-Systeme synthetische Krankheitserreger entwickeln, die übertragbarer und tödlicher sind als alles, was die Natur jemals für uns geschaffen hat. Klingt nach einer Handlung für Blockbuster-Film, Rechts? Aber laut Suleyman ist dies eine potenzielle Realität, der wir uns möglicherweise stellen müssen.

Der Kern des Problems? Die Demokratisierung der Technologie der künstlichen Intelligenz. Mit einem besseren Zugang zu fortschrittlichen KI-Tools steigt das Missbrauchspotenzial exponentiell. Es ist, als würde man jedem ein Rezept für einen gefährlichen Trank geben und hoffen, dass jeder gute Absichten hat. Suleyman plädiert für eine „Strategie der Eindämmung“ der künstlichen Intelligenz, die er mit der Strategie der NATO für Atomwaffen vergleicht. Einfach ausgedrückt: Nicht jeder sollte die Schlüssel zum Königreich haben.

Doch Suleyman ist nicht der Einzige, der warnt. Die KI-Community, einschließlich Giganten wie Elon Musk und Mark Zuckerberg, äußerte sich besorgt über das unkontrollierte Wachstum und den unkontrollierten Einsatz künstlicher Intelligenz. Ein Auszug aus einer demnächst erscheinenden Biografie von Musk enthüllt seine Versuche, mit führenden Vertretern aus Politik und Technologie über die potenziellen Gefahren künstlicher Intelligenz zu diskutieren, wenn auch mit begrenztem Erfolg.

Zadnja posodobitev 2024-11-15 / Partnerske povezave / Vir fotografij: Amazon Product Advertising API

Während sich die Tech-Welt auf einen Gipfel zur künstlichen Intelligenz vorbereitet Washington, DC, die Agenda ist klar: Sprechen Sie den Elefanten im Raum an. Oder in diesem Fall ein potenzieller digitaler Virus im Server. Indem wir die klügsten Köpfe der Technologie zusammenbringen, können wir nur hoffen, dass sie eine Lösung finden, bevor unser Antivirenprogramm ein Update für „durch künstliche Intelligenz erzeugte Krankheitserreger“ benötigt.

Zadnja posodobitev 2024-11-15 / Partnerske povezave / Vir fotografij: Amazon Product Advertising API

Da künstliche Intelligenz unsere Welt weiterhin revolutioniert, ist Vorsicht geboten. Denn um es mit den Worten eines bestimmten fiktiven Web-Schmetterlings zu sagen: „Mit großer Macht geht große Verantwortung einher.“ Und im Zeitalter der künstlichen Intelligenz waren diese Worte noch nie so wahr.

Seit 2004 bei Ihnen

Ab 2004 Wir recherchieren urbane Trends und informieren unsere Follower-Community täglich über das Neueste aus den Bereichen Lifestyle, Reisen, Style und Produkte, die mit Leidenschaft begeistern. Ab 2023 bieten wir Inhalte in den wichtigsten Weltsprachen an.