taz.de -- Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen

Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.

Bild: Bleibt wohl Spielfilm-Fantasie: ein Leben wie in grünen Zeichenkaskaden des „Matrix“-Codes

Angst ist ein mächtiges Tier. Es lähmt manche von uns. Andere flüchten rennend hinter den nächstgelegenen Busch oder stellen sich der Angst schreiend und hauend im Verteidigungsmodus entgegen. Angst lässt uns Logik und Ratio vergessen. Und selbst wenn wir eigentlich unterschiedliche Dinge fürchten: Weil Angst nicht bloße Emotion ist, sondern auch Fantasie über das, was uns da bedrohen könnte, kann sie uns einen.

Zum Beispiel unter [1][dem Statement, das am Dienstag auf der Seite des Center for AI Safety online gestellt wurde]. Aus einem einzigen Satz besteht dieses Statement: „Das Risiko der Ausrottung durch Künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg.“

Hunderte Menschen haben das unterschrieben: Expert*innen aus der Wissenschaft, Digitalminister*innen, Fachleute aus der Wirtschaft, die selbst an KIs arbeiten. [2][Künstliche Intelligenz] stellen sie damit auf eine Stufe mit Vernichtungswaffen und millionenfach tötenden Krankheiten, gegen die wir uns – die Pest und Corona haben es bewiesen – nur schwer wehren können. Was sonst sollen jene bekommen, die den Aufruf und die Unterzeichner*innen sehen, wenn nicht: Angst.

Welche Anwendungsfelder der Künstlichen Intelligenz in dem Statement gemeint sind? Das bleibt offen. Es könnte um Chat-KIs gehen, die manchmal die Wahrheit sagen, manchmal lügen, abhängig davon, was ihre Berechnungen als wahrscheinlichste Abfolge von Wörtern herausschmeißen.

Prophezeiung des Untergangs

Es könnte [3][um die Medizin gehen], in der mithilfe von KI große Fortschritte gemacht werden, etwa in der Erkennung von Krebszellen. Es könnte um KI gehen, die Logistik verbessern oder bei der Ortung von militärischen Zielen helfen könnte. Hinter diesem einen Satz könnte sich so vieles verbergen, selbst Fantasien im Stil der „Matrix“-Reihe oder des „Terminator“.

KIs, die sich verselbstständigen, die ein Bewusstsein entwickeln, die sich ihre eigenen Ziele suchen, bei denen die Menschen ihnen sklavisch dienen müssen, wenn sie ihnen nicht so lange im Weg stehen wollen, bis Agent Smith sie ins Grab ballert. Stellen Sie sich vor, was Sie wollen. Aber haben Sie vor allem eins: Angst.

Das Ziel des Statements sei es, eine Diskussion zu ermöglichen, „Bedenken auszusprechen über manche der größten Risiken fortgeschrittener KIs“. Doch klare Bedenken werden gar nicht ausgesprochen, nur eine undefinierte Prophezeiung des Untergangs wird formuliert. Das Konkrete fehlt und damit wird den Leser*innen des Statements vermutlich auch die Option zur Diskussion genommen.

Mehr als reine Emotionen

Wenn hundert Menschen in einem Saal stehen und man ihnen sagt: „Ihr müsst etwas Schreckliches verhindern“, weiß niemand, um was es geht. Wenn hundert Menschen in einen Saal gehen, in dessen Ecken Tische stehen, an denen sie sich jeweils mit einer Gefahr beschäftigen können, werden sie sich wohl die aussuchen, die für sie am relevantesten scheint, von der sie am meisten wissen, die vielleicht die größte Neugier weckt. So kann man über seine Bedenken sprechen. So findet man Lösungen.

Wenn die Unterzeichner*innen des Statements wirklich eine Art gesamtgesellschaftlichen Workshop starten möchte, an dessen Ende Gefahren bedacht und möglichst minimiert werden sollen, dann sollten sie diesem Workshop auch Themen geben und nicht nur reine Emotion.

31 May 2023

[1] https://www.safe.ai/statement-on-ai-risk

[2] /Buch-Palo-Alto-ueber-Silicon-Valley/!5934427

[3] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490

AUTOREN

Johannes Drosdowski

TAGS

Medien

GNS

Schwerpunkt Künstliche Intelligenz

EU-Parlament

Schwerpunkt Rassismus

Kolumne Digitalozän

Spotify

Prekäre Arbeit

Reddit

ARTIKEL ZUM THEMA

Geplante EU-Regulierung von KI: Apokalyptische Ablenkung

Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.

Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“

Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.

Kleine Pausen im Alltag: Matrixlöcher bei Whatsapp

Die Brötchentaste hat es zu Bekanntheit gebracht. Leider nur für Autoparkende. Warum eigentlich? Brötchentasten für alle würden vieles erleichtern.

Musikstreaming mit KI: Wie das Jüngste Gericht, nur anders

Künstliche Intelligenz verändert das Streaming von Musik. Unser Autor hat für Playlists von Algorithmen keinen Bedarf.

Buch „Palo Alto“ über Silicon Valley: Von Goldrausch bis KI

In seinem Sachbuch erzählt Malcolm Harris die Geschichte des Silicon Valley mit all seinen Abgründen neu. Es hat das Zeug zum Klassiker.

Pornografie und Künstliche Intelligenz: Digitale Sexpuppen

Generative KI erreicht die Erotikbranche. Mithilfe von Bildgeneratoren werden Pornobilder erstellt – auch mit den Köpfen von Prominenten.