taz.de -- Zukunft von KI: Habt keine Angst

2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.

Bild: Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg

Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie hilft uns, Texte zu schreiben, Bilder und [1][medizinische Diagnosen zu erstellen]. Aber schnell wurde aus der Freude Panik, aus dem Mut apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe „Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse, die [2][im Mai warnten:] „Das Risiko der Ausrottung durch künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht?

Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wird ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in allen Disziplinen und Diskursen werden unsere Leben und unsere Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch zusammenkneifen aus Angst vor dem bösen Wolf.

Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten. KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von Werbung in Momenten, in denen wir besonders emotional angreifbar und dadurch in Kauflaune sind.

Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach Jahren der Planung auf den [3][AI Act], die weltweit erste Verordnung zur Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten KI-Öffentlichkeitsoffensive.

Gefühl dafür bekommen

Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin der Europäischen Kommission Ursula von der Leyen aber mit [4][Sam Altman]. Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die Macher*innen machen, in diesem Fall Sam Altman und Co.

Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie wir sie gut einsetzen können. Vielleicht können wir es ja als Training verstehen.

Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen, einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand. Das ist die wahre Dystopie.

Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen? Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst abwenden.

Nur wir können uns selbst unterwerfen

Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI füttern und betreuen – [5][oft unterbezahlt im Ausland, etwa in Uganda].

Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen. Oder auch, wie in anderen Ländern schon katastrophal gescheitert, einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen Vorhersagen über sie.

Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit denen sie arbeitet. [6][Das bedeutet für Schwarze Menschen etwa ein erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als Straftäter*in „identifiziert“ zu werden.] [7][KI-Tools, die bei der Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt]. Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden.

Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie wir unsere Daten schön unbrauchbar gestalten können, um KI im Training gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst.

29 Dec 2023

[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490

[2] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661

[3] /EU-Einigung-auf-KI-Gesetz/!5975908

[4] /Chaos-bei-OpenAI/!5972516

[5] /Niedriglohnarbeit-fuer-US-Tech-Konzerne/!5959693

[6] https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html

[7] https://www.newamerica.org/oti/blog/ai-discrimination-in-hiring-and-what-we-can-do-about-it/

AUTOREN

Johannes Drosdowski

TAGS

Schwerpunkt Künstliche Intelligenz

Schwerpunkt Rassismus

Technikfeindlichkeit

Technologie

Bildung

Kolumne Der rote Faden

Schwerpunkt Künstliche Intelligenz

Leben mit Behinderung

Schwerpunkt Künstliche Intelligenz

Schwerpunkt Künstliche Intelligenz

Hacking

Musik

Schwerpunkt Künstliche Intelligenz

ARTIKEL ZUM THEMA

Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche

Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der Bundeskanzler ist jetzt auf TikTok.

Student entwickelt KI, die KI erkennt: Entlarvende Logik

Tim Tlok aus Seevetal hat einen Detektor gebaut, der KI-generierte Texte von menschengemachten unterscheiden kann. KI-geplagte Lehrkräfte freuen sich.

Internetnutzung und KI: Antrainierte Vorurteile

Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.

Künstliche Intelligenz im Alltag: Steaks braten mit dem Kühlschrank

Tech-Hersteller haben erneut eine goldene KI-Zukunft versprochen. Die Frage ist nicht, ob wir die brauchen, sondern wer bereit ist, dafür zu zahlen.

Diskriminierende KIs: „Zeigen den Status quo von gestern“

Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert. Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind schuld.

Podcast über Hacker der 80er: Suche nach dem dunklen Rächer

„Dark Avenger“ begibt sich auf die Spuren eines der größten Computervirenschöpfers der 1980er. Doch der Podcast rudert ab und zu ins Fiktionale aus.

Neues Album „WIRE“ von Portrait XO: Im Duett mit der KI

Fremd und befremdlich vertraut: Als Portrait XO veröffentlicht US-Produzentin Rania Kim mit einer Stimm-KI das verblüffende Albumprojekt „WIRE“.

OpenAI und Microsoft verklagt: New York Times gegen ChatGPT

ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen Verlage.