Hendrik Lange (DIE LINKE):

Vielen Dank, Frau Präsidentin. -Ich gehe jetzt doch einmal anders auf Herrn Pott ein. Denn bei der Einbringung der Aktuellen Debatte habe ich erst gedacht: Oh Gott, die FDP macht jetzt neue moderne Maschinenstürmerei nach dem Motto „Hilfe, ChatGPT überflutet unsere Schulen und keiner kann damit umgehen.“ - Sie haben das nicht getan.

Aber verlässlich war an der Stelle natürlich die AfD. Sie kann nicht anders mit dem Umstand umgehen, dass man sich vielleicht Gedanken darüber machen muss, wie man mit neuer Technologie auch den Schulalltag interessant und anders gestalten kann.

Das wirft übrigens die Problembeschreibung und die eigentliche Frage auf, was unterrichtet und abgeprüft wird, wenn eine KI diese Aufgabe heute täuschend echt erledigen kann. Welche Fähigkeiten und Fertigkeiten müssen beim Einsatz neuer Technologien noch erlernt oder neu erlernt werden? Was von dem, was man heutzutage noch lernt   z. B. einfaches Abschreiben von Texten  , kann vielleicht wegfallen? Wie kreativ erziehen wir eigentlich unsere Kinder? Das sind doch die Fragen, die wir uns im Bildungsalltag stellen müssen.

Für uns alle heißt das, uns als mündige Bürger im Bereich der digitalen Bildung Informationen und Werkzeuge zum Umgang mit KI zu verschaffen.

Meine Damen und Herren! Das bringt mich dazu, über weitere gesellschaftliche Chancen und Risiken zu sprechen, die sich durch den anhaltenden Fortschritt ergeben. In seiner Position zu künstlicher Intelligenz spricht sich der Ethikrat deutlich dafür aus, darauf zu achten, dass künstliche Intelligenz der menschlichen Entfaltung dienen und sie nicht vermindern darf.

Dass KI immer mehr Teil unseres Lebens wird, bezweifelt vermutlich niemand ernsthaft. Umso wichtiger ist es, sich jetzt   denn für frühzeitig ist es mittlerweile einigermaßen zu spät   damit auseinanderzusetzen, wie wir diese Entwicklung in sinnvolle Bahnen lenken können. Denn hauptsächlich bedeutet das: Wie gestalten wir unsere Gesellschaft, damit KI nicht alles noch schlimmer macht?

Lernende KI kann momentan nur Inhalte verarbeiten, die wir Menschen vorher erzeugt haben. Das bedeutet, eine lernende KI greift unter anderem auf eine reichhaltige Bibliothek voller Rassismus, Sexismus, Antisemitismus und jeder Menge Ideologie der Ungleichheit zu und lernt daraus.

Ein erster Versuch, mit KI   das hat die Ministerin schon erzählt   von Microsoft auf Twitter im Jahr 2016 verwandelte den Chatbot „Tay“ innerhalb weniger Stunden von einer unschuldigen digitalen Entität in einen virtuellen AfD-Abgeordneten oder wie der „Spiegel“ schrieb, in einen „Hitlerbot“.

(Beifall bei der LINKEN)

Gelernt hatte sie aus den Interaktionen mit menschlichen Usern auf Twitter, die sie mit jedem nur denkbaren menschenverachtenden Material fütterten.

(Unruhe)

Bei anderen KI ist es weniger offensichtlich, aber dann umso schlimmer, vor allem dort, wo sie bereits Teil der Entscheidungsfindung in unserer Gesellschaft sind.

In den letzten Jahren hat in den USA ein algorithmengestütztes System für großes Aufsehen gesorgt. Das System sollte Entscheidungen im Rahmen von Strafverfahren über eine vorzeitige Haftentlassung unterstützen. Das sogenannte Kompasssystem versprach die Einschätzung der Sozialprognose, ob bei vorzeitiger Entlassung eine Straffälligkeit zu erwarten ist.

Das System schrieb Angeklagten, die zuvor bereits Straftäter waren, jedoch nach ihrer Entlassung nicht rückfällig wurden, ein hohes Rückfallrisiko zu, und zwar bei 45 % der schwarzen und 23 % der weißen Angeklagten. Das Risiko, eine schlechte Sozialprognose ausgestellt zu bekommen, war demnach für schwarze Angeklagte doppelt so hoch wie für weiße Angeklagte. Nachweislich reproduziert das System also rassistische Entscheidungsmuster seiner menschlichen Vorbilder.

(Zuruf)

Diese Einschätzung fand sich auch in Ergebnissen der Enquete-Kommission des Bundestages wider. Diese entwickelte in ihrem mehr als 800-seitigen Abschlussbericht das Leitbild der menschenzentrierten KI. Darin werden die Europäische Union, der Bund und die Länder aufgefordert, die Rahmenbedingungen zu schaffen, um eine KI-Strategie diskriminierungsfrei, transparent und nachvollziehbar zur Lösung ökologischer und ökonomischer Probleme zu entwickeln und umzusetzen.

Die Rolle künstlicher Intelligenz soll es demnach sein, die Voraussetzung für verantwortliches Handeln des Menschen zu verbessern. Dazu gehören die Transparenz der Modelle und Wichtungen, mit denen die KI trainiert wird. Open-Source-Systeme können diese Transparenz und Überprüfbarkeit besser gewährleisten als auf Vermarktung orientierte geschlossene Systeme.

Meine Damen und Herren! Es bedarf aber auch einer strengen Kontrolle anhand ethischer Grundsätze. Diverse Staaten und Unternehmen befinden sich in einem Wettbewerb und einem Wettrennen darum, wer die schnellste und beste KI entwickelt. Davon versprechen sie sich den Anstieg der Produktivität, Wirtschaftswachstum und allgemeinen Wohlstand.

Noch haben wir aber eine Chance zu verhindern, dass es mit der KI eine Entwicklung wie dem Taylorismus gibt, der diese Optimierung von Produktionsprozessen komplett auf dem Rücken der Beschäftigten abgeladen hatte. Dabei geht es nicht nur um die direkte Arbeit mit KI, sondern auch mit denjenigen, die innerhalb der so optimierten Prozesse arbeiten müssen.

Nicht zuletzt stellen wir als LINKE die Frage: Wem gehören die mächtigen Maschinen? Wem dienen sie? Wozu sind sie da? Nicht zuletzt drängen sich jetzt schon Fragen des Urheberrechts auf, weil für das Training von KI auch urheberrechtlich geschützte Werke verwendet werden.

(Zuruf von Marco Tullner, CDU)

Meine Damen und Herren! In wenigen Jahren könnten künstliche Intelligenzen ähnlich komplex und leistungsstark wie das menschliche Gehirn werden. Aus den USA haben wir gehört: In etwa 32 Monaten könnte das so weit sein. Der Tag rückt also näher. Aber irgendwie hat man das Gefühl, als sei unsere Gesellschaft nicht hinreichend darauf vorbereitet.

Allerdings haben Elon Musk und auch der Apple-Mitbegründer Steve Wozniak und diverse andere KI-Entwickler in einem offenen Brief ein Entwicklungsmoratorium für künstliche Intelligenzen gefordert. Den Wirtschaftsakteuren darunter mag man zu Recht unterstellen, dass sie die Zeit nur nutzen möchten, um ihren Entwicklungsrückstand auf Firmen wie OpenAI nachzuholen.

Als politisch Verantwortliche haben wir aber allesamt hier den Auftrag, die Gesellschaft auf die kommenden Veränderungen vorzubereiten ohne Panik und Beißreflexe, aber mit Vernunft und Gestaltungswillen.

Meine Damen und Herren! Ich nenne nicht zuletzt das Beispiel von Marvin von Hagen, der wohl als erster Mensch öffentlich von einer KI diskreditiert und als gefährlich bedroht wurde, oder eine KI, die einen Menschen manipuliert hat, damit er sich bei „Ich bin kein Roboter“ eingeloggt hat. Die KI hat einfach „gelogen“; sie hat einfach gesagt: Nö, ich bin kein Roboter. Also klick dich da mal ein. - Solche Beispiele lassen aufhorchen.

Der Autor Isaac Asimov hat bereits im Jahr 1942 in seiner Kurzgeschichte „Runaround“ drei elementare Robotergesetze formuliert, die in die Programmierung jeglicher künstlicher Intelligenz einfließen müssten.

Erstens. Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit wissentlich zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Zweitens. Ein Roboter muss den ihm von Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit der Regel 1 kollidieren.

Drittens. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder Regel 2 kollidiert. - Wir sollten alles daransetzen, dass sich die modernen KI auch an diese Robotergesetze halten müssen. - Vielen Dank.

(Beifall bei der LINKEN)