20. Oktober 2023
Die Goldgräber der Künstlichen Intelligenz
Theorie & Analyze
➣ Technologiekritik
Ende Mai 2023 wird ein kurzes Statement1 veröffentlicht, welches vor der Auslöschung der Menschheit durch Künstliche Intelligenz warnt. Unter das Statement haben Koryphäen der KI-Forschung, CEOs von KI-Unternehmen wie OpenAI und weitere prominente Figuren des Tech-Sektors ihre Unterschrift gesetzt. Diese apokalyptische Warnung reiht sich ein in eine ganze Serie gleichartiger Aussagen2 von Personen und Institutionen aus dem genannten Dunstkreis. Eric Schmidt, Ex-CEO von Google und jetzt Regierungsberater, warnt vor Tausenden von Toten. Sam Altman, CEO von OpenAI, der Entwicklungsfirma von ChatGPT, fleht die US-Regierung an, Regulatorien für die Branche zu erlassen.3
Es ist schon etwas verwunderlich, dass ausgerechnet diejenigen vor einer Technologie warnen, die sie selbst mit Macht und viel Geld auf den heutigen Stand gebracht haben. Sie erscheinen wie Goethes Zauberlehrling, der die Geister, die er rief, nicht mehr unter Kontrolle hat. Nichts könnte falscher sein.
Spätestens mit der Veröffentlichung von ChatGPT hat KI den Mainstream erreicht und genießt die volle Aufmerksamkeit der Medien. Die Leistung dieser Software scheint eine Schwelle überschritten zu haben. KI wird jetzt nicht mehr als belächelnswerter netter Versuch wahrgenommen oder als beachtenswerte Leistung in einer nerdigen kleinen Nische, sondern ist in ihre Gegenteil gekippt; eine Technologie, die auf dem besten Wege sei, die Menschheit in Sachen Intelligenz zu überflügeln. Das geht soweit, dass ein an der Entwicklung beteiligter Ingenieur bei Google nicht von der Behauptung abzubringen war, dass “seine” KI ein Bewusstsein entwickelt hat. Google war das augenscheinlich so unangenehm, dass die Kündigung folgte.
ChatGPT als textgenerierende KI und andere bildgenerierende KIs (z.B. Midjourney) sind Schaufensterprodukte der Branche. Ohne sie hätte die teils enthusiastische, teils beunruhigte Reaktion der Öffentlichkeit auf KI nicht stattgefunden. AlphaGo, eine KI, die den amtierenden Weltmeister im Spiel Go wiederholt geschlagen hat, hatte dazu noch nicht ausgereicht. Die apokalyptischen Warnungen aus der KI-Szene greifen genau diese Stimmung auf. Ihre Dystopie einer übermächtigen Technologie, die die Menschheit ausrottet, betont im Wesentlichen eines: die Mächtigkeit dieser Technologie. Das apokalyptische Flair dient als Ablenkung, um von den maßlosen Übertreibungen abzulenken, und obendrein als warnender Insider, die Reputation eines kritischen und reflektierten Bewusstseins mit in die Waagschale zu werfen – CEOs, die besorgt sind um das Wohl der Menschheit. Dabei geht es mitnichten um eine Warnung und schon gar nicht um das Wohl der Menschheit, sondern um eine spezifische Verkaufsargumentation: Sei dabei, bediene dich dieser übermenschlichen Macht, investiere jetzt oder schließe zumindest ein Premium-Abo ab!
Die Goldgräberstimmung ist mit Händen zu greifen. Der Ruf nach einer Regulierung dieser Technologie durch Regierungen mag verwirren, ist aber folgerichtig. Regulierungen sind nicht zwangsläufig schädlich für die Branche, im Gegenteil: Sie ebnen das Spielfeld, schaffen Übersichtlichkeit, Planbarkeit und Investitionssicherheit. Sie können benutzt werden, um dem Einstieg von Nachzüglern in den Markt (z.B. China) Barrieren in den Weg zu legen. Außerdem wären Regulierungen eh gekommen, aus Sicht der Branche ist es deshalb vorteilhaft, hier die Initiative zu übernehmen.
Es gibt noch einen weiteren Aspekt: den Regulierungsbehörden fehlt das nötige Fachwissen. Das gilt allerdings für praktische alle Technologien, deren Einsatz reguliert wird – das Fachwissen muss von außen hinzugezogen werden. Besonders im Falle von KI ist dieses Fachwissen allerdings stark konzentriert, die Entwicklung wird im Wesentlichen von den Forschungsabteilungen der großen Konzerne voran getrieben. Das Fachwissen für die Regulierung kommt also ausgerechnet aus der Branche, die reguliert werden soll, die Interessenskonflikte sind vorprogrammiert. Für die Tech-Konzerne beste Startbedingungen, um eine Quasi-Selbstregulierung im eigenen Sinne durchzudrücken. Dieses Muster ist übrigens nicht neu, sondern lässt sich in vielen vergleichbaren Vorgängen wieder finden – und das nicht nur in den USA. Was vielleicht nicht neu, aber diesmal besonders auffällig ist, ist die Dringlichkeit, mit der das Anliegen vorgebracht wird.
Ein Schlaglicht darauf wirf Sam Altmans Kritik an den KI-Regulierungen der EU. Nach intensiver Lobbyarbeit ist es OpenAI und Google gelungen, „Allzweck“-KI-Anwendungen wie etwa ChatGPT aus der Kategorie der Hochrisiko-Technologien heraus zu bekommen, die mit strengen Auflagen belegt ist. Statt dessen wurde für diese Fälle eine neue Kategorie der „Foundation Models“ mit aufgeweichten Auflagen geschaffen.4 Regulierungen sind für Herrn Altman nur solange OK, wie sie nicht geschäftsschädigend sind.
Ein Seiteneffekt der suggerierten Dringlichkeit ist die Erzeugung eines Eindrucks, dass jetzt etwas Neues aufgetaucht sei. KI blickt aber auf eine Jahrzehnte alte Geschichte. AlphaGo wurde schon genannt. KI-basierte Gesichtserkennung zum Beispiel bei Zugangssystemen, aber auch in Überwachungskameras, wie etwa am Berliner Südkreuz mit notorischer Schwäche, Menschen mit nicht-weißer Hautfarbe zu erkennen. Auch Betrugserkennungssysteme basieren auf KI und haben dort für eine Reihe von desaströsen Skandalen gesorgt – erinnert sei hier beispielsweise an die Toeslagenaffaire5 in den Niederlanden. Unternehmen wie Clearview AI oder PimEye haben mit Porträtfotos aus dem Internet Bilddatenbanken aufgebaut, die sich mit Hilfe von KI durchsuchen lassen – ein Schnappschuss einer Person kann schon ausreichen, um Name, Arbeitgeber oder Adresse herauszufinden6 - Stalkerware, nicht nur für Repressionsbehörden. Eine ausführlichere Liste lässt sich in unserem Text „KI zur Programmatischen Ungleichbehandlung“ finden7. Ein solches Erbe im Gepäck verdüstert die Akzeptanz.
Das Gold, welches die Goldgräber der Tech-Branche zu finden hoffen, ist die Automatisierungsdividende. KI verspricht, Vorgänge automatisieren zu können, die sich bislang erfolgreich entzogen haben. In einer Studie8 über die Auswirkungen der KI schätzt GoldmanSachs, dass 66% aller Arbeitsplätze in den USA betroffen sein werden. Dort könnten 25-50% der anfallenden Aufgaben von KI übernommen werden. Andere Studien9 kommen zu ähnlichen Zahlen. Es ist die Aussicht auf diese Produktivitätssteigerung, die die oben genannten Aktivitäten anspornt.
Ende des 19ten, Anfang des 20ten Jahrhunderts entwickelte und popularisierte Frederick Taylor u.a. eine Methode, die später als „Wissenschaftliches Management“ oder besser „Taylorismus“ bekannt wurde. Erklärtes Ziel dieser Methode war es, die Arbeit zu effektivieren, mehr Leistung aus jede*r Arbeiter*in rauszupressen. Dazu wurden Arbeitsabläufe minutiös dokumentiert, analysiert und optimiert, um sie dann in neu zusammengesetzter Form in den Produktionsprozess zurückzubringen, mit der klaren Absicht, „ineffiziente“, tradierte Abläufe und Arbeitsformen zu ersetzen. Aus Facharbeiter*innen wurden austauschbare Massenarbeiter*innen, Anhängsel der Maschinen, die ab sofort den Arbeitstakt vorgaben.
Zentraler Baustein dieser Methode war ein Wissenstransfer von den Facharbeiter*innen in die Ingenieursetage. So war es möglich, dieses Wissen einzusetzen, ohne von den Menschen, von denen das Wissen stammte, abhängig zu sein. Der Transfer war im Kern ein Transfer der Verfügungsgewalt über dieses Wissen. Die Folge war eine Entmachtung der Facharbeiter*innen im Produktionsprozess, eine Dequalifizierung der Arbeit und damit eine Verschlechterung der Verhandlungsbedingungen, wenn es z.B. um Lohnforderungen oder Arbeitsschutz ging. Ein vergleichbarer Transfer findet beim Training einer KI statt.
Der Taylorismus treibt sein Unwesen seit mehr als hundert Jahren und Computer sind auch nicht erst gestern erfunden worden. Damit Abläufe aus der „analogen“ Welt in einem Computer repräsentiert und ausgeführt werden können, müssen sie formalisiert werden: in einen Satz von detaillierten Regeln bzw. Anweisungen übersetzt werden, ganz ähnlich wie auch im „wissenschaftlichen Management“. Das funktioniert je nach betrachtetem Ablauf bzw. Problemstellung unterschiedlich gut. In vielen Fällen bleibt ein „Rest“, der sich einer Formalisierung entzieht, das Ergebnis passt dann nur unvollkommen auf die Problemstellung. In anderen Fällen ist es schon schwierig zu benennen, wie überhaupt an die Formalisierung einer Problemstellung herangegangen werden kann.
Formalisierung lässt sich begreifen als eine Art notwendiger Übersetzungsschritt, der eine Aufgabenstellung „computergängig“ macht – ein Schritt, der von Menschen geleistet wird. Für die KIs der aktuellen Generation wird erst gar nicht versucht, eine Aufgabenstellung zu formalisieren. Statt dessen wird die KI in einem trial-and-error-Prozess unter enormen Aufwand an die Aufgabenstellung heran trainiert. Der Schritt, der die Aufgabenstellung computergängig macht, wird also vom Computer selbst ausgeführt. Die Trainingsdaten werden so häufig „durchgekaut“10, bis die KI zufriedenstellend plausibel die in den Trainingsdaten enthaltenen Eigenschaften nachahmen bzw. wiedererkennen kann.
Beim Training entsteht eine Art stochastisches Extrakt der Trainingsdaten, ein Tensor aus Billionen von Zahlen, der sich im Hauptspeicher der KI ausbildet. Welche Aspekte der Trainingsdaten extrahiert werden, hängt von der Gestaltung des Trainings, der Topologie der KI, der Aufbereitung der rohen Trainingsdaten und weiteren begleitenden Maßnahmen ab. Entscheidend ist, dass im Tensor die notwendigen Informationen für das plausible Nachahmen bzw. Wiedererkennen landen – im allerweitesten Sinne also das „Wissen“. Wie auch immer dieser Wissenstransfer in den Tensor beurteilt werden mag – schließlich ist Nachahmen etwas anderes als Verstehen –, er erlaubt eine „Reproduktion“, ohne auf die Menschen zurückgreifen zu müssen, von denen das Wissen stammt. Wie schon beim Taylorismus findet ein Transfer von Verfügungsgewalt statt. Dieser Transfer ist das Fundament der Automatisierungsdividende.
Auch die in klassischer Programmierung verwendete Formalisierung implementiert einen Transfer der Verfügungsgewalt, allerdings wird dieser von Menschen in Hand- oder besser Kopfarbeit gemacht und ist deshalb nur schlecht zu skalieren. KI verspricht, diesen Formalisierungsschritt zu überspringen und den Transfer selbst in einen automatisierbaren und damit skalierbaren Prozess zu verwandeln – und das ist der qualitative Sprung in der Enteignung von „Wissen“.
Das Umschiffen der Formalisierung zur Übertragung einer Aufgabenstellung auf Computer erlaubt es zwar, neue Anwendungsgebiete zu erschließen, kommt aber mit einigen Nachteilen daher. Formalisierung setzt voraus, dass ein Problem bis ins Detail verstanden wurde – dass dabei Fehler passieren und Missverständnisse ausdetailliert werden, ist dazu kein Widerspruch. Das Ergebnis lässt sich überprüfen, mit einigem Aufwand ist es sogar möglich, einen mathematikartigen Beweis zu führen.
Bei KI ersetzt das Training das Verständnis, letztendlich ist das Training ein Schuss ins Blaue. Die Begeisterung vieler Ingenieur*innen von ChatGPT und anderen KIs reflektiert deren Überraschung, wie gut dieser Schuss gelungen scheint.
Dem Extrakt der Trainingsdaten ist nicht anzusehen, was genau extrahiert wurde – was genau die KI „gelernt“ hat. Dementsprechend sind die Ausgaben, die eine KI produziert, fehlerbehaftet. Das Einsatzgebiet für KIs zielt auf Anwendungen, bei denen entweder Fehler „tolerierbar“ sind oder sie in Konkurrenz zu menschlicher Arbeit treten, die ebenfalls fehlerbehaftet ist. Oder sie tritt in Konkurrenz zu im weitesten Sinne kreativen Tätigkeiten, die nicht binär richtig oder falsch, sondern besser oder schlechter sind. Letztendlich findet hier eine ökonomische Abwägung über Kosten und Nutzen statt, deren Ergebnis einzig vom (positiven) Einfluss auf das Geschäftsergebnis abhängen wird.
Das Ergebnis ist überaus zynisch: Wenn ein System zur Aufdeckung von Sozialhilfebetrug Fehler macht und die Falschen beschuldigt (und in Folge die Unterstützungszahlungen verweigert), dann trifft es Menschen, die sich nur schlecht wehren können. Selbst wenn KIs fachlich schlechte Ergebnisse liefern, bauen sie (oder genauer diejenigen, die die KI einsetzen) einen Konkurrenzdruck auf Arbeiter*innen und Angestellte auf, der Folgen z.B. bei Tarifverhandlungen haben kann. Einen Eindruck davon liefert die Antwort von Netflix auf den Streik von Schauspieler*innen und Autor*innen in Hollywood, die u.a. eine „Zweitverwertung“ ihrer Leistungen durch KI-„generierte“ (besser: kopierte) Inhalte verhindern wollen: Netflix schreibt eine gut bezahlte Stelle für einen „KI Produkt Manager“ aus, für „alle Bereiche“, was genau diese Zweitverwertung beinhaltet.11
Wie schon der Taylorismus, wird die KI zu einer Verschiebung gesellschaftlicher Macht „nach oben“ führen, gefolgt und verstärkt durch eine entsprechende Reichtumsumverteilung in die gleiche Richtung. KI wirkt wie ein Verstärker gesellschaftlicher Ungleichheit. Der enorme Ressourcenaufwand, den die KI-Technologie verlangt – Trainingsdaten, Energie, Wasser und leistungsfähige Hardware – lässt an einer „Demokratisierung“ dieser Technologie zweifeln. Einen eigenen Web- oder Mailserver im Internet zu betreiben ist vielleicht nicht trivial, aber durchaus von normalsterblichen Individuen leistbar. Für KI gilt das auf absehbare Zeit nicht, sie wird Werkzeug der Mächtigen bleiben.
Selbst, wenn sich in einem utopischen Szenario ein gesellschaftlich sinnvoller Einsatz denken ließe – die jetzige gesellschaftliche Realität besteht praktisch vollständig aus Anwendungen zu Lasten der großen Mehrheit der Menschen und reflektiert damit die aktuelle gesellschaftliche Machtverteilung.
Es muss also – in bester luddistischer Tradition – gefragt werden, wer KI für welchen Zweck einsetzt und ob die Resultate gesellschaftlich und ökologisch erstrebenswert sind. Diese Frage kann klar verneint werden.
1 https://www.safe.ai/statement-on-ai-risk
2 https://futureoflife.org/open-letter/pause-giant-ai-experiments/ https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/
3 https://www.c-span.org/video/?528117-1/openai-ceo-testifies-artificial-i…
4 https://time.com/6288245/openai-eu-lobbying-ai-act/
5 https://www.amnesty.org/en/latest/news/2021/10/xenophobic-machines-dutch…
6 https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-r…
7 https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2020/06/DIVERGE-small.pdf – ab Seite 33
8 https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analy…
9 https://arxiv.org/abs/2303.10130
10Eine lesbare Einführung in die Funktionsweise von KIs vom Typ ChatGPT und was genau mit „durchkauen“ gemeint ist: https://arstechnica.com/science/2023/07/a-jargon-free-explanation-of-how…
11 https://theintercept.com/2023/07/25/strike-hollywood-ai-disney-netflix/