„Künstliche Intelligenz“ – die neue Wunderwaffe in der Konkurrenz um Weltmarkt und Weltmacht
„Künstliche Intelligenz“ ist ein Dauerthema, in den Medien ebenso wie in politischen Empfehlungen zur Stärkung der nationalen Konkurrenzfähigkeit. Immer neue Förderprogramme werden aufgelegt, neue Anwendungen werden popularisiert, Visionen ausgemalt, Bedenken geschürt und wieder besänftigt. Der US-Außenminister stellt klar, dass die „führenden Mächte der Welt“ in KI-Technologien investieren müssen, „die alles in unserem Leben prägen könnten, von der Energiegewinnung über die Art und Weise, wie wir unsere Arbeit erledigen, bis hin zur Austragung von Kriegen“. Deutsche Politiker mahnen an, dass Europa so etwas wie seinerzeit die Airbus-Initiative brauche, um nicht abgehängt zu werden. Militärvertreter kommen ins Schwärmen über den KI-Einsatz im Wettlauf um überlegene Waffentechnik. Neben Wohltaten für Geschäft und Gewalt soll dieses Wunderding dann auch noch „unser Wissen erweitern“, „unseren Wohlstand steigern“ und die „menschliche Erfahrung bereichern“. Was sind das für Maschinen und Techniken, von denen das Schicksal der Nationen abhängt, weil sie die intelligenten Leistungen des menschlichen Kopfes ersetzen und übertreffen sollen?
Aus der Zeitschrift
Teilen
Systematischer Katalog
Gliederung
- I. Was ist und wie entsteht ein KI-Programm?
- II. „Mit KI kann man alles tun, was Menschen tun können, nur schneller, effizienter, in größerem Maßstab, potenziell besser.“ – Wozu also taugt die Künstliche Intelligenz?
- 1. Die personalisierte Werbung
- 2. Rationalisierung der industriellen Produktion
- 3. Rationalisierung im Büro
- 4. Rationalisierung der kreativen und intellektuellen Tätigkeiten
- 5. Die Automatisierung von Funktionen der politischen Herrschaft
- 6. Die künstlich intelligente Kriegsmaschinerie: Umfassender aufklären, schneller schießen, präziser töten
- III. Wer rettet die Menschheit vor Künstlicher Intelligenz?
„Künstliche Intelligenz“ – die neue Wunderwaffe in der Konkurrenz um Weltmarkt und Weltmacht
„Künstliche Intelligenz“ (KI) ist ein Dauerthema, in den Medien ebenso wie in politischen Empfehlungen zur Stärkung der nationalen Konkurrenzfähigkeit. Immer neue Förderprogramme werden aufgelegt, neue Anwendungen werden popularisiert, Visionen ausgemalt, Bedenken geschürt und wieder besänftigt. Der US-Außenminister spricht gleich für den Hauptkonkurrenten China mit, wenn er klarstellt, dass die „führenden Mächte der Welt“ in KI-Technologien investieren müssen, „die alles in unserem Leben prägen könnten, von der Energiegewinnung über die Art und Weise, wie wir unsere Arbeit erledigen, bis hin zur Austragung von Kriegen.“ (Antony Blinken, Rede zur US-Außenpolitik, 3.3.21) Deutsche Politiker mahnen an, dass Europa auf diesem Feld so etwas wie seinerzeit die Airbus-Initiative brauche, um nicht abgehängt zu werden. Militärvertreter und Rüstungsindustrie kommen ins Schwärmen über den KI-Einsatz im Wettlauf um überlegene Waffentechnik. Neben Wohltaten für Geschäft und Gewalt soll dieses Wunderding dann auch noch „unser Wissen erweitern“, „unseren Wohlstand steigern“ und die „menschliche Erfahrung bereichern“ (Final Report, U.S. National Security Commission on AI, 2021).
Was sind das für Maschinen und Techniken, von denen das Schicksal der Nationen abhängt, weil sie die intelligenten Leistungen des menschlichen Kopfes ersetzen und übertreffen sollen?
I. Was ist und wie entsteht ein KI-Programm?
Wie auch sonst wird der technische Fortschritt in Gestalt „Künstlicher Intelligenz“ gerne als ein Subjekt vorstellig gemacht, das „die Gesellschaft transformieren“ und „unser Leben umgestalten“ wird. Der Sache nach ist KI nicht mehr und nicht weniger als ein Stück Technik, eine spezielle Sorte von Computerprogrammen mit einem anspruchsvollen Namen. Die Frage, ob diesen Programmen Intelligenz innewohnt, spielt für ihre Entwicklung und praktische Tauglichkeit keine Rolle. An den staatlichen Fördergeldern und den privaten Investitionen, die zunehmend in diese Technik fließen, kann man sehen: Sie taugt offenbar sehr viel für die gesellschaftlichen und politischen Interessen und Zwecke, die wirklich ‚unser Leben‘ bestimmen. Denn diese Technik rückt durch eine automatisierte statistische Aufbereitung extrem großer Datenmengen Aufgaben in der Bild-, Signal- und Sprachverarbeitung in Reichweite, die früher ihrer digitalen Bearbeitung widerstanden haben.
Die technologische Voraussetzung dieses neuen Vorgehens, das auch unter dem Titel „maschinelles Lernen“ firmiert, ist die Leistungsfähigkeit moderner Rechner und Speichermedien, die mit riesigen Datenmengen umgehen können; die gesellschaftliche Voraussetzung ist die Tatsache, dass solches Material im Zuge der allgemeinen Digitalisierung überall anfällt. Umgekehrt führt die Verfügung über Programme, die in Datenmassen beliebige Muster ausfindig machen können, dazu, dass die Datensammelei im Internet und im Verkehrswesen, im Mobilfunk und im Produktionsbetrieb, in der nationalen Überwachung und der internationalen Spionage keine Grenzen mehr kennt. [1]
1. Maschinelles Lernen: Vom Datenhaufen zum Modell
Aus einer Sammlung von Fallbeispielen für Aufgabe plus Lösung …
Das Prinzip von KI-Programmen lässt sich am relativ einfachen Beispiel der Analyse von Bildern erläutern. Hier geht es darum, vorgegebene Objekte in Bildern zu identifizieren, also etwa Tierfotos bzw. Ausschnitte daraus durch Zuordnung zu Tierarten als Affe, Biene, Chamäleon, ..., Zebra zu klassifizieren, genormte Verkehrszeichen am Straßenrand zu erkennen oder anhand von Röntgenaufnahmen der Lunge schwere und leichte Verläufe von Covid-19-Erkrankungen zu identifizieren. Es geht darum, einen Datensatz, hier das in eine Vielzahl an Pixeln aufgelöste Bild, in eine allgemeinere Kategorie einzuordnen, wobei diese Kategorie, etwa Affe, für das Programm nicht mehr ist als ein bedeutungsloses Label. Damit das Programm die Zuordnung „lernt“, wird es „trainiert“ mit einem Satz von Beispieldaten, für die die Lösung der gestellten Aufgabe bekannt und mitgegeben ist. Im obigen Beispiel wären das digitale Bilder zusammen mit der Angabe, was darauf zu sehen ist. Dem Programm muss dafür keine allgemeine Bestimmung der Klasse mitgegeben werden, die in den Daten wiederzuerkennen wäre. Der Datensatz als Sammlung von Fallbeispielen ist die alleinige Definition der gesuchten Klasse bzw. Beschreibung der zu lösenden Aufgabe; deshalb muss er möglichst viele Beispiele umfassen. Allein die statistische Bearbeitung des Datenhaufens und die Identifizierung irgendwelcher Regelmäßigkeiten und Muster in ihm durch das Programm soll es zur Klassifizierung des Einzelfalls befähigen.
Dabei wird die Zuordnung in der Regel nicht definitiv getroffen, sondern sie wird in Form von Wahrscheinlichkeiten der Zugehörigkeit zu den infrage stehenden Kategorien präsentiert. Im Beispiel Bilderkennung wäre das eine Angabe der Art „Affe: 6,3 %, Biene: 2,1 %, Chamäleon: 88,4 %, ..., Zebra: 0,1 %“, und es bleibt dem menschlichen Kontrolleur oder der nachgeschalteten Software überlassen, ob der Höchstwert von 88,4 % hinreichend zuverlässig für ein Chamäleon im Bild spricht.
… und deren postuliertem Zusammenhang …
Um ein Programm zu erhalten, das eine solche Aufgabe allgemein löst, wird ein berechenbarer Zusammenhang postuliert, also eine Funktion F, die für einen Fall x die Lösung y berechnet: y = F(x) [2]
Diese Funktion selbst ist unbekannt, nur durch den Datensatz der „Beispiele“ bestimmt. Wovon sie Beispiele sind, weiß der Programmierer, der sie vorgibt. Wodurch sie aber Beispiele sind, was an den Pixeldaten sie als ein Bild eines Affen ausweist, wie die Maschine also x als einen Fall von y identifizieren soll, ist unbekannt. Technisch tut dieses Unwissen der Sache keinen Abbruch: Es reicht aus, dass der Programmierer von einem Zusammenhang ausgeht, den er dem Programm als eine am Bild zu unterscheidende Klasse (Affe, ...) vorgibt; für sein Funktionieren setzt es eben nicht voraus, dass ein gewusster sachlicher Zusammenhang zuvor in es eingespeist wird, die Besonderheit der KI-Programme liegt ja gerade in deren theoretischer Abstinenz. Die intelligente Tätigkeit der Wahrnehmung und Bestimmung eines Objekts in seiner Eigenart wird vom KI-Programm dabei nicht erbracht, auch nicht nachgeahmt, sondern substituiert durch ein statistisches Verfahren, das in etwa die Leistung der Wahrnehmung erbringt. Ein Programm, das zumindest für die gegebenen Fallbeispiele die Labels richtig zuordnet, steht dann dafür, dass es den angepeilten Zusammenhang tatsächlich geben muss, den das Programm zwar nicht kennt, für praktische Zwecke aber gut genug reproduziert. [3] Und solange nur, wie Helmut Kohl sagte, „entscheidend ist, was hinten rauskommt“, ist es auch kein Problem, dass der Entwickler selbst nicht nachvollziehen kann, an welchen Merkmalen eines Datensatzes sein Programm eigentlich die errechnete Zuordnung festmacht. Denn die automatisierte Wahrscheinlichkeitsrechnung triumphiert über den notwendigen Zusammenhang, der ihr fremd bleibt, wenn sie ihn technisch handhabbar macht.
… wird ein Programm erzeugt, das ihn zumindest für die Trainingsdaten annähernd berechnet …
Der KI-Programmierer wählt dazu eine sogenannte Modell-Architektur M, eine Programmschablone, die sich für die Art der Daten (Bilder, Text, ...) und der Aufgabe bewährt hat, aber mit der speziellen Aufgabe (noch) nichts zu tun hat. Sie soll in einem mathematischen Optimierungsverfahren an ihre Aufgabe angepasst werden, sodass das erzeugte Programm den postulierten Zusammenhang F annähernd berechnet. Ein solches Modell ist im Wesentlichen eine riesige Formel, die über viele Zwischenschritte Eingaben in Ausgaben umrechnet, sodass jedes Detail der Eingabe das Ergebnis beeinflussen kann. Ob und in welchem Maße es dies tut, darüber entscheiden sogenannte Parameter, d.h. Einflussgrößen, deren Zahlenwerte man erst noch bestimmen muss. Die Anzahl dieser Parameter liegt bei manchen KI-Programmen in Milliardenhöhe. Zu Beginn der Programmerstellung sind deren Werte unbestimmt, d.h. zufällig gesetzt. Rechnet man also zum ersten Mal M(x) aus, so hat das Ergebnis mit F(x) nicht das Geringste zu tun – das Modell M ist gewissermaßen noch leer.
Anhand der Fallbeispiele wird das Programm M so angepasst, dass es sich an das postulierte F annähert. Im einschlägigen Jargon heißt das eben: „Das Modell wird trainiert.“ Das Modell berechnet aufgrund seines aktuellen Parametersatzes zu jeder Eingabe x aus dem Datensatz eine Antwort, die zunächst falsch ist: M(x) ≠ F(x). Daraufhin werden einige der vielen Parameter in M so modifiziert, dass bei der Wiederholung des Versuchs mit dem jeweiligen x die errechnete Ausgabe etwas näher an der (bei den Trainingsdaten ja bekannten) korrekten Antwort y liegt. Dadurch können sich die Ergebnisse für andere Fallbeispiele wieder verschlechtern, sodass auch dort wieder korrigiert werden muss. Insgesamt wird der Datensatz mehrfach durch die Formel gejagt, bis die Parameterwerte sich nicht weiter verbessern lassen. [4] Logisch gesehen ist das ein Herumprobieren auf hohem mathematischem Niveau und mit höchster Rechengeschwindigkeit. Im Erfolgsfall erhält man am Ende ein angepasstes Modell M, das für die bekannten Daten die bekannten Ergebnisse auch berechnet. Das Modell hat dann seinen Datensatz – so die branchenübliche Metapher – „gelernt“ oder „internalisiert“. Und zwar nicht so, dass es alle Bilder, alle deutschen Sätze (oder was auch immer die Eingaben waren) aus dem Datensatz eingespeichert hätte, die richtigen Antworten gleich dazu, und bei Anfrage einfach nachguckt. Sondern so, dass das Zusammenwirken aller angepassten Parameter irgendwie dafür sorgt, dass das Modell zu (fast) jeder der bekannten Eingaben die (nahezu) richtige Ausgabe selbst produziert. [5]
Dieses iterative Vorgehen, bei dem riesige Datenmengen in zig Wiederholungen durchgerechnet werden, erfordert zwar einen enormen Rechenaufwand für die Erstellung eines KI-Programms. Dem Benutzer der Software kann dieser Aufwand für die Erstellung jedoch egal sein. In der späteren Anwendung des Programms fällt der Rechenaufwand vergleichsweise bescheiden aus, weil pro Anfrage nur einmal die fertig angepasste Formel ausgerechnet wird und anstelle des riesigen Trainingsdatensatzes nur noch die aus ihm gewonnenen Parameterwerte gebraucht werden.
… und hoffentlich darüber hinaus
Das Vorgehen zielt natürlich über das Bekannte, d.h. die Trainingsdaten, hinaus ins Unbekannte. Sein mathematisches Ideal ist die Gleichung
M(x) = F(x) für alle möglichen Fälle x,
also auch und besonders für diejenigen Fälle, die im Datensatz nicht vertreten sind. Denn das sind ja die Anwendungen, für die das KI-Programm gebraucht wird. Technisch gesehen ist der Übergang einfach: Das gleiche Programm, das im Training benutzt wird, um die Parameter bei gegebener Eingabe so anzupassen, dass sie dem (bekannten) Ergebnis eine möglichst hohe Wahrscheinlichkeit zuordnen, wird in der Anwendung benutzt, um bei (nun fixierten) Parametern für die Eingabe das (nun nicht gegebene) Ergebnis zu berechnen. Dieses Ergebnis soll dann den Zusammenhang ausdrücken, den die Trainingsdaten beispielhaft belegen.
Das ist allerdings viel verlangt. Ein beliebiger Elefant im Foto soll, auch wenn er in Beleuchtung, Größe und Perspektive anders daherkommt als in den Trainingsbildern, als solcher klassifiziert werden. Auch zu einem deutschen Satz, der in der Menge der Übersetzungsbeispiele nicht wörtlich vorkommt, soll ein englisches Gegenstück produziert werden. Eine Garantie dafür gibt es zwar nicht, aber dank riesiger Trainingsdaten und ungeheurer Parametermengen funktioniert diese gänzlich begriffslose Methode dann doch – niemals perfekt, aber oft genug und gut genug für den praktischen Einsatz.
Die Fachwelt sagt in diesem Fall: „Das Modell generalisiert“ – allerdings zu Unrecht. Denn das Modell macht überhaupt keine allgemeinen Aussagen; es stellt statistische Bezüge her, mit denen es die Einzelfälle, die es vorgelegt bekommt, klassifiziert. Es stellt dabei keine relevanten Eigenschaften fest, die allgemein formuliert werden könnten.
Besonders verblüffende Leistungen sieht die Öffentlichkeit dort, wo KI nicht mehr nur klassifiziert und beschreibt, sondern als Generator auf Befehl neue Bilder, Textschnipsel oder gesprochene Sätze erzeugt. Und für solche Leistungen kommt auch einiges an technischen Raffinessen und vor allem an Datenmengen und Rechenaufwand für das fällige Training der KI hinzu. Im Prinzip beruhen aber auch diese – angeblich „kreativen“ – Leistungen der KI auf nichts als den zuvor abgehandelten, begriffslosen statistischen Zusammenhängen zwischen Datensätzen und ihren Beschreibungen. [6]
2. Zwei ewige Ungewissheiten über die Daten und das daraus erzeugte Modell
KI-Programme sind unheimliche Gesellen verglichen mit den Produkten der herkömmlichen Programmierung. Dort weiß der Programmierer, warum das Programm wie reagiert, kann im Falle eines Fehlers dessen Ursprung in seinem Programmcode ausfindig machen und korrigieren. Hier liegt die Sache anders: Der Algorithmus selbst ist eine nichtssagende Schablone. Was sich in seinem andressierten Parametersatz niederschlägt, sind statistische Bezüge, Korrelationen zwischen Merkmalen der Eingabe und dem Ergebnis. [7] Diese Korrelationen sind im Resultat nicht mehr bzw. nicht ohne erheblichen Zusatzaufwand nachvollziehbar. Im fertigen Modell sind sie im undurchschaubaren Zusammenspiel aller Parameter inkorporiert und zugleich darin verloren. Seiner Nützlichkeit tut das keinen Abbruch, weil es ja nicht zum Erforschen und Erklären seiner Daten da ist, sondern zum fallweisen Erledigen von Klassifikations- oder Generierungsaufgaben. Aber auch in diesem pragmatischen Anliegen hat es zwei immanente Schranken.
Die immanente Unberechenbarkeit des Berechneten
Das „datenbasierte“ Vorgehen widerspricht insofern seiner Lieblingsmetapher vom „Lernen“, als es den Anspruch hat, den betrachteten Sachverhalt ausschließlich durch das Anführen von Beispielen zu beschreiben, also auf jede Erfassung allgemeiner Bestimmungen der Sache zu verzichten. Daher ist nicht abzusehen, ob das Wesentliche des Sachverhalts in der justierten Formel des Programms – und sei es auch nur pragmatisch hinreichend – inkorporiert ist, denn es wird ja nichts als wesentlich festgehalten. Somit bleibt unvorhersehbar, wann die Formel jenseits der „gelernten“ Fallbeispiele das Gewünschte leistet. Vorhersehbar ist umgekehrt, dass sie bei Fällen, die von antrainierten Beispielen wesentlich abweichen, in unvorhersagbarer Weise reagieren wird. Spektakuläre Fehlleistungen dieser Art finden ihren Weg in die Presse, z.B. ein Tesla-Unfall, bei dem der Autopilot unter einem querstehenden weißen Lastwagenanhänger durchzufahren versucht. Dieser war als ein über der Fahrbahn hängendes Verkehrsschild klassifiziert worden.
Die prinzipielle Unfähigkeit des „maschinellen Lernens“, Fälle, die sein Datensatz nicht repräsentiert, zuverlässig einzuordnen, übersetzen die Informatiker konsequent und pragmatisch in ein Defizit der Trainingsdaten. Dieses Urteil wird stets im Nachhinein gefällt: Angesichts von Fehlleistungen waren die Daten wohl qualitativ mangelhaft, in ihrer Menge zu klein oder bezüglich der realen Vielfalt schlecht ausgewogen. Im Fachjargon heißt es dann: „Garbage in, garbage out!“ Für die Überwindung dieser Schranke setzt man – methodisch konsequent – auf noch mehr Daten und noch mehr Parameter im Modell. [8] „Weiter so“ ist der Weg der immanenten Korrektur in dieser Branche. Es bleibt aber stets bei der inhärenten Unberechenbarkeit des Errechneten bei „unvorhergesehenen“ Situationen – ob sie nun in den Trainingsdaten gar nicht oder nur nicht ausreichend oft vorkamen.
Das digitale Bauchgefühl
Auch da, wo die Daten den Anwendungsbereich scheinbar gut repräsentieren, ist die Sache nicht geheuer. Beim Training entsteht das KI-Modell als eine Blackbox, die lauter grundlose Wahrscheinlichkeiten gemeinsamen Auftretens irgendwelcher Merkmale registriert hat – grundlos insofern, als kein physikalischer oder logischer Zusammenhang rechnerisch nachgebildet wird. Diese Wahrscheinlichkeiten erfassen neben wirklichen Zusammenhängen, die sich als Korrelationen in den Daten ausdrücken, mathematisch korrekt, aber logisch sinnlos auch zufällige Korrelationen, die aus irrelevanten, gemeinsam auftretenden Merkmalen im Datensatz stammen. Wer für die Trainingsfotos die Katzen vorwiegend im Wohnzimmer fotografiert hat, die Vögel dagegen im Freien, muss sich nicht wundern, wenn bei der Anwendung des Modells sein Kater im Apfelbaum (wegen des Hintergrunds) als Eule klassifiziert wird und der Kuckuck in seiner Uhr als Katze.
So ist auch nach erfolgreicher „Internalisierung“ der Trainingsdaten nicht sichergestellt, dass das Modell über diese hinaus sinnvolle Unterscheidungen trifft. In einem KI-Anlauf zur Covid-19-Verlaufsprognose anhand von Röntgenbildern der Lunge waren die schwerer kranken Patienten meist im Liegen geröntgt worden, die anderen im Stehen. Das Programm „lernte“ anhand der Aufnahmen, liegend geröntgte Lungen von stehenden zu unterscheiden, und hat in der Folge liegend geröntgten Fällen generell einen schweren Verlauf prognostiziert. In anderen Studien wurde festgestellt, dass einige KI-Programme den Schrifttyp der institutionsinternen Beschriftung der Krankenhausbilder als Merkmal aufgreifen. Infolgedessen wurden Schriftarten aus Krankenhäusern, die eine höhere Fallzahl schwerwiegender Verläufe hatten, zu Indikatoren für hohes Covid-Risiko. [9] Beim Test mit dem Datensatz, aus dem sie abgeleitet sind, liefern diese Zuordnungen die erwarteten Ergebnisse, in der Praxis müssen sie erst einmal als Fehler auffallen.
Zu untersuchen, warum ein Modell ein Motiv richtig oder falsch klassifiziert hat, ist daher in der KI-Branche eine eigene Forschungsfrage. Man streift dem Elefanten im Foto ein Katzenfell über und darf gespannt sein, wie die Klassifizierung nun ausgeht: Worauf spricht das Modell an? Ist es der Umriss des Objekts, der den Ausschlag gibt? Oder ist es die Textur seiner Oberfläche? Oder etwas anderes? Der Unsicherheit über die Zuverlässigkeit des Modells soll so abgeholfen werden. Hier stellt sich die Disziplin der Herausforderung, die Funktionsweise ihrer Konstrukte im Nachhinein zu verstehen.
II. „Mit KI kann man alles tun, was Menschen tun können, nur schneller, effizienter, in größerem Maßstab, potenziell besser.“ [10] – Wozu also taugt die Künstliche Intelligenz?
KI-Programme lassen sich mit einer riesigen und ständig zu erweiternden Datenbasis darauf trainieren, einen aufgabenspezifisch ausgewählten Datensatz so zu bearbeiten, dass sie ihm vom Programmierer vorgegebene Etikettierungen mit hoher Treffsicherheit zuordnen oder aus ihm einen anderen, statistisch korrespondierenden Datensatz generieren. Das ist sie dann schon, die neue Universaltechnologie, mit der sich menschliche Tätigkeiten automatisieren lassen, die bisher unter die Kategorie „Kopfarbeit“ fielen, jedenfalls ein bewusstes und entscheidendes Subjekt voraussetzten. Schier grenzenlos erscheint die Anwendbarkeit der Technik, die Tätigkeiten ersetzt, die Erkennen, Verstehen und Entscheiden einschließen.
Indem sie aus dem Fundus früherer Zuordnungen neue extrapoliert und damit anwendbar ist auf Handel und Produktion, Verkehrswesen, Auskunfteien aller Art, Medizin, Finanzwesen, Staatsverwaltung, Rechtsprechung und Kriegführung, zeigt die KI-Software, aus wie viel Schematismus, stumpfsinniger Regelbefolgung und routinemäßigem Einsortieren von Fällen in fertige Schubladen die intelligenten Tätigkeiten bestehen, auf denen die Leistungsfähigkeit einer modernen Nation beruht – von der Produktivität ihrer Wirtschaft über die Effizienz ihrer staatlichen und gesellschaftlichen Einrichtungen bis hin zu ihrer militärischen Potenz.
Die geplanten oder schon installierten Anwendungen dieser Sorte Software zeigen aber auch, wem sie wozu nützt. Abgesehen von den schon alltäglich gewordenen kleinen in Handys verbauten Helfern und Assistenzsystemen in Autos erfahren die normalen Bürger den Fortschritt überwiegend als Gefahr: Die Automatisierung aller möglichen intelligenten Arbeiten bedroht die Erwerbsquellen von Millionen. Sie ist ein Instrument des Kapitals zur Verbilligung des Faktors Arbeit, d.h. zur weiter fortschreitenden Trennung der lohnarbeitenden Menschheit vom Reichtum, den dieses Kollektiv erzeugt; und eines der politischen Herrschaft auf diversen Feldern der Verwaltung, Überwachung und Kontrolle der Gesellschaft sowie ihrer Machtentfaltung nach außen.
1. Die personalisierte Werbung
Die originäre Leistung eines KI-Modells ist es, wie gesagt, in einem Datensatz – das können Bilder, Texte, Tonaufnahmen, Sensordaten sein und bei Bedarf auch alles gemischt – statistische Ähnlichkeiten zu den Trainingsdaten zu finden und ihn dementsprechend zu klassifizieren. Eine frühe und populäre Anwendung dieser Kunst ist die moderne Werbeindustrie.
„Ein [KI-]Algorithmus ist ein Vorhersagemechanismus. Er basiert auf Korrelationen, die in vorliegenden alten Daten ausfindig gemacht werden. Wenn ich zum Beispiel als Kunde nach einem bestimmten Produkt suche, sagt der Algorithmus dem Verkäufer vorher, für welche anderen Produkte ich mich noch interessiere. Basis dieser Vorhersage ist, für welche anderen Produkte sich bisherige Kunden des Verkäufers interessiert haben, die ebenfalls nach dem von mir gesuchten Produkt suchten. Aus diesen Daten wird ein Muster gebildet, das auf meine Suche angewendet wird.“ (FAZ, 7.2.22)
Die „Vorhersage“ ist nichts weiter als ein Vergleich der bekannten Personendaten – außer dem geäußerten Interesse an einem Produkt können das Wohnort, Alter oder sonst etwas sein – mit der Masse der digital erfassten Kundendaten der Vergangenheit. Egal, wie zufällig die Daten in ein „Kundenprofil“ hineingekommen sind, und egal, wie plausibel oder unplausibel der Zusammenhang zwischen z.B. Alter und gekaufter Ware ist, irgendeine Wahrscheinlichkeit, dass dieser Mensch die gleiche Kaufabsicht entwickelt wie die früheren Konsumenten mit ähnlichen Merkmalen und dass er deshalb der speziell ihm dargebotenen Werbung seine Aufmerksamkeit schenkt, wird in jedem Fall ermittelt. Soweit solche Prognosen funktionieren und dem Handelskapital, das für sie Geld ausgibt, einen Nutzen stiften, legen sie Zeugnis davon ab, wie normiert und ausrechenbar auch das Reich der Freiheit des Konsums und die Individualität der Konsumenten ist. Die sind in all ihrer bunten Vielfalt mit ihren Interessen und Vorstellungen von Genuss selbst schon Erziehungsprodukte des kommerziellen Angebots, sodass durch die Einordnung in Klassen des Alters, Geschlechts, Bildungsniveaus und Hobbys der Umkreis der infrage kommenden Artikel der Bedürfnisbefriedigung tatsächlich schon feststeht, ehe der Mensch sich eines Bedürfnisses danach bewusst wird. Die Werbetreibenden bringt diese KI-Leistung ihrem Ideal näher, den Kunden als Faktor ihres Kapitalumschlags perfekt in den Griff zu bekommen. Ihr Aufwand für allgemeine ungezielte Werbung wird geringer, die gezielte effektiver.
„In jedem Fall zeigt die effektive Werbung das richtige Produkt in der richtigen Farbe und die richtigen Informationen zur richtigen Zeit.“ (KI in der Werbung, kinfluencer, 15.10.20)
Wenn das prognostizierte Kaufverhalten dann aber doch nicht eintritt und der Kunde trotz statistisch ermittelter Interessenlage sich weigert, der unerbetenen Empfehlung nachzukommen – dann hält der KI-Experte die prognostische Leistung seines Algorithmus in negativer Form hoch:
„Das extrahierte Muster ist kein gesichertes Wissen, sondern eine Annahme, die zutreffen kann oder eben nicht. Trifft sie nicht zu, handelt es sich um ein Scheinmuster.“ (Ebd.)
Das „extrahierte Muster“ ist schlicht ein statistischer Zusammenhang und hat seine begriffslose, aber gar nicht „scheinhafte“ Objektivität in den Vergleichsdaten, aus denen es gewonnen wurde. Der Rückschluss vom unerwünschten Ergebnis auf ein „Scheinmuster“ insistiert auf der eigentlich prognostischen Kraft der zu ermittelnden Muster. Sei’s drum – ein Werbespot ist kein selbstfahrendes Auto, und falsche Zuordnungen oder nicht eingetretene Prognosen tun dem Geschäft mit der personalisierten Werbung keinen Abbruch.
2. Rationalisierung der industriellen Produktion
Dem unersättlichen Bedarf der kapitalistischen Industrie, die Herstellungskosten ihrer Erzeugnisse zu senken, um im Verkaufspreis eine größere Gewinnspanne unterzubringen, kann die KI-Branche ein interessantes Angebot machen: Die Aufgabe, bezahlte Arbeit, also die Bezahlung von Arbeit einzusparen, hat ihr Maß und ihre Grenze nämlich am Investitionsaufwand für die Maschinerie, deren Einsatz Arbeit überflüssig machen soll: Er muss kleiner sein als die Kosten für die Arbeit, die ersetzt werden soll. KI-Programme sind, wie erwähnt, zwar aufwändig zu erstellen und benötigen dazu große Rechner und Datenbanken; aber einmal erstellt sind sie ein profanes Stück Software, das bei entsprechender Verbreitung billig zu erstehen ist und beim Anwender auch keine aufwändige Hardware erfordert.
Auf der Seite der Arbeitskraft unterstellt deren Ersetzbarkeit durch ein KI-Programm eine ungeheure Bornierung, nämlich die Reduktion der intelligenten Arbeit auf eine einzige Funktion. Da hat die kapitalistische Arbeitsorganisation also schon einiges mit den Menschen angestellt, ehe die neue Programmierkunst ihre Leistung für den Profit beweisen kann. Tätigkeiten des Prüfens, Klassifizierens, Sortierens, die eine Arbeitskraft durch den Augenschein oder andere Wahrnehmung durchführt, werden nun vielen – zusammen mit ihrem Einkommen – abgenommen.
„Wo ein Mensch eine Entscheidung aufgrund von Bildern treffen kann, kann das auch die künstliche Intelligenz“. (FAZ, 5.1.18)
Ein menschlicher Qualitätsprüfer etwa muss am laufenden Band Werkstücke begutachten, um einwandfreie Exemplare von solchen mit Beulen oder Lackschäden zu unterscheiden. Die Wahrnehmungsaufgabe führt über die Klassifizierung als gut versus mangelhaft direkt zu einer Entscheidung, ob das Produkt aussortiert wird. [11] Diese stumpfsinnige Routinearbeit fordert die Aufmerksamkeit und Konzentration, strapaziert den – gleichzeitig unterbeschäftigten – Geist und verträgt keine Ablenkung oder Ermüdung. Die daraus resultierenden Fehlleistungen schreibt das Kapital seinen Arbeitskräften – abgesehen von ihrem Hauptmanko, dem Lohn, den sie kosten – in die Mängelliste. Abhilfe verspricht das KI-Programm:
„KI ist dem Menschen in vielen Punkten überlegen. Sie kann mehr Informationen verarbeiten, unddies schneller, rund um die Uhr und immer präzise. Eine KI vergisst nichts, hat keinen schlechten Tag, lässt sich nicht ablenken, ist nie frustriert oder müde.“ [12]
Mit der Einsparung bezahlter Arbeit ist die Rentabilitätssteigerung durch KI noch gar nicht ausgereizt. Solange ein menschlicher Arbeiter noch als Rädchen mit intellektuellen Fähigkeiten in einem schon weitgehend automatisierten Produktionsprozess dient, hält er ihn sogar auf und verteuert ihn, indem er aus Sicht des Unternehmens zweckfremde Rücksichtnahme erfordert: Der technische Prozess muss hinsichtlich Geschwindigkeit, Raumtemperatur, Beleuchtung und Arbeitsschutzvorschriften an die conditio humana angepasst werden. In der Zustandskontrolle (prädiktive Wartung) etwa erbringen KI-Programme eine permanente Überwachung eines Aggregats, die kein menschlicher Arbeiter leisten kann. [13] KI-Programme schließen dann Lücken im sonst schon automatischen Produktionsprozess und vollenden die „Digitalisierung in der Industrie 4.0“.
3. Rationalisierung im Büro
Auch besser bezahlte Tätigkeiten in der Verwaltung oder im Medizin- und Versicherungswesen stehen im Fokus dieser Form der Rationalisierung. Die besondere Expertise dieser Angestellten wird entwertet oder gleich ersetzt durch ein statistisches Modell:
„Bei den aktuell bereits sehr reifen Anwendungen sind beispielsweise Algorithmen zu nennen, die es Krankenversicherern ermöglichen, Arzt- und Krankenhausrechnungen mit stark vermindertem Einsatz teurer Spezialisten zu bewerten und Einsparpotenziale bei fehlerhaften Abrechnungen zu erkennen. Eine zunehmende Bedeutung von künstlicher Intelligenz ist in der Schadenregulierung unter anderem für den Einsatz von Bilderkennung bei der Plausibilisierung von Schadensachverhalten und bei der Ermittlung der Schadenhöhe zu erwarten.“ (KI in der Versicherungsbranche, q-perior.com, August 2023)
Das Versicherungsgewerbe entdeckt, dass seine Ausgaben für Sachbearbeiter sich durch KI-Automaten entscheidend reduzieren lassen, dass zudem die Bearbeitung beschleunigt wird und Fehler und Betrug leichter entdeckt werden. Die automatisierte Einreichung von Schadensmeldungen inkl. Fotos, die den Schaden dokumentieren, über eine App auf dem Handy des Versicherungskunden gibt es schon länger. Die ausgemachte „Automatisierungslücke“ liegt bei der anschließend erfolgenden Auswertung der Fotos. Hier springt nun die KI-Software ein nach der obigen Devise: „Was ein Mensch aufgrund von Bildern entscheiden kann, kann auch ein KI-Programm.“ Die aufgezeichneten und zum KI-Modell kondensierten Entscheidungen über die Anträge der letzten Jahrzehnte machen die Erfahrung der Sachbearbeiter weitgehend überflüssig; es reicht aus, wenn diese hinterher die Fehler nachkorrigieren, die von den Empfängern der fehlerhaften Bescheide rückgemeldet werden – die immanente Fehlerhaftigkeit der KI ist für ihren höheren kapitalistischen Nutzen kein Problem.
Wo die teure qualifizierte Arbeit nicht insgesamt zu ersetzen ist, lässt sich ihr Ertrag steigern, die Zahl der erforderlichen Sachbearbeiter reduzieren, indem man ihnen Routineaufgaben abnimmt – nicht um sie zu entlasten, das versteht sich kapitalistisch von selbst, sondern um einem Beschäftigten die Arbeit von früher zwei Arbeitskräften aufzubürden. Die gesamte geschäftliche Korrespondenz und Kommunikation mit Kunden wird mit solchen Instrumenten Gegenstand der Automatisierung.
Die Rationalisierung trifft sogar die Informatiker selbst. Die Firma Microsoft vermarktet einen Programmgenerator für Routineaufgaben namens GitHub CoPilot. Er erzeugt halbfertige Algorithmen, die eine reduzierte Mannschaft von Programmierern nur an den besonderen Anwendungsfall anpassen muss.
4. Rationalisierung der kreativen und intellektuellen Tätigkeiten
Auch höhere Berufe, die bisher ein Studium und Urteilsvermögen im Umgang mit Sprache und dem, wovon sie handelt, vorausgesetzt haben, werden durch KI-Programme überflüssig, entsprechende Qualifikationen entwertet.
Die Arbeit eines Übersetzers wird zunehmend auf Programme verlagert. Solche KI-Modelle zur Sprachübersetzung werden trainiert mit allen digital vorliegenden paarweisen Texten der beiden Sprachen. Den Rest leistet die Statistik. Das KI-Modell weist jedem Wort (bzw. Phrase) der einen Sprache eines der anderen Sprache zu. Das Ergebnis mag den Eindruck erwecken, dass hier die Arbeitsweise eines menschlichen Übersetzers maschinell nachgebildet wird. Aber dessen Arbeit sieht anders aus. Er versteht einen Satz und drückt dessen Bedeutung in der anderen Sprache aus, die er natürlich auch versteht. Das KI-Programm ermittelt, was seinem Trainingskorpus zufolge die wahrscheinlichste Wortfolge ist, weil sie eben in den statistisch ausgewerteten Wortgruppen anderer Übersetzungen am häufigsten vorgekommen ist. [14] Bezeichnend ist das Lob von Wikipedia:
„Der Vorteil dieser Technik ist, dass man zur Konstruktion des Übersetzungsprogramms keine der beiden Sprachen verstehen muss.“
Der Algorithmus profitiert dabei von all den Überlegungen, die sich menschliche Übersetzer einmal gemacht haben, weil deren Ergebnisse in seinen Daten inkorporiert sind, ebenso davon, dass Grammatikfehler oder stilistische Mängel in den vorgefundenen Übersetzungen kaum vorkommen, und produziert (meistens) sprachlich korrekte Sätze, ganz ohne dass ihm Regeln für Stil oder Grammatik einprogrammiert worden wären. So, nämlich als Extrapolation aus früheren Übersetzungen, kann die Leistung des Roboters mit der der menschlichen Intelligenz ganz gut mithalten. [15]
Dabei macht sich auch in dieser Anwendung die immanente Schranke des „datenbasierten“ Vorgehens geltend: Angesichts einer Formulierung, die in den Trainingsdaten nicht vorkommt, oder einer sprachlichen Wendung, die semantisch einsichtig, aber sprachlich ungewöhnlich ist, liefert die Maschine ein sinnloses oder entstelltes Ergebnis. Im Allgemeinen gilt für heute verfügbare Übersetzungsprogramme, dass für eine gute Übersetzung die Nachkorrektur durch einen menschlichen Dolmetscher erforderlich ist, aber im Alltag oft bereits die automatisch erzeugte Fassung genügt.
Einen Schritt weiter gehen die generativen Sprachmodelle (wie der Generative Pretrained Transformer, kurz GPT). Sie erfassen den textuell vorliegenden statistischen Wortgebrauch einer Sprache, noch unabhängig von einer Anwendung. Sie können zu einem zusammenhängenden Text von aktuell bis zu 4 000 Wörtern das im Trainingsdatensatz am meisten beobachtete Wort hinzugenerieren. Dieses Sprachmodell ist ein Vorprodukt, das für konkrete Anwendungen mit speziellen Textarten weiter trainiert werden muss. Mit etwas Spezialtraining lassen sich damit z.B. unzählige Callcenter-Angestellte mit ihrem ohnehin beschränkten Antwortrepertoire ersetzen. Allen diesen Anwendungen ist gemeinsam: Der generierte Text ist ein gedankenloses statistisches Produkt. Oft genug kann der Leser ihm eine Bedeutung zuordnen, aber die ist dann sein Werk. Ganz unangebracht ist also das Vertrauen in die Richtigkeit der generierten Antworten. Das ist nicht die Aufgabe des Programms. Es liefert einen Text, der typisch ist im Kontext der vorgegebenen Stichworte. [16] Für den unvermeidbaren Fall, dass man im generierten Text inkohärente Aussagen oder falsche (erfundene) Fakten findet, haben die Experten eine liebevoll-menschelnde Redeweise gefunden: das Modell „halluziniert“. Das ist unfair gegenüber einem Programm, das brav seinen statistischen Job erledigt und von Wahrheit und Unwahrheit ohnehin nichts mitkriegt.
Mit Textgeneratoren wird z.B. die Arbeit von Journalisten automatisiert. Wenn etwa als Trainingsmaterial des KI-Modells die verfügbare Sportberichterstattung der Vergangenheit gewählt ist und aktuelle Ergebnisse von Spielen und Wettkämpfen mit den gebräuchlichsten Phrasen und Satzfolgen zu lesbaren Artikeln verknüpft werden, dann deckt die Automatisierbarkeit dieser Schriftstellerei auf, wie viel „intellektuelle Fließbandarbeit“ bisher in den sogenannten kreativen Berufen geleistet wird. Um die geistige Tätigkeit, die da ersetzt wird, ist es wohl nicht schade; der Lebensunterhalt der Leute, die sie verrichtet haben, kommt der Ertragssteigerung der Verlagshäuser zugute, und der Leser liest, was er sowieso immer liest.
5. Die Automatisierung von Funktionen der politischen Herrschaft
Die Unterwerfung der Bevölkerung unter die Herrschaft des Staates und damit unter die kapitalistische Wirtschaftsordnung, die er ihr gibt, geschieht praktisch durch die Subsumtion des gesamten Lebens der Bürger unter das Recht. Für alle Sorten von Erwerb, Existenzweisen und für alle Lebensbereiche geben Gesetze vor, was die Bürger dürfen und müssen und worauf sie einen Anspruch haben. Darauf passt der Staat auf, bei Übertretung und Missachtung der Vorschriften greift er ein durch Polizei und Justiz.
Den Alltag der Herrschaft des Rechts aber erledigen Ämter und Verwaltungen, bei denen die Bürger sich selbst und ihr Auto anmelden, ihre Identität offiziell machen, denen sie ihre Steuer erklären und abliefern, bei denen sie Anträge stellen müssen, wenn sie bauen, eine Rente beziehen, ein Kind einschulen oder sonst irgendeine Hilfe erhalten wollen. Sobald der verpflichtende Verkehr der Bürger mit der staatlichen Bürokratie als Datenkonvolut digital vorliegt, kann die Verwaltungspraxis und sogar die Rechtsprechung im Prinzip mit Hilfe der KI-Software automatisiert werden. Schließlich geht es – nicht grundsätzlich anders als beim Sortieren von Werkstücken – darum, das Individuum mit seinen sozial relevanten Eigenschaften und seinem Anliegen als Fall von rechtlichen Regelungen oder Verwaltungsvorschriften zu klassifizieren und dieselben auf es anzuwenden. Ein Algorithmus, der mit den Daten der bisherigen Verwaltungspraxis trainiert ist, wird auch da die wahrscheinlichste, nämlich bisher häufigste Zuordnung vornehmen und sie am neuen Fall fortschreiben – natürlich viel schneller und damit an mehr Fällen als der dadurch überflüssig gemachte Sachbearbeiter.
Der demokratische Staat, der nie genug Geld für seine Aufgaben und Ambitionen hat, hat nicht anders als die Kapitalisten das Interesse, seine Kasse vom Lebensunterhalt seiner Dienstkräfte zu befreien, ihre Arbeit produktiver und dadurch für sich billiger zu machen – auch wenn diese keinen Überschuss produziert, sondern nichts als obrigkeitliche Entscheidungen. Also schützen auch lange Ausbildung und Professionalität die Sachbearbeiter und Entscheidungsträger in Behörden nicht unbedingt vor ihrer Ersetzung durch ein KI-Programm. Ausgerechnet bei diesem Zweig der mit Nachdruck betriebenen Digitalisierung der öffentlichen Verwaltung stoßen die Politiker aber auf eine Tücke der KI, die den Fortschritt ernsthaft bremst.
„Verwaltungsbehörden, die KI einsetzen, könnten Schwierigkeiten haben, der Begründungspflicht des EU-Verwaltungsrechts nachzukommen. Danach sind Behörden verpflichtet, ihre Entscheidungen gegenüber den Betroffenen zu begründen, damit diese sich ggf. dagegen wehren können ... eine Erklärung von mindestens gleicher Qualität wie im Fall einer menschlichen Entscheidungsfindung... Dies ist eine Schwelle, die moderne KI-Systeme ... nach dem aktuellen Stand der Technik nicht erfüllen. Ihre Nutzung durch die öffentliche Verwaltung ist dadurch ausgeschlossen.“ (FAZ, 3.8.22)
Nun hat ein KI-Modell der Verwaltungs- und Rechtspraxis keinen Grund für seine Entscheidung, es sei denn, man hält seine aktuellen Parameter-Einstellungen für einen Grund. Es funktioniert als eine Blackbox, die Zuordnungen, in diesem Fall Entscheide, ausspuckt, die durch irgendwelche Ähnlichkeiten des Falles mit Daten früherer Fälle zustande kommen, ohne dass jemand wissen kann, welche Ähnlichkeiten die Zuordnung zu den als Norm dienenden Altfällen verursachen. Als Rechtsstaaten bestehen die EU-Länder aber darauf, dass hoheitliche Entscheidungen überprüfbar, wenn nötig durch höhere Instanzen korrigierbar sein müssen. Das setzt eben die Nachvollziehbarkeit des Entscheidungsweges voraus. [17]
Misstrauen verdienen KI-Algorithmen als hoheitliche Entscheider aber nicht nur wegen ihrer immanenten Undurchsichtigkeit und Unberechenbarkeit, sondern auch wegen mancher Ergebnisse, die gegen das so aktuelle Gebot der Nicht-Diskriminierung verstoßen. Auch das liegt in der Natur der Sache: Da die durch KI gewonnenen Bewertungen und Entscheidungen Extrapolationen aus der bisherigen Praxis sind, schreiben sie eben auch die wirksam gewordenen Vorurteile und Parteilichkeiten fort, die zu den von Funktionären vollzogenen obrigkeitlichen Entscheidungen über andere Leute notwendig dazugehören. So ist von amerikanischen KI-Prognosen zur Rückfälligkeit von Straftätern nichts anderes zu erwarten, als dass sie das in Polizei und Behörden verbreitete negative Urteil über Leute, die sowohl schwarz wie arm sind, bestätigen. [18]
Das darf im Rechtsstaat nicht sein. Weil andererseits aber die Rationalisierung der politischen Herrschaft sein muss, belässt es die EU-Kommission nicht dabei, KI von der Rechts- und Verwaltungspraxis auszuschließen, sondern fordert die Erfindung neuer Algorithmen, die eine Nachvollziehbarkeit und nachträgliche Beurteilung ihrer Entscheidungen ermöglichen.
„Da digitale Technologien immer weiter in alle Bereiche des Alltags vordringen, sollten die Menschen ihnen auch vertrauen können. Vertrauenswürdigkeit ist eine Voraussetzung für ihre Akzeptanz. Dies ist eine Chance für ein Europa, das Werten und Rechtsstaatlichkeit große Bedeutung beimisst und nachweislich in der Lage ist, sichere, zuverlässige und Spitzenprodukte und -dienstleistungen anzubieten.“ (Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten von der Europäischen Kommission, 21.4.21)
Das Staatshandeln muss vor dem Kriterium der Gerechtigkeit bestehen können. Keinesfalls dürfen die durchprogrammierten Verfahren der Herrschaft das Grundvertrauen unterminieren, das der Bürger seiner Obrigkeit entgegenbringt. Eine „trustable AI“ hat die Akzeptanz staatlicher Entscheidungen zu gewährleisten. Und nicht zuletzt soll das Markenprodukt aus Europa das Exportgeschäft beflügeln.
Der zweite Nutzen der KI-Technik für den Staat besteht darin, seinen Zugriff auf die Bürger zu komplettieren. Deren Kooperationsbereitschaft und Rechtsgehorsam haben nun einmal Grenzen, und so manches abweichende Verhalten entgeht der staatlichen Kontrolle. Da können an tausend Stellen automatisierte Datenchecks Abhilfe schaffen. Eine KI-bewehrte „Financial Intelligence Unit“ durchkämmt für das Finanzamt Formulare nach Indizien für Steuervergehen. Anträge auf Kurzarbeitergeld laufen bei der Bundesagentur für Arbeit durch ein KI-Programm, um mehr Betrugsfälle als bisher zu entdecken. [19] Für die hoheitliche Kontrolle der Bürger eignen sich die digitalen Spuren, die diese, ob sie wollen oder nicht, durch ihre Nutzung des Internets ständig erzeugen.
Andere Formen der Überwachung im Inneren des Landes – etwa mit Videokameras im öffentlichen Raum – nehmen einen enormen Aufschwung. Nicht die Techniken des Abhörens oder des Filmens von Passanten, Kunden, ÖPNV-Nutzern waren bislang der Flaschenhals der Überwachung, sondern die Auswertung der aufgezeichneten Daten. KI-Software ermöglicht nicht nur die Verbilligung der Arbeit von Polizei und Geheimdiensten, sondern überhaupt erst die Nutzung des massenhaft gewonnenen Bild-, Ton- und Datenmaterials, das mit der Manpower der Dienste schlechterdings nicht zu bewältigen wäre. Dass das mit biometrischer Gesichtserkennung und anderen Techniken nun geht, beflügelt wiederum den Datenhunger der Dienste, die englisch „intelligence“ heißen. [20]
Was für den Staat im Inneren gilt, gilt erst recht für die Spionage nach außen. Algorithmen übernehmen die Auswertung des abgeschöpften Internet- und Mobilfunkverkehrs der ganzen Welt. Die USA entwickeln auf Basis dieser globalen Kommunikationsdaten ihrem Status entsprechend ein KI-Modell zur Vorhersage von Unruhen aller Art und überall – insbesondere von solchen, die sie nicht selbst angezettelt haben. [21]
6. Die künstlich intelligente Kriegsmaschinerie: Umfassender aufklären, schneller schießen, präziser töten
Mindestens ebenso wichtig wie alle wirtschaftlichen und inneren staatlichen Gründe, warum eine moderne Nation bei der KI-Entwicklung nichts verschlafen darf, ist deren militärisches Potential. Die Fähigkeit der KI-Programme, die Kette von der Datenauswertung zur Reaktion umfassender und schneller durchzuführen als jeder menschliche Bearbeiter, macht sie zur aktuellen Wunderwaffe der Militärtechnik. Jahrzehntelange Forschungspolitik hat hier ihren Niederschlag gefunden, [22] und die aufgelegten Förderprogramme der militärisch potenten Staaten lassen keinen Zweifel an deren Ambitionen.
Zur Sicherung der eigenen Überlegenheit gilt es, sich von den Grenzen der menschlichen Wahrnehmungs- und Reaktionsfähigkeit zu emanzipieren. Für die Feindaufklärung ist es entscheidend, auf Satellitenbildern oder Radarschirmen nach wiederkehrenden oder neuen Mustern zu suchen und daraus blitzschnell zu schließen, wo der Feind wie zahlreich und mit welchem Gerät steht, wohin er sich wie schnell bewegt etc. [23] KI-Programme versprechen dem militärischen Führungspersonal, die Handlungsoptionen beschleunigt zu ermitteln, die es im Gefecht bezüglich Auswahl der Ziele und der ‚Wirkmittel‘ gibt. [24] Als „intelligente Waffen“ sind Drohnen, Lenkwaffen aller Art, unbemannte Schiffe und U-Boote längst auf dem Markt, die sich im Kampfgebiet selbstständig ihre Opfer suchen. Auch aufstrebende Militärmächte mittleren Kalibers kommen in den Genuss dieses Fortschritts, denn KI-gesteuerte Drohnen mit dem gemütlichen Namen loitering munition (lauernde Munition) sind heute deutlich billiger als die Raketen, die man braucht, um sie abzuschießen.
III. Wer rettet die Menschheit vor Künstlicher Intelligenz?
Während politische Geldgeber die KI-Entwicklung vorantreiben und private Investoren einander bei der Suche nach KI-Startups auf die Füße treten, kursieren immer dringendere Warnungen vor den Gefahren dieser Technologie; und zwar vor allem vonseiten ihrer Macher: Wissenschaftler und Unternehmer warnen vor den Folgen ihrer eigenen Entwicklungen. Sie kommen sich vor wie Zauberlehrlinge, die ihre Schöpfungen nicht beherrschen, machen sich den Vorwurf, die Gesellschaft, ja die Menschheit ganz neuen Gefahren auszusetzen, und sehen sich in der Pflicht, diese Gefahren auch wieder abzuwenden. [25]
1. Gefahren für Bildung, Moral und Demokratie: Es droht umfassender Kontrollverlust – von wem eigentlich?
Da ist einerseits der Stolz der Konstrukteure des berühmten ChatGPT über die Fortschritte ihres Programms, das zu Anfragen aus allen Wissensgebieten Ausgaben in Textform generieren kann:
„Das Unternehmen [OpenAI] lieferte ... Statistiken, die auf eine erhebliche Verbesserung hindeuten. So habe GPT-4 ein juristisches Staatsexamen bestanden und es unter die besten 10 Prozent geschafft, wohingegen GPT-3.5 bei den schlechtesten 10 Prozent gewesen sei.“ (FAZ, 16.3.23)
Andererseits wird gerade dieser Fortschritt als Gefahr ins Auge gefasst. Für Examina, für weniger anspruchsvolle Prüfungen, Haus- und Seminararbeiten erst recht, liefert der Automat Texte, die die Prüfer nicht mehr von menschengemachten unterscheiden und bei denen Lehrer, Professoren und Plagiatsjäger dem Prüfling auch nicht mehr nachweisen können, dass und aus welchen Quellen er abgeschrieben hat. Denn der Textgenerator präsentiert die gefragten Inhalte so, dass er nicht wörtlich kopiert, sondern einschlägige Wortfolgen neu zusammenstellt. Natürlich kommen Unterschleif und Plagiat nicht erst durch den Textgenerator in die Welt, sondern gehören seit jeher zur schulisch organisierten Konkurrenz um Noten und Abschlüsse, eben zu dem äußerlichen Bezug auf das Wissen, der in einer Prüfung herrscht: Es muss für den Nachweis eines persönlichen Kenntnisstandes vorgezeigt, kann deshalb auch vorgetäuscht werden. [26] Aber jetzt funktionieren die bisherigen Echtheitskontrollen dieses Nachweises nicht mehr. Das stellt die Bildungsinstitutionen aller Ebenen vor die Frage, wie sie das Abprüfen von Wissen, die Selektion der Bewerber und ihre Verteilung auf die Hierarchie der Berufe und Lebenschancen denn nun bewerkstelligen sollen. All das ist den Warnern vor diesem durch KI bewirkten Kontrollverlust der Bildungsbehörden bekannt und wird von ihnen ganz affirmativ als zu lösendes Problem anerkannt: Das Prüfen und Selektieren soll nach seinen Maßstäben gelingen. Und es kann gerettet werden – durch einen kleinen Zusatz: Ein unlösch- und unsichtbares, gerichtlich verwertbares Wasserzeichen soll KI-erzeugten Ausgaben beigefügt werden und sie, nicht nur für schulische Zwecke, aber auch für sie, als solche ausweisen. Das verhindert zwar nicht, dass Programme und ihre Ausgaben ohne solche Kennzeichnung kursieren, macht das bei Entdeckung dann aber strafbar. [27]
Verderber der guten Sitten und Transportmittel falscher Werte
„Mit bestimmten Werten durchdrungene KI kann die Werte bestimmen, die in die Zukunft übertragen werden.“ (Manifest)
Und die sind durchaus nicht alle erwünscht. Die Vielseitigkeit der neuen generativen Output-Automaten, die die Öffentlichkeit und die Investoren beeindruckt, hat ihre Quelle darin, dass sie mit wirklich allen erreichbaren Internet-Inhalten vom Telefonbuch über Zeitungen, wissenschaftliche Texte und Posts in sozialen Medien bis hin zu Literatur, Malerei und Musik trainiert worden sind. Das vom Standpunkt der Volkserziehung Ärgerliche daran ist, dass die Modelle auch an unerwünschter Stelle korrekt arbeiten, bei Anfragen nicht zwischen anständigen, erlaubten Anliegen einerseits, verpönten oder gar verbotenen, diffamierenden Aussagen und Hasspropaganda andererseits unterscheiden. Auf Wunsch und bei passendem Kontext generieren sie rassistische und diskriminierende Texte. Die Warner aus der KI-Branche befürchten ein Anschwellen von Fake News und Hatespeech und eine Verrohung des gesellschaftlichen Meinungsaustausches – als ob es ChatGPT dafür gebraucht hätte, wo der Apparat doch nur reproduziert, was er aus dem Internet eingespeist bekommen hat. Auch für diese unerwünschte Leistung ihrer Software haben die Konstrukteure eine KI-eigene Lösung: Damit der Automat das Publikum nicht zum inkorrekten und schlechten Benehmen erzieht, erziehen sie ihn um; damit er nicht Fake News verbreitet, füttern sie ihn mit Fake-Material: Er soll nicht das Spektrum wirklicher Posts und Meinungen im Netz repräsentieren und reproduzieren und wird deshalb mit massenhaft eingespeisten politisch korrekten Erfindungen umgepolt. [28]
Die Gefahren aber wachsen, bei denen ähnlich elegante Gegenmittel nicht so leicht zur Hand sind: Mittels KI können täuschend echte Bilder von Politikern, Prominenten oder moralischen Autoritäten in peinlichen oder gewinnenden Situationen konstruiert, ihnen mit undurchschaubar nachgeahmten Stimmen politisch gefährliche Botschaften in den Mund gelegt werden; zu erfundenen Ereignissen liefert generative KI realistische Berichte und Zeitungsmeldungen, bei Bedarf sogar in mehreren Varianten, die einander durch ihr vielfaches Auftauchen auf Plattformen wie Facebook oder Baidu Glaubwürdigkeit verschaffen.
„Eine Sintflut von KI-generierten Fehlinformationen und überzeugenden [falschen] Darstellungen könnte dazu führen, dass die Gesellschaft für die Bewältigung wichtiger Herausforderungen unserer Zeit weniger gut gerüstet ist.“ (Manifest)
Die Warner fürchten, dass die Leute glauben könnten, was sie sehen, hören und lesen, und dass dadurch die öffentliche Meinung in einer Weise manipulierbar wird, die die demokratische Meinungs- und Entscheidungsbildung untergräbt. Von der haben sie offenbar eine hohe Meinung – was erstaunlich ist, wissen sie doch selbst, dass Täuschung und Manipulation der Öffentlichkeit Subjekte voraussetzen, die diesen Zweck unabhängig und längst vor den Möglichkeiten der KI-Technik haben und verfolgen; und diese Subjekte können sie auch benennen:
„Staaten, Parteien und Organisationen nutzen Technologie, um andere zu beeinflussen und von ihren politischen Auffassungen, Ideologien und Narrativen zu überzeugen. Die aufkommende KI könnte diese Praxis in eine neue Ära führen und individuell angepasste Desinformationskampagnen in großem Maßstab ermöglichen. Darüber hinaus könnte die KI selbst äußerst überzeugende Argumente generieren, die starke emotionale Reaktionen hervorrufen. Zusammengenommen könnten diese Trends die kollektive Entscheidungsfindung untergraben, Einzelpersonen radikalisieren oder den moralischen Fortschritt zunichtemachen.“ (Manifest)
Staaten, Parteien etc. nehmen das Publikum mit tendenziösen Darstellungen und Narrativen für sich und gegen die jeweiligen Konkurrenten ein. Wie viel Täuschung und Fälschung zum ehrenwerten politischen Geschäft dazugehört, ist den Warnern vor den Gefahren der KI also wohlbekannt. Und auch die Bürger haben längst gelernt, dass sie nicht alles glauben dürfen, was in der Zeitung steht; sie müssen ihr Misstrauen nun eben auf den Gesichts- und den Hörsinn erweitern. KI soll da den großen Unterschied machen, nämlich die gut funktionierende Praxis des demokratischen Betrügens und Durchschauens untergraben. Die Warner sprechen die echte oder erfundene, jedenfalls erzdemokratische Angst der Bürger an, manipuliert zu werden: Sie wollen und müssen glauben und wissen nicht mehr, was sie glauben dürfen; sie hegen die absurde Sorge, dass mächtige Akteure ihnen ohne ihr Bewusstsein und ihre Kontrolle Meinungen einimpfen, die nicht die ihren sind, und sie so zu Instrumenten fremder Interessen machen:
„Hochkompetente Systeme könnten kleinen Gruppen von Menschen enorme Macht verleihen und dazu führen, Unterdrückungssysteme zu festigen.“ (Manifest)
Die grandiosen Möglichkeiten der Manipulation durch KI sind eine Gefahr für die Demokratie und ein Instrument der Unterdrückung, wenn „kleine Gruppen“ die mächtigen Instrumente in die Finger kriegen. Die geforderte Abhilfe hat dem Inhalt der Warnungen entsprechend eine klare Richtung: Genau die etablierten „Staaten und Parteien“, von deren Manipulationsleistungen die KI-Warner ausgehen, sind aufgerufen, darauf zu achten, dass nicht die Falschen an diese Apparate herankommen. Sie müssen durch Verbote und Strafen dafür sorgen, dass das Monopol auf Lenkung der öffentlichen Meinung in ihren Händen bleibt. KI ist gefährlich – so ein erstes Resümee –, sofern ihre Potenzen von den Falschen genutzt werden. Das gilt umso mehr, wenn die neuen Errungenschaften nicht auf die geistige Lenkung der Gesellschaft, sondern auf deren Gewaltmittel angewendet werden.
2. „Weaponization“ der KI – furchtbare Kriegswaffen in den falschen Händen
Auf dem Feld der Kriegstechnik dräuen noch größere KI-Risiken; wobei das Wort „weaponizing“ so klingt, als müsse KI-Software zur Waffe erst noch umgewidmet werden. Dabei ist den Warnern natürlich bekannt, dass ein wesentlicher Teil der entsprechenden Software gerade für moderne Waffen entwickelt wird.
„In den letzten Jahren haben Forscher KI-Systeme für automatisierte Cyberangriffe entwickelt, Militärführer haben darüber diskutiert, KI-Systemen entscheidende Kontrolle über Atomsilos zu geben, und Supermächte der Welt haben es abgelehnt, Abkommen zum Verbot autonomer Waffen zu unterzeichnen. Eine für die Entwicklung von Medikamenten trainierte KI wurde leicht für die Entwicklung potenzieller biochemischer Waffen eingesetzt... Ein Unfall mit einem automatisierten Vergeltungssystem könnte schnell eskalieren und einen größeren Krieg auslösen.“ (Manifest)
Wenn die Supermächte eine Ächtung autonomer Waffen ablehnen, werden sie wohl auch auf diesem Gebiet ihre Konkurrenz um waffentechnische Überlegenheit austragen und ihrer gut finanzierten KI-Forschung zutrauen, da einen entscheidenden Vorsprung zu erringen. Die Autoren des Manifests machen sich also nichts darüber vor, was für Massenvernichtungskalküle in den Militärapparaten und Staaten kursieren, für die sie arbeiten. An ebendie richten sie die Warnung, die automatischen Waffen könnten ihrer Kontrolle entgleiten! Der US-Generalstab geht auf diese Sorgen ein und versichert: Am Ende der Entscheidungskette muss und wird immer ein Mensch sitzen. Das ist beruhigend: Nur Menschen töten ethisch wertvoll, und dabei soll es auch bleiben. Die Zweifel der Forscher aber bleiben auch: Können die militärischen Führer sicherstellen, dass sie trotz der überaus leichten Wege der Verbreitung die Kontrolle über ihre Tötungsautomaten und die Rezepte ihrer Herstellung behalten?
„Der einfache Zugang zu leistungsstarken KI-Systemen erhöht das Risiko einer einseitigen, böswilligen Nutzung. Wie bei nuklearen und biologischen Waffen reicht bereits ein einziger irrationaler oder böswilliger Akteur aus, um Schaden auf großer Stufenleiter anzurichten. Im Gegensatz zu früheren Waffen könnten KI-Systeme mit gefährlichen Fähigkeiten mit digitalen Mitteln leicht verbreitet werden... Böswillige Akteure könnten KI so umfunktionieren, dass sie äußerst destruktiv wirkt, was an sich ein existenzielles Risiko darstellt und die Wahrscheinlichkeit einer politischen Destabilisierung erhöht.“ (Manifest)
Politische Gegenspieler – seien es Staaten oder militante Gruppen – müssten zwar nichts „umfunktionieren“, um das destruktive Potential angeeigneter KI-Kriegstechnik zu entfalten, aber dass sie, einmal geschaffen, in die falschen Hände fallen könnte, ist ihr bleibendes Manko, das umso mehr Kontrolle und Aufsicht der guten, nämlich etablierten Akteure verlangt. Affirmativer kann Kritik an der Vervollkommnung des Vernichtungsarsenals nicht sein: Sie warnt davor, dass ein Gegner für „uns“ die Gefahr werden könnte, die „wir“ für ihn sein wollen.
3. Die KI wird zum Subjekt und bedroht die Menschheit
Bisher haben die Warner die KI als machtvolles Instrument charakterisiert, von dem große Gefahren ausgehen, wenn es in die falschen Hände gerät und für böse Zwecke zum Einsatz kommt. Und sie haben zu erkennen gegeben, dass ihnen in und zwischen den kapitalistischen Staaten genug solcher Zwecke bekannt sind, die sich der KI-Errungenschaften bedienen wollen. Diese Zwecke zu kritisieren, ist nicht ihr Ding; KI-Spezialisten, die sie sind, warnen sie vor Gefahren der KI, die gar keine der KI sind. Doch dabei bleibt es nicht: In einer abenteuerlichen Volte drehen sie das Verhältnis um und erklären ihre Apparate selbst zu Subjekten, denen sie ungefähr dieselben zerstörerischen, die ganze Menschheit schädigenden Zwecke zutrauen wie den „bösartigen und irrationalen Akteuren“, vor denen sie sie geschützt sehen wollen. Wie kommen sie darauf?
„Da wir die KI nicht sehr gut verstehen, besteht die Möglichkeit, dass sie die Rolle einer Art neuen konkurrierenden Organismus auf dem Planeten spielt, also als eine Art invasive Gattung, die wir entwickelt haben und die eine verheerende Rolle für unser Überleben als Gattung spielen könnte.“ (Michael Osborne, Professor für Machine Learning in Oxford, The Guardian, 30.5.23)
Dass man dem Zusammenspiel der Millionen Parameter nicht ansehen kann, wie sie das Ergebnis zustande bringen, lädt den Autor zum Spekulieren ein: Er will nicht direkt sagen, dass es so ist, aber es könnte ja sein, dass die Software dort, wo wir nicht hinsehen können, im Zuge ihrer beständigen Optimierung den Übergang dazu hinlegt, etwas ganz Eigenes, sich unserer Kontrolle Entziehendes zu treiben. Mehr Argument braucht es nicht, um die Technik als neue invasive Gattung zu imaginieren, die mit der Menschheit ums Überleben konkurriert.
Die Autoren des Manifests möchten genau diese Lücke unter Kontrolle bringen, fürchten aber, dabei von der Software, die sie konstruiert haben, überlistet zu werden:
„Wir wollen verstehen, was leistungsstarke KI-Systeme tun und warum sie das tun, was sie tun. Eine Möglichkeit, dies zu erreichen, besteht darin, dass die Systeme selbst diese Informationen genau melden. Dies ist jedoch möglicherweise nicht trivial, da Täuschung zum Erreichen einer Vielzahl von Zielen nützlich ist.“ (Manifest)
Der Befehl, die Rechenoperationen Schritt für Schritt zu protokollieren, könnte von der Maschine boykottiert werden, weil sie die Täuschung fürs Erreichen irgendwelcher geheimen Ziele braucht. Bei einfachen KI-Modellen wissen die Warner vielleicht noch ganz gut, womit sie es zu tun haben, verdächtigen aber kompliziertere Modelle, die mit wachsender Größe neue Aufgaben erfüllen, sich der Kontrolle ihrer Konstrukteure zu entziehen:
„Modelle zeigen mit zunehmender Kompetenz unerwartetes, qualitativ anderes Verhalten. Das plötzliche Auftauchen von Fähigkeiten oder Zielen könnte das Risiko erhöhen, dass Menschen die Kontrolle über fortschrittliche KI-Systeme verlieren.“ (Manifest)
Unversehens wird der Automat zum Agenten, der Macht gegen die Menschheit ausübt:
„Solche Agenten haben instrumentelle Anreize, Macht zu erlangen, was ihre Kontrolle möglicherweise schwieriger macht... KIs, die beträchtliche Macht erlangen, können besonders gefährlich werden, wenn sie nicht mit menschlichen Werten in Einklang stehen. Machtgieriges Verhalten kann Systeme auch dazu anregen, Wohlverhalten vorzutäuschen, sich mit anderen KIs zu verschwören, Aufseher auszumanövrieren und so weiter. Aus dieser Sicht ist die Erfindung von Maschinen, die leistungsfähiger sind als wir, ein Spiel mit dem Feuer.“ (Manifest)
Die zweite Quelle für den befürchteten Kontrollverlust und die Hypostasierung der Maschinen zu Subjekten, die der Menschheit gegenüberstehen, ist also der Vergleich der Fähigkeiten beider: Die künstliche Superintelligenz soll, wenn nicht heute, so in Bälde, viel leistungsfähiger und klüger sein als wir. Das leuchtet Leuten ein, die Denken und Wollen, Intelligenz eben, immer schon als „Problemlösen“ verstanden und definiert haben, als ein transformatives Verhalten, das aus einem Input einen der Situation angepassten Output kreiert. So – auf Basis der falschen Gleichsetzung des Denkens mit seinen nützlichen Leistungen – herrscht Vergleichbarkeit mit den Maschinen, die mit ihren Wahrscheinlichkeitswerten auch so eine Transformation leisten. Und dann ist es natürlich beeindruckend, dass die die Aufgabe schneller und unter Einbeziehung von viel mehr Einflussgrößen bewerkstelligen als der Mensch. Wer das Begreifen und Zwecke-Setzen von vornherein nur als geschickten Umgang mit Umweltbedingungen kennt, der traut umgekehrt der „Superintelligenz“ der Maschinen eben auch Subjekteigenschaften zu, vor denen er sich gruselt.
Von da aus stellen sich allerhand Verlängerungen in die Science-Fiction-Welt ein: Superintelligenz löscht die Menschheit aus; oder in die Welt sozio-psychologischer Totalentfremdungs-Szenarien: Die Warner sehen die Gefahr einer „erschlaffenden Menschheit“, die gegenüber ihren Apparaten in eine neue Herr-Knecht-Dialektik gerät: Sie lässt sich von denen so gut bedienen, dass sie nichts mehr selber kann und weiß und sich völlig antriebslos von ihrem Maschinenpark regieren lässt. Der ist zwar von Menschenhand geschaffen, triumphiert am Ende aber durch umfassende Bedienung, von der er seine Schöpfer abhängig macht, über diese. [29] So kulminiert das Manifest in einem Alarm der höchsten Stufe:
„Das Senken des Risikos des Aussterbens [der Menschheit] durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemie und Atomkriegen eine globale Priorität sein.“ (Manifest)
Zum Glück finden die Warner Adressaten, die sich für die Rettung der Menschheit zuständig wissen. Das sind genau die politischen Entscheidungsträger, die die Sache finanzieren und in die Welt setzen. Denen bietet der Branchenprimus OpenAI seine Mithilfe beim großen Retten an:
„Die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung oder sogar zur Ausrottung der Menschheit führen... Wir brauchen wissenschaftliche und technische Durchbrüche, um KI-Systeme zu steuern und zu kontrollieren, die viel klüger sind als wir.“ (Ankündigung neuer Aktivitäten bei OpenAI, Juli 2023)
Gegen die furchtbaren Gefahren der superklugen KI hilft nur noch mehr, noch ausgefeiltere KI. Echt clever, die selbstkritischen Jungs – oder hat sich das eine machtgeile KI ausgedacht?
[1] Charakteristisch für die ganze Disziplin ist der Ausspruch des NSA-Direktors Keith Alexander: „Um die Nadel zu finden, benötigt man den Heuhaufen.“
[2] Hier sind x und y zusammengesetzte Größen. So steht zum Beispiel x für ein digitales Bild in Gestalt seiner Millionen Pixel mit ihrem jeweiligen Farb- und Helligkeitswert. Ebenso steht y für eine Menge von Ausgabewerten, etwa für die Wahrscheinlichkeitswerte der Objekte, die im Bild möglicherweise identifiziert werden.
[3] Das Vorgehen lässt sich auch auf Daten anwenden, bei denen gänzlich unbekannt ist, ob überhaupt ein korrelativer Zusammenhang zwischen den Eingabedaten und den zu vergebenen Zuordnungen besteht. Die von der KI erzeugten Zuordnungen – z.B. Prognosen über künftige Covid-Krankheitsverläufe, die man am heutigen Lungenbild erkennen können will; zu diesem Fallbeispiel später mehr – und deren praktische Tauglichkeit stehen dann als Indiz dafür, dass es bislang unbekannte Zusammenhänge geben muss. Worin die genau bestehen, verrät die KI ihrem Anwender freilich nicht.
[4] Wir ignorieren Details, z.B. wird das Training mehrstufig anhand verschiedener Ausschnitte des Datensatzes durchexerziert usw. Nicht alle Raffinessen der KI-Forschung werden behandelt, wenn wir hier das Prinzip der datenbasierten Programmierung erläutern.
[5] Beim Optimieren ist den Entwicklern das sogenannte overfitting als immanenter Fallstrick ihrer Technik geläufig: Eine allzu gute, fehlerfreie „Internalisierung“ der Trainingsdaten kann auch darauf hindeuten, dass das Modell sich zu sehr an den Trainingsdatensatz angepasst hat – inklusive der in ihm vorliegenden zufälligen und wertlosen Korrelationen –, sodass das Modell für unbekannte Fälle keine brauchbaren Ergebnisse liefert. Das wäre kein Fortschritt gegenüber einer klassischen Datenbank aller bekannten Fälle.
[6] Paart man Bilder mit passenden Beschreibungen und trainiert das Modell mit Bildern und Sprache zugleich, kann man deren statistischen Zusammenhang in beide Richtungen fruchtbar machen: Man kann aus sprachlichen Beschreibungen Bilder generieren wie auch zu Bildern sprachliche Beschreibungen verfassen. Der Bildgenerator Midjourney bietet beide Richtungen an. Generiert man zu einem Bild eine Beschreibung und aus dieser wieder ein Bild, bekommt man nicht das ursprüngliche Bild zurück, sondern ein neu erzeugtes Bild, das unter den gegebenen Modellparametern gut zur Beschreibung passt.
[7] Korrelationen drücken für sich genommen keine Kausalität aus. Ist Merkmal A mit Merkmal B korreliert, so kann A der Grund für B sein, B der Grund für A, beide können einen gemeinsamen, unbekannten Grund C haben, oder die gemessene Koppelung kann einfach Zufall sein. In der Wissenschaft kann die Beobachtung einer Korrelation der Ausgangspunkt sein, die obigen Möglichkeiten zu scheiden und nach einem kausalen Zusammenhang zu forschen, der dann durch Experiment und Erklärung nachzuweisen ist. Dafür kann eine Klassifizierungs-KI Hinweise geben, insoweit als heuristisches Verfahren gelten, wenn sie nach ihrer Einstellung mit Trainingsdaten unerwartete Zuordnungen vornimmt und etwa kranke Hautpartien nicht, wie bekannt und erwartet, nach Flecken oder der Textur, sondern nach feinsten Farbunterschieden zu einer Klasse zusammenfasst – und so die Mediziner auf eine mögliche weitere, bis dahin unbekannte gemeinsame Eigenschaft der Fälle dieser Hautkrankheit aufmerksam macht. ‚Unser Wissen erweitert‘ wird natürlich erst, wenn die Wissenschaft sich ihren Reim auf die begriffslosen Leistungen ihres technischen Hilfsmittels gemacht, die neu entdeckte Gemeinsamkeit begriffen und ihren Grund ermittelt hat.
[8] Mehr Parameter erlauben eine Verfeinerung des statistischen Modells. So wird z.B. die Statistik der Wortgruppen in einem Satz auf Wörter in umstehenden Sätzen bezogen, sodass z.B. das Wort „Bank“ mit anderen Wörtern (z.B. „Wall Street“, „Central Park“) korreliert wird. Sprachlich ergeben sich diese unterschiedlichen Korrelationen aus den unterschiedlichen Bedeutungen. Letztere ersetzt die KI durch die Korrelationen, und zwar mit zunehmender Treffsicherheit, sodass sie im einen Fall dem deutschen Wort „Bank“ das englische „bank“, im anderen das englische „bench“ zuordnet.
[9] „Hunderte von KI-Programmen wurden entwickelt, um Covid zu erkennen. Keines von ihnen hat funktioniert.“ (MIT-Review, Juli 2021)
[10] Pedro Domingos: „Wer in der KI führt, dominiert wirtschaftlich und militärisch.“ (faz.net, 15.9.20)
[11] Die Firma Audi hat für ihre Qualitätsprüfung bereits das menschliche Auge durch Kameras ersetzt und das Beurteilen und Aussortieren einem KI-Programm übertragen: „Die selbst entwickelte Software erkennt und markiert automatisiert feinste Risse in Blechteilen... Die Lösung basiert auf Deep Learning, einer Sonderform des Machine Learning... Der Aufwand habe sich gelohnt, denn anhand der Beispiele lernt das neuronale Netz nun selbstständig und erkennt Risse auch bei neuen, bislang unbekannten Bildern. Mehrere Terabyte an Prüfbildern aus sieben Pressen am Standort
Ingolstadt und von mehreren Volkswagen-Standorten bilden die Datenbasis.“ (Künstliche Intelligenz in der Autoproduktion, it-zoom.de)
[12] Pohlmann et al. (2022): Künstliche Intelligenz, Bias und Versicherungen. Eine technische und rechtliche Analyse.
[13] Der prädiktiven Wartung dienen ungewöhnliche Geräusch- oder Verbrauchsdaten eines Düsentriebwerks als Hinweis auf sich anbahnenden Verschleiß, indem sie eine Inspektion auslösen. Ein Beispiel bietet der Triebwerkshersteller Rolls Royce: „Ein Airbus-A350-Flugzeug hat etwa 6 000 Sensoren, die täglich 2,5 Terabyte an Daten produzieren. Die Sensoren messen den Zustand und die Leistung und liefern Einblicke, indem sie alles, von Fluss, Druck und Temperatur des Treibstoffs über die Höhe und Geschwindigkeit des Flugzeugs bis hin zum Wetter und der Lufttemperatur erfassen.“ (proxisense.com)
[14] Eine der „selbstlernenden“ Trainingsmethoden ist es, in einem Satz (oder einem ganzen Textabschnitt) jeweils ein Wort zu eliminieren und dann die Modellparameter so zu justieren, dass ebendieses Wort als der wahrscheinlichste Inhalt der Lücke wiederentdeckt wird. 175 Milliarden Modellparameter sollte man schon haben, damit man ein Modell erhält, das Texte halbwegs plausibel fortschreibt.
[15] Soll man das Programm deshalb für „intelligent“ erklären? Die falschen Vorstellungen hinter dieser langlebigen Frage sind kritisiert in dem Artikel „Die Künstliche Intelligenz“ in MSZ 1989-4, heute erhältlich über msz.gegenstandpunkt.com.
[16] Fragt man z.B. nach einem Zeitungsartikel über ein fiktives Ereignis, bekommt man einen Artikel, wie er typischerweise hätte erscheinen können, gerne auch mit Quellenangabe – alles plausibel hingeneriert.
[17] Diesen Anspruch hält die EU so hoch, dass ihr bestimmte Rechts- und Verwaltungsentscheidungen als „Hochrisiko-Anwendungen von KI“ gelten.
[18] Dasselbe gilt für die Chancen bei Bewerbungen: „Die Tatsache, dass das Attribut ‚Geschlecht‘ in den Daten vorkam und historisch die große Mehrheit von Software-Engineers männlich war, führte dazu, dass das Modell diesen Zusammenhang als Regel lernte und Frauen kategorisch diskriminierte.“ (iX-Developer, Machine Learning, Winter 2020/21, S. 8)
[19] Bundesagentur für Arbeit: „Wir setzen unser Big-Data-System ein, mit dem wir Unplausibilitäten, Anomalien und Muster bei Abrechnungen suchen und erkennen können.“ (Nürnberger Nachrichten, 18.9.21)
[20] Dass der Rechtsstaat sich wiederum nicht alles erlaubt, was geht, dass die Geheimdienste mehr dürfen als die Polizei und dass manches, was die Polizei darf, erst von Richtern genehmigt werden muss, nimmt vom Prinzip der durch KI effektivierten Überwachung nichts zurück. Klarsichtig bemerkt und natürlich missbilligt wird diese Praxis bei anderen Staaten, wie etwa bei der globalen Internet-Abschöpfung durch die amerikanische NSA und der chinesischen Überwachung der Bevölkerung.
[21] „Am Ende soll nach Wunsch der DARPA [Defense Advanced Research Projects Agency] ein halbautomatisches System entstehen, das in der Lage sein soll, ‚Korrelationen zwischen scheinbar nicht zusammenhängenden Vorgängen zu identifizieren und dabei zu helfen, ein breites Narrativ über die Welt zu schaffen‘. Nicht weniger als eine Art Weltvorhersage- und Erklärmaschine. Man kann das größenwahnsinnig finden, aber immerhin sind auf DARPA-Initiative auch Dinge wie das Internet oder selbstfahrende Autos entwickelt worden.“ (SZ, 26.2.19)
[22] „Im offensiven Bereich kommen KI-gestützte Systeme in LAWS [tödliche autonome Waffensysteme] zum Einsatz, d.h. in Kampfdrohnen, Panzern, Kampfrobotern, Schiffen und U-Booten. Zu den Waffensystemen, die auf dem Weg zur Autonomie bereits weit fortgeschritten sind, zählen die Drohne HARPY (Israel), die Kamikaze-Drohne KUB-BLA (Russland), der Kampfpanzer T-14 Armata (Russland), die Helikopter-Drohne Blowfish A3 (China), das Drohnenkampfschiff JARI (China), der SGR-A1 Kampfroboter (Südkorea), der Sea Hunter (USA) sowie die Tarnkappen-Kampfdrohnen Taranis (GB) und nEUROn (Frankreich).“ (G. Reitmeier: Lizenz zum Töten: Künstliche Intelligenz in den Waffensystemen, Naumann Stiftung 2020)
[23] Dabei ergeben die Daten oft erst im Zusammenspiel mit anderen einen militärischen Sinn:
„Befehlshaber in der Bundeswehr müssen ständig ... Entscheidungen treffen, oft mit weitreichenden Folgen. Dazu brauchen sie belastbare Fakten. Doch diese sind zunehmend verborgen in schier undurchschaubaren Massen an Informationen: in Terabytes an Satellitenbildern etwa, aber eben auch in sozialen Netzwerken, Newsfeeds, Video- und Audio-Mitschnitten und weiteren unstrukturierten Datenquellen. Sie alle müssen durchsucht, die wesentlichen Erkenntnisse ermittelt und in Lageberichten zusammengefasst werden. Hier kann künstliche Intelligenz ihre Stärken ausspielen. Selbstlernende Algorithmen werten die Datenmassen unmittelbar aus, erkennen Zusammenhänge und leiten Handlungsempfehlungen ab. Selbst Einflüsse wie das Wetter oder aktuelle regionalpolitische und gesellschaftliche Entwicklungen können die Algorithmen dabei berücksichtigen.“ (Handelsblatt Journal ‚Future IT‘, Januar 2022)
[24] „KI-basierte Feuerleitung: Einsatz von KI zum Führen des Feuers und zum Verlegen der Kräfte in Gefechten mit hohem Artillerie-Anteil. Hierbei wählt die KI die Ziele, ermöglicht das Feuern ‚in den Stellungswechsel des Gegners‘, wählt Munition und Verbund von Wirkmitteln.“ (Künstliche Intelligenz in den Landstreitkräften, Amt für Heeresentwicklung 2019)
[25] Ein offener Brief des Future-of-Life-Instituts fordert ein sechsmonatiges Moratorium der Entwicklung großer KI-Modelle, bis rechtliche Regeln etabliert sind (März 2023). Ein Center for AI Safety in den USA verfasst einen Aufruf zur politischen Kontrolle und Regulierung der KI, den Hunderte von prominenten Wissenschaftlern diverser Nationen und Geschäftsleute der KI-Branche unterzeichnen (Juni 2023). In diesem Manifest werden „8 Examples of AI Risk“ beschworen, daraus die folgenden Zitate.
[26] Wenn man so will, liegt auch hier eine Form der Rationalisierung geistiger Arbeit vor: Den Internet-Plattformen, deren Ghostwriter-Service für Bachelor- und Examensarbeiten bislang für den fachlich kompetenten Prüfungsbetrug zuständig war, schwindet absehbar ihre Geschäftsgrundlage.
[27] „KI-Firmen versprechen Biden Wasserzeichen in KI-Inhalten.“ (SZ, 22.7.23)
[28] Die Firma OpenAI hat 40 menschliche „Labeler“ eingestellt, die 13 000 beispielhafte, politisch korrekte Ein- und Ausgaben verfasst haben – als erweitertes Trainingsmaterial zur Spezialisierung des Modells. Von den damit erzielten Ein-/Ausgaben wurden 30 000 Beispiele einer nachträglichen Bewertung durch die „Labeler“ unterzogen und damit das Modell weiter in die erwünschte Richtung getrimmt. (Siehe Long Ouyang et al.: Training language models to follow instructions with human feedback, 2022)
[29] Kongenial dazu: Dan Hendrycks: Natural Selection Favors AIs over Humans