Bias - Die verborgenen Vorurteile der Sprachmodelle

Wenn also vor allem weiße amerikanische Jungs in Kapuzenpullis Maschinen entwerfen und die Zukunft programmieren, ticken die Maschinen auch wie weiße amerikanische Jungs in Kapuzenpullis. Nur die Welt besteht nicht nur aus weißen amerikanischen Jungs in Kapuzenpullis.

Fei-Fei-Li, ehem. Chief Scientist Artificial Intelligence Google Cloud (2018)

Künstliche Intelligenz ist nicht von selbst schlau. Die Systeme, soweit sie auf Sprachmodellen, den sog. Large Language Models beruhen, haben eine Datenbasis, mit der sie trainiert und Algorithmen, mit denen sie entwickelt werden, beides nicht fehlerfreie Prozesse.

Die inkorporierten Vorurteile, Verzerrungen, Benachteiligung und Diskriminierungen von Farbigen, Frauen, ethnischen Minderheiten sind nichts Neues und oft beschrieben worden. Was aber sind die systemischen Ursachen der Verzerrungen?

Die Quellen der Verzerrung

Die Auswahl der Trainings- und Testdaten, die Algorithmen für ihre Aufarbeitung, die Notwendigkeit fortlaufender Aktualisierung und die in der Architektur der Sprachmodelle verwendeten Strukturen bergen Risiken für Verzerrungen:

Vokabular und Trainingsdaten

 

Die Systeme verfügen über eine sehr große aufbereitete Datenmenge, ihr sog. Vokabular. Die Qualität dieser Daten ist das A und O des gesamten Systems. Ein - ebenfalls noch sehr großer - Teil dieser Daten wird für das Basistraining verwendet.

Die Daten sollen repräsentativ für den späteren Verwendungszweck sein, ein schwieriges Problem und eine große Herausforderung, vor allem wenn es sich um eine Software der Kategorie Generative Künstlichen Intelligenz handelt, die sozusagen als Alleskönner und nicht für einen speziellen Zweck gebaut wurde.

Schon die Frage Was soll repräsentativ sein hat es in sich. Soll damit die Gesellschaft in ihrer Gesamtheit erreicht werden oder bezieht sich die Repräsentativität nur auf die Menschen, die das System bereits benutzen? Beide Gruppen sind nicht identisch. Orientieren die Anbieter sich an den tatsächlichen Benutzern, so können sie verschiedene Zwecke verfolgen, z.B.:

  • Eignung für zielgruppenorientierte Werbung,
  • Lieferung bestmöglicher Unterhaltung,
  • Orientierung an definierten demokratischen Werten,
  • nützlich für die Unterstützung der Dinge des Alltags oder
  • versuchsweise verzerrungsarme Wiedergabe von allem, was die Weiten des Internets, die Veröffentlichungen in den Printmedien und Online-Plattformen anbieten.

Worin die Repräsentativität der Trainings- und Testdaten besteht, wird von keinem der Anbieter thematisiert. Der Forderung nach Transparenz wird neuerdings noch nicht einmal durch Nennung der Datenquellen, meist einer Auswahl aus den riesigen zur Verfügung stehenden Datenpools, entsprochen. Für die Öffentlichkeit orientiert man sich eher an einer Negativliste wie das Ausschließen von Aufrufen zur Gewalt, Hasstiraden, verleumderischen und beleidigenden Statements, Ausschluss „irreführende und täuschenden Inhalte, einschließlich Desinformationen“ (Erwägungsgrund Nr. 84 des Digital Service Act der Europäischen Union) oder ganz allgemein an political correctness, nicht näher definierte Begriffe und daher frei interpretierbar.

Algorithmen der Filterprogramme
 

Die Bearbeitung der Datenbasis ist wegen deren gigantischem Umfang weitestgehend auf Algorithmen übertragen. Dabei kann man unterscheiden zwischen

  • Bearbeitung formaler und technischer Fehler in den Daten: Entfernung von Duplikaten und „Fremddaten“, Ergänzung unvollständiger Daten und ähnliches.
  • Ausschluss unerwünschter Daten: Ausschluss von Desinformationskampagnen, offensichtlich diskriminierenden oder verleumderischen Inhalten, Aufrufen zur Gewalt (s.o).
  • Vorgabe von Antwort-Schemata für besondere Aufgaben, z.B. Rahmenbedingungen und Muster für Zusammenfassungen und Handlungsanleitungen wie „Schreibe mir ein Drehbuch für...“ oder „Erstelle ein Konzept für ...“.

Für die verwendeten Algorithmen besteht die Schwierigkeit, die Grenze zur Zensur nicht zu überschreiten. Wenn einem System ethische Leitplanken verpasst werden, stecken darin immer gesellschaftliche Wertsetzungen. Es gehört nicht viel Phantasie dazu, sich vorzustellen, wie unterschiedlich dies in Gesellschaften mit enger und wenig toleranter Grenzziehung über erwünschte bzw. erlaubte Meinungsfreiheit im Vergleich zu einer liberalen Gesellschaft ausfällt.

Die ethischen Prinzipien sind für Algorithmen schwer zu operationalisieren. Die durch die Gesetzgebung wie den Digital Service Act der EU und dessen zu erwartender Umsetzung in nationales Recht angedrohten Bestrafungen verleiten die Betreiber zu exzessiver Handhabung der Löschung: lieber mehr löschen als hohe Bußgelder zu riskieren. Dies bedroht die Vielfalt der in den Daten repräsentierten Meinungen.

Um die Systeme zu befähigen, Aufgaben zu unterstützen, die von den Benutzerinnen und Benutzern gestellt werden, bedarf es einer nachträglichen Bearbeitung, vor allem im Rahmen des Finetunings. Hierfür wird meist auf das Reinforcement Learning (Verstärkendes Lernen) zurückgegriffen: Menschen müssen sich von Algorithmen markierte auffällige Outputs ansehen und ihnen entsprechende Labels verpassen, damit das System dann in Nachtrainings lernen kann, zukünftig solche unerwünschten Antworten selbst zu finden und auszuschließen. Diese Arbeiten lassen die Hersteller der großen Systeme von Heerscharen schlecht bezahlter Leute vorzugsweise in Niedriglohnländern mit engen zeitlichen Vorgaben durchführen.

Wenn dem System durch diese zusätzlichen Maßnahmen beigebracht wurde, sich an bestimmte Vorgaben zu halten, ist keineswegs sicher, dass dies auch geschieht. Die Antwortqualität der Systeme hängt in hohem Ausmaß von der Art der Fragestellung, dem sog. Prompting ab. Durch trickreiche Formulierung der Fragen oder durch Ausweichen in seltene Sprachen gelingt es immer noch, sich eine Anleitung zum Bombenbauen liefern zu lassen. Um dies auszuschließen, versuchen die Systembetreiber mit beachtlichem Aufwand ihre Algorithmen zu verfeinern, doch eher mit mäßigem Erfolg.

Aktualisierung der Systeme
 

Die Systeme können nur mit den Daten arbeiten, die für sie durch die umfangreichen Prozeduren des Tokenizing und der Vektorisierung aufbereitet wurden, ihrem sog. Vokabular. Informationen, die in den aufbereiteten Daten nicht enthalten sind, kennt das System nicht. Alle Outputs der Systeme sind nur nach geschätzten Wahrscheinlichkeiten vorgenommene Kombinationen von neu zusammengesetzten Teilen des Vokabulars.

Um ohne Halluzination auf aktuelle Fakten nach dem letzten Training antworten zu können, bedarf es regelmäßiger Aktualisierungen der Datenbasis. Dies kann betreffen

  • Neue Datenbestände: Sie verändern in der Regel die Repräsentativität der bisherigen Daten. Das ist nicht verwunderlich, denn die Gesellschaft ändert sich ja ebenfalls. Was sich durch die neuen Daten für die Repräsentativität der Daten verändert, wird von den Anbietern nicht transparent gemacht.
  • Neue oder veränderte Algorithmen: Viele Holprigkeiten aus den frühen Tagen der KI-Systeme werden mit Kinderkrankheiten entschuldigt. Um sie zu überwinden, muss ständig an den Stellschrauben der Systeme gedreht werden. Eine Ebene, um dies zu tun, ist die Veränderung der Algorithmen. Auch hier stellt sich die Transparenzfrage.
  • Neue Filterungen: Eine andere Ebene der Anpassung an die Aktualität sind die Filter für die Benutzerinputs. Die bisher weitgehend nur nach Ermessen der Hyperscaler erfolgende Regulierung wird Platz machen müssen für staatliche Eingriffe durch eine entsprechende Regulatorik - noch nicht abschätzbar.

Es wiederholen sich also dieselben Probleme wie beim Aufbau der Systeme, allerdings mit weit geringerem Aufwand. Problemfelder sind und bleiben:

  • Diversitätsverlust: Einen großen Vorteil hatten die Systeme von dem Vorliegen sehr großer Datenbestände zu identischen Themen in vielen verschiedenen Sprachen, übersetzt von dafür ausgebildeten Menschen. Dafür sorgten die großen internationalen Organisationen wie die UNO, die OECD, die EU usw. In dem Maße, in dem diese Übersetzungen maschinell erfolgen, fangen die Systeme an, sich sozusagen selbst zu verdauen; sie nehmen von ihnen erzeugten Output als neuen Input. Sprachliche Vielseitigkeit und Differenzierung werden tendenziell reduziert. Die prägende Wirkung der englischen Sprache wird immer stärker in den Vordergrund treten und dadurch weitere systematische Verzerrungen der Daten nach sich ziehen.
  • Aufblähung: Eine weitere Verschiebung entsteht auch durch die überproportionalen Vervielfältigungen von Informationen gleichen oder ähnlichen Inhalts, hochgradig befördert durch den Einsatz der KI-Instrumente selber. Die KI-Systeme werden sich also mit einer „Vermüllung“ bzw. moltofill-artiger Anreicherung ihrer Datenquellen auseinanderzusetzen haben. Besonders folgenreich betrifft dies den Wissenschaftsbetrieb. Wenn die Zahl der Veröffentlichungen und der Zitierungen zum Maßstab für die „Exzellenz“ wird, wie es von der Politik zur Bewertung der Universitäten durchgesetzt wurde, ist klar, was geschehen wird.
  • Kommerzialisierung: Eine ähnliche Wirkung ist von der deutlich zunehmenden Kommerzialisierung des Internets zu erwarten, vor allem der Zunahme von Werbeinhalten. Stichprobe Softwareprodukte: Will man sich über den Leistungsumfang einer Software kundig machen, so erfährt man, wie produktiv, vorteilhaft und wunderbar das Produkt ist, aber kaum, was es wirklich kann. Entsprechend nichtssagende Inhalte erleben eine überproportionale Vermehrung und erhalten dadurch - so darf vermutet werden - einen ebenfalls überproportionalen Anteil am Trainings-Dateninput der KI-Systeme,
  • Alarmismus: Medialer Output (Zeitungen, Zeitschriften, Rundfunk und Fernsehen, Filme, Soziale Medien) erfährt ebenfalls eine beachtliche Vermehrung - mit Auswirkungen für den Daten-Input der KI-Systeme. Hier spielt eine Besonderheit der Branche eine wichtige Rolle. Der - vor zwei bis drei Jahrzehnten noch unbestrittene - Charakter der Presse als Vierte Gewalt, die den Regierungen kritisch auf die Finger schaut, hat sich grundlegend verändert. Das Geschäft dreht sich um Aufmerksamkeit. Diese wird bekanntlich wesentlich besser durch alarmistische Botschaften befördert, im Vergleich zu faktenorientierten Mitteilungen. Mit Gefühlen lässt sich besser mobilisieren als mit Verstand, wenn es um Klickzahlen geht. Spitzenreiter dieser Trendverschiebung sind die Sozialen Medien. So verändert sich auch statistisch der Dateninput für die KI-Systeme. Alarmstufe rot wird erreicht, wenn die Postings der Sozialen Medien ins Training der Systeme einbezogen werden.

Die geschilderten Prozesse laufen unter dem Radar der öffentlichen Beobachtung ab. Sie werden Einfluss haben auf die zukünftige Qualität des von KI-Systemen zu erwartenden Outputs.

Architekturbedingte Verzerrungen

 

Betrachtet man die Neuronalen Netze, so sind eine Menge systeminterner Prozesse nicht ohne Auswirkung auf ihr Output. Das Transformer-Konstruktionsprinzip und sein Aufmerksamkeits-Algorithmus sind verglichen mit der menschlichen Intelligenz nur grobe Annäherungen. Die Systeme liefern Ergebnisse ohne zu „wissen“ was sie tun. Das durch Maschinelles Lernen gebildete „Bewusstsein“ hat wenig zu tun mit dem, was Menschen unter Bewusstsein verstehen. Welche systembedingten Auswirkungen auf die Ergebnisse der KI-Tools sich aus dieser Architektur ergeben, lässt sich heute noch nicht abschätzen.

Die hier vorwiegend für die mit Sprache hantierenden Systeme beschriebenen Prozesse treffen für andere Medienkanäle in ähnlicher Form zu, teils sogar in deutlicherer Ausprägung. Was die Systeme mit Bildern anstellen, hängt - wie bei der Sprache - vom vorhandenen Material ab und von den dort zu beobachtenden Entwicklungstrends.

Wirtschaftliche Rahmenbedingungen

 

Ein großes Problem stellt der Zeitdruck dar, dem sich zumindest die Anbieter der großen Systeme selber ausgesetzt haben. Google, mit der 2017 veröffentlichten Weiterentwicklung des Aufmerksamkeits-Mechanismus eigentlich der Entdecker der neueren Techniken, hat sich lange zurückgehalten, aus Gründen noch mangelhafter Sicherheit und Unzuverlässigkeit. OpenAI mit Microsofts Milliarden Dollar im Hintergrund hat diese Vorsichtigkeit jäh beendet. Microsoft ist dabei, die Tools in seine komplette Office-Software einzubauen und damit seinen Marktanteil abzusichern.

Unternehmensstrategien

 

Ob der Erfolg einer solchen Geschäftsstrategie nachhaltig ist, steht in den Sternen. Die im Topmanagement vieler Firmen aus Angst vor dem Verpassen eines Zuges verbreitete Ansicht, Dabeisein sei alles, ist wenig hilfreich. Man lässt sich - nach Empfehlungen der Anbieter (vornedran wieder Microsoft) - auf wahllose Pilotprojekte ein statt sich ernsthaft um den Aufbau einer eigenen Kompetenz sowie die Schaffung eines innovationsoffenen "Mindsets" zu bemühen, und dabei eine begleitende Qualifizierung der Beschäftigten nicht zu vergessen. Kein Fortschritt fällt vom Himmel.

Perspektiven und Hoffnungen

 

Inzwischen gewinnt die Erkenntnis, dass noch mehr Daten, noch mehr Trainingsparameter und noch mehr Computer-Power zu besserer Qualität der KI-Produkte führen, ernsthaft an Beachtung. Der Markt gerät in Bewegung.

Es mehren sich Angebote kleinerer Modelle, auch im Chatbot-Bereich. Der Hype um OpenAIs ChatGPT befindet sich im Abklingen und ist dabei, nüchterner Betrachtung Platz zu machen, die gezielter den praktischen Nutzen der Systeme ins Visier nimmt.

Zurzeit gibt es rund zwei Dutzend Large Language Models auf dem Markt, ein Teil davon immer noch open source. Nividia, eher für Hardware bekannt aber ebenfalls einer der big player im KI-Geschäft, hat angekündigt, mit RTX einen eigenen Chatbot auf den Markt zu bringen, der sich dadurch auszeichnet, ein vergleichsweise sparsames Sprachmodell zu verwenden, das mit eigenen Inhalten einer Firma nachtrainiert werden und lokal betrieben werden kann, jenseits der ansonsten üblichen Cloud-Lösungen mit den verbleibenden Restunsicherheiten darüber, was die Cloud-Anbieter mit den ihnen anvertrauten Daten "zur Verbesserung ihrer Services" anstellen. Eine ähnliche Strategie scheint Apple zu verfolgen, ohne großes Getöse die KI-Features einfach in die Smartphones einzubauen und so viel Funktionalität wie möglich dort auch lokal anzusiedeln.

Hilfreich für Unternehmen wären Angebote vortrainierter einfach gehaltener Sprachmodelle mit transparent gemachten Quellen ihres Vokabulars, von denen im Kern nur erwartet wird, dass sie vernünftige Sätze in der gewünschten Sprache erzeugen können. Diese könnte man dann mit Daten nachtrainieren, die für selbst definierte Verwendungszwecke ausgewählt wurden. Vorteil: Die Lufthoheit bliebe bei den Firmen und Anwendern.

Fazit

Die Technik der Neuronalen Netze bietet zahlreiche Quellen für Verzerrungen ihrer Ergebnisse. Die Strategie der großen Anbieter Big Data und Big Money verspricht keine Verbesserungen. Perspektiven für Unternehmen tun sich in dem Maße auf, in dem die Anbieter bescheidenere Modelle mit höherer Sicherheit und Verlässlichkeit verfügbar machen, die sich mit unternehmsinternen Daten nachtrainieren und nach außen schützen lassen.

 

Karl Schmitz Februar 2024