Künstliche Intelligenz

Künstliche Intelligenz (KI) ist die Top-Rubrik in der Digitalisierung. Der Begriff ist der Mode folgend vom amerikanischen artificial intelligence übenommen und unterliegt weit verbreitet dem Irrtum, es handele sich irgendwie um Intelligenz. Es sei daran erinnert, dass das deutsche Pendant zur Central Intelligence Agency, alias CIA, einfach Bundesnachrichtendienst heißt. Einigen wir uns auf eine sparsamere Definition für KI: Software, die bisher nur Menschen zugeschriebene Leistungen erbringen soll.

 

Modemäßiger Missbrauch des Begriffs Intelligenz
 

Kaum eine Software, die nicht damit wirbt, Künstliche Intelligenz zu verwenden. Auswertungen, die nichts weiter als Statistik sind, schmücken sich mit dem Attribut. Normale langweilige Frontends von Banken-Software bescheren dem Kunden angeblich ein vor excellence strotzendes Erlebnis, alles dank Künstlicher Intelligenz. Große Worte und kleine Brötchen (wie das Beispiel Leonardo aus dem Jahr 2017 von SAP zeigt). Höchste Zeit, mit dieser Begriffsinflation aufzuhören und wieder auf dem Boden der Tatsachen zu landen.

Verschiedene KI-Arten
 

KI-Systeme sind die Königsklasse de Digitalisierung. Die ersten aufregenderen Systeme waren die Expertensysteme. Sie sollten auf der Grundlage vorgegebener Regeln selbständig Schlussfolgerungen anstellen können.

Es folgten die Neuronalen Netze, die mit speziellen Teach-In-Verfahren trainiert werden müssen. Die Stars von heute, 2022, gehören der Rubrik Maschinelles Lernen an, fälschlicherweise oft als selbstlernende Systeme bezeichnet.

Zuckerbergs Metaverse ist noch zu weit weg, um sich damit für heutiges Handeln relevant zu befassen.

Und natürlich gibt es auch die Phantasien um die Superintelligenz, der Versuch, die Vorgänge im menschlichen Gehirn zu simulieren, mit der Aussicht, dass dabei eine den Menschen weit überlegene Intelligenz herauskommen könne.

Fast alle wichtigen KI-Systeme haben mit überaus großen Datenmengen zu tun, sind also Big Data- und Cloud-Anwendungen.

Sogenannte Selbstlernende Systeme
 

Hier haben wir es mit den bisher fortgeschrittensten Systemen des Maschinellen Lernens zu tun. Die Systeme sind natürlich auf Feedback angewiesen: Wenn dies aber von seinen Benutzern kommen muss, bleibt das Lerntempo des Systems relativ langsam. Um es zu steigern, ist es vorteilhaft, wenn das System sein eigenes Feedback organisieren kann, beispielsweise durch Variationen in seinen gespeicherten Referenzmustern, mit denen es dann sein Input selber organisieren kann. Die Gefahr dabei ist, dass sich das Referenzsystem in nicht mehr nachvollziehbarer Weise verändert und somit eine Erklärung, nach welchen Algorithmen die Ergebnisse gefunden wurden, nahezu unmöglich wird. Fatal, wenn es sich bei den Ergebnissen um Entscheidungsvorschläge oder sogar automatisierte Entscheidungen handelt und noch fataler, wenn diese Entscheidungen Menschen betreffen. Man hat viele Versuche unternommen, solchen Systemen sozusagen moralische Grenzen einzuprogrammieren, doch ohne Erfolg.

Nützliche Beispiele
 

Predictive Analytics bezeichnet eine Technik, die mit Zugriff auf große Datenmengen und Mustererkennung Voraussagen über zu erwartende Ereignisse liefert.

Paradebeispiele hierfür sind die Vorbeugende Instandhaltung, wobei Informationen über Verschleiß und Reparaturanfälligkeiten von Maschinen und Anlagen oder Teilen davon systematisch gesammelt werden. Die Systeme können selbständig Aufforderungen versenden, sich um die Angelegenheient zu kümmern. Dies kann mit Wartungsplänen, sogar mit Personaleinsatzsystemen verbunden werden und dann die komplexe Steuerung des Wartungsbetriebs umfassen.

Bilderkennungssysteme können harmlos nützlich sein wie z.B. das automatische Öffnen einer Schranke für dem Unternehmen bekannte Lieferantenfahrzeuge. Sie können aber auch zu beliebig fortgeschrittenen Überwachungszwecken dienen, Paradebeispiel das chinesische Social Scoring-System, in dem brave Bürger Pluspunkte und nicht so brave Zeitgenossen entsprechende Minuspunkte sammeln müssen.

Kritische Beispiele
 

Top-Themen der Mustererkennung sind die Bild- und Spracherkennung. Letztere spielt eine immer größere Rolle für die Steuerung allmöglicher Computeranwendungen und kann die lästige Eingabe per Tastatur ersetzen. So weit so gut.

Wenn zur Spracherkennung als zweiter Aspekt die Erkennung von Verhaltensmustern oder Charaktereigenschaften dazu kommt, wird es kritisch, wie das Beispiel der Software PRECIRE von Psyware zeigt.

Vor allem im US-Wahlkampf hat die Technik das Microtargeting Furore gemacht, Experten sind der Meinung, dass sie für den Sieg von Donald Trump einen entscheidenden Beitrag geleistet hat. Im Mittelpunkt stand damals der Cambridge Analytica-Skandal. Und wenn es schon um Skandale geht, darf Meta, alias facebook natürlich nicht fehlen. Dem Konzern wird vorgeworfen, seine Algorithmen bewusst so progarmmiert zu haben, dass vorzugsweise hass- und wutorientierte Statements verbreitet werden.

Ein anderes Beispiel stellen Microsofts Office-Programme dar. Textverarbeitung, Tabellenkalkulation und ein bisschen Demo-Software, was soll da schon sein? Das war früher, Microsofts Geschäftssinn hat daraus eine wahre Eierlegende Wollmilchsau gemacht, ein Programmsystem mit dem Anspruch, den gesamten Bürobereich zu beherrschen. Der KI-Anteil bezieht sich auf das Graph-Hintergrundsystem, in dem alle Aktivitäten der Benutzer gesammelt und die Beziehungen der Benutzer untereinander registriert werden. Auf der Grundlage dieser Datenflut erarbeitet das System dann unter Zugriff auf die Daten ihres bisherigen Verhaltens Vorschläge, wie sie ihre Produktivität steigern können und bietet gleich dazu einen Haufen visualisierter Auswertungen, für einen selbst und natürlich auch für die Chefs. Schaut man genauer hin, so bedeutet Produktivität hier lediglich vermehrtes Benutzen der Microsoft-Software-Tools. Bedauerlicherweise sind die emotionalen Aspekte noch unterbelichtet. Deshalb arbeitet man fieberhaft daran, wie man die Befindlichkeit der Benutzer noch erfassen und in die Programmfunktionen integrieren kann (Microsoft Viva).

Wichtig sind auch die KI-Aktivitäten in Verbindung mit der Robotik. Avatare als Sprachroboter können eingesetzt werden, um Fragen von Benutzern zu beantworten oder kleinere Aufgaben sozusagen auf Zuruf auszuführen, von Amazons Alexa bis zu Bots, die Call-Center-Kunden beglücken sollen.

Bisherige Regelungsversuche
 

Der Koalitionsvertrag 2022 der Bundesregierung glänzt mit wohlklingenden aber vage bleibenden Absichtserklärungen (z.B. Glasfaser ausbauen, offene Standards durchsetzen, besserer Datenzugang, Persönlichkeitsrechte effektiv schützen, immerhin keine biometrische Erkennungssystem und keine Social-Scoring-Systeme im öffentlichen Raum . Leider kein Wort zu den Praktiken der internationalen HighTec-Firmen). Nichts Konkretes findet sich auch bei Arbeigeberverbänden und Gewerkschaften.

ver.di und IBM haben mit Förderung des Bundesministeriums für Arbeit und Soziales ein Projekt (Studie Künstliche Intelligenz: Ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt) abgeschlossen, das sich wie eine Werbebroschüre für die IBM-Technologien aus älteren Tagen liest. Herausgekommen ist unter anderem eine Konzernbetriebsvereinbarung Künstliche Intelligenz mit dem Slogan Das letzte Wort hat der Mensch und der letzten Regelungsinstanz eines Ethik-Rats.

Grundsätze für eine betriebliche Regelung
 

Eine Folgenabschätzung für das breite Spektrum des möglichen KI-Einsatzes ist schwierig. Noch sind die Anwendungsfälle insgesamt zu selten. Darüber hinaus erschwert das immense Entwicklungstempo jede seriöse Prognose. Und diese hängt maßgeblich davon ab, ob die Entwicklung dem Zufall oder den Interessen der die Technik betreibenden Unternehmen überlassen bleibt oder ob politisch steuernd eingegriffen wird. Hier stellt sich allerdings die Frage, wer die nötige Kompetenz hat, um das tun zu können.

Für die betriebliche Ebene jedenfalls kann man durchaus den Rahmen abstecken, welche Einsatzbereiche vertretbar sind, wo Vorsicht geboten ist und für welche Anwendungen es ein klares no go geben sollte.

Karl Schmitz, Januar 2022