Guidelines für den Einsatz von KI-Anwendungen

Im Folgenden nur ein kurzer Überblick aus dem Universum der vielen Möglichkeiten. Bei allem, was sich technisch tun lässt, sollte nicht vergessen werden, dass es sich um Menschen handelt, die mit der Technik umgehen müssen.

Szenario sinnvoller Anwendungen
 

Es ist wichtig, dass Künstliche Intelligenz nicht als angstmachendes Schreckgespenst durch das Unternehmen geistert, mit übertriebenen Befürchtungen über den Verlust von Arbeitsplätzen oder Phantasien allgegenwärtiger Kontrolle nach chinesischem Sozialpunkte-Modell. Es geht um eine realistische Sicht, die die Gefahren benennt, aber ohne Übertreibungen, und auch für das Unternehmen lohnende Chancen skizziert.

Das Unternehmen muss geeignete Formen finden, wie Führungskräfte und Belegschaft über das Thema sowie die Vorstellungen und Pläne des Unternehmens informiert werden und bleiben. Dazu bieten sich unterschiedliche Formen von Konferenzen, Versammlungen und Veranstaltungen sowie die Nutzung der internen digitalen Medien (Intranet, Foren, Newsfeeds u.ä.) an .

Kontrollierbare Pilotprojekte
 

Es ist wichtig, eigene Kompetenz zum Thema aufzubauen. Dazu eignen sich hervorragend klug ausgewählte Pilotprojekte, die sich eng an konsensfähige Ziele des Unternehmens anlehnen und einer transparenten Erfolgskontrolle unterworfen werden. Hierfür haben wir ein Beispiel ausführlicher beschrieben.

Ausschluss kritischer Anwendungen
 

Wir halten nichts von Ethik-Räten oder ähnlichen mit Kommissionsphilosophen besetzten Gremien. Wie will man Programmen eine Werteorientierung beibringen, wenn man selber die Werte nicht genau kennt? Bestimmte Anwendungen lassen sich auf dem Kenntnisstand von heute jedoch als kritisch für die Persönlichkeitsrechte benennen:

  • Das in vielen Systemen notorische und so gut wie nicht vermeidbare Protokollieren so ungefähr aller Benutzeraktivitäten sollte strikt an die Zwecke •Analyse und Korrektur von Fehlern und •Gewährleistung der Systemsicherheit gebunden und der Zugriff aus wenige Personen der technischen Administration begrenzt werden.
  • Im Bereich der IT-Security sollte die strukturelle Sicherheit Vorrang vor der vermeintlichen Sicherheit KI-gestützter Mitarbeiterüberwachung haben (z.B. durch Segmentierung des Firmennetzes). Es gibt zahlreiche gute Lernprogramme zum sicherheitsbewussten Verhalten; die sollten auch eingesetzt werden.
  • Auf die Nutzung von Systemen der automatisierten Gesichts- und Spracherkennung im internen Betrieb sollte verzichtet werden (Damit sind nicht Telefonie und Videoconferencing gemeint; hier allerding bedarf es Apsprachen über die Umstände erlaubter Speicherung von Bildern, Videos und Sprache der Mitarbeitenden).
  • Auf Systeme mit KI-gestützter Stimmanalyse oder Analyse der Körpersprache (Sentimentanalyse, andere Formen des affective Computing, Emotionsscanner in Chatfunktionen) sollte verzichtet werden.
  • Mustererkennung bezogen auf das Verhalten der Mitarbeitenden ist ein schwieriges Thema (siehe Microsoft Graph). Um abweichendes Verhalten diagnostizieren zu können, bedarf es eines Leitbildes für die Normalität. Diese verborgenen Normen sind nicht bekannt und hochgradig fehleranfällig.Urteilsfehler
    Wenn also vor allem weiße amerikanische Jungs in Kapuzenpullis Maschinen entwerfen und die Zukunft programmieren, ticken die Maschinen auch wie weiße amerikanische Jungs in Kapuzenpullis. Nur die Welt besteht nicht nur aus weißen amerikanischen Jungs in Kapuzenpullis.
    Quelle: Fei Fei Li nach Ingrid Maas in BigData-Fluch oder Segen, tse.de 2022
  • KI-Anwendungen mit Mustererkennungsfunktionen, die auf das Benutzerverhalten bezogen sind, neigen zu Übergriffigkeit, indem sie meinen, den Benutzerinnen und Benutzern vorschreiben zu müssen, was sie als Nächstes tun sollen. Unternehmen, die diesem Leitbild des betreuten Arbeitens folgen, sind hier bestens aufgehoben. Sie dürfen sich aber nicht wundern, wenn sie an Computern klebende Beschäftigte haben, denen Eigenständigkeit, Kreativität und Initiative langsam abhanden kommen. Manfred Spitzer hat diese Schäden in seinem Buch Cyberkrank anschaulich beschrieben.
  • Besondere Aufmerksamkeit verdienen Systeme, die automatisierte Hilfen bei der Beurteilung von Beschäftigten liefern. Dies geschieht oft in Scoring-Listen für Auswahlentscheidungen. Hier verschwindet die Trennlinie zwischen nützlicher Arbeitserleichterung für die Personaler und Verletzung der Persönlichkeitsrechte in einer breiten Grauzone.
Verfahrensregelungen
 

Man kann die genannten Punkte und natürlich noch vieles mehr in Leitlinien, Guidelines oder Betriebsvereinbarungen verpacken. Was auch immer man tut, es ist wichtig, die später Betroffenen an der Formulierung dieser Leitbilder zu beteiligen. Dass die Halbwertszeit solcher Regeln sehr kurz ist, bleibt dem hohen Entwicklungstempo der Technik geschuldet. Also gehören die verabredeten Regelungen in nicht allzu langen Intervallen immer wieder auf den Prüfstand.

 

 

Karl Schmitz, Juli 2022