Ingrid Maas

Beitrag auf dem Forum Technik und Büro der IG Metall in Nürmberg am 25. April 2018, Update Januar 2022

Big Data - Fluch oder Segen?

Big Data ist im Augenblick das politische Modewort. Was steckt dahinter? Sehen wir uns zunächst die technischen Voraussetzungen an: Digitalisierung, Cloud Computing und Künstliche Intelligenz.

Digitalisierung

Die erste wichtige Voraussetzung für das große Big-Data-Geschäft ist die Digitalisierung:

Cloud Computing

Das Cloud Computing schickt sich an, die bisher vorherrschenden Client Server-Architekturen in den Unternehmen zu vertreiben:

Themenstellungen wie „Mobiles Arbeiten“, „Flexibilisierung der Arbeitszeiten“, „Führung virtueller Teams“ rücken in den Fokus der Arbeitswelt und damit (hoffentlich) auch der Betriebsratsarbeit.

Eigenentwickelte Software oder Kauf-Software mit in der Regel Lizenz- und Wartungsmodellen werden durch neue Geschäftsmodelle wie Platform as a Service (PaaS) oder Software as a Service (SaaS) abgelöst. Die Unternehmen bezahlen nach Nutzungsdauer und Verbrauch – so wie wir Wasser und Strom.

Wie erfolgreich und lukrativ das Geschäftsmodell Cloud Computing ist, zeigt sich auch darin, dass Unternehmen wie Amazon, Alphabet oder Microsoft im letzten Jahr mit enormen Wachstumszahlen im zweistelligen Bereich in diesem Segment aufwarteten.

Künstliche Intelligenz (KI)

Die dritte als immer wichtiger behauptete Voraussetzung ist die Künstliche Intelligenz. Die Grundidee dahinter ist: Wie bekommt man einen Computer dazu, das zu tun, was das menschliche Gehirn leistet – Dinge selbstständig zu erkennen, zu bewerten und eigenständige Schlussfolgerungen zu ziehen. Die Geschichte dieser neune Forschungsdisziplin zeigt eine bewegte Historie.

In den 1970-er Jahren entwickelte man zunächst die sogenannten Expertensysteme, deren Verarbeitung regelbasiert war und auf einprogrammiertem Expertenwissen beruhte. Diese Systeme stießen bald an ihre Grenzen, denn

Die Diskrepanz zwischen dem hohen Arbeitsaufwand und dem geringen Ertrag der Systeme führte in den 1980-er Jahren letztlich zu einer allgemeinen Ernüchterung und einer Eiszeit in der KI–Forschung.

In den 1990-er Jahren erhielt die KI-Forschung wieder Auftrieb durch den neuen Ansatz der Neuronalen Netze und den Versuch, nachzubilden, was im menschlichen Gehirn passiert.

Der aktuell hervorstechendsten Zweig der KI ist  das Maschinelle Lernen, oft auch etwas irreführend Selbstlernende Systeme genannt.

Von uns Menschen wissen wir, dass das Sammeln von Erfahrungen und Lernen erst durch die Verbindung von Geist und Körper (Sinnesorganen) möglich ist – das will man maschinell nachbauen.

Ein wichtiger Aspekt des maschinellen Lernens sind die Predictive Analytics, nämlich Vorhersagen, die auf statistischen Verfahren und Wahrscheinlichkeitsrechnungen beruhen.

Die Hoffnung ist, den Leistungsumfang der Systeme immer weiter zu erweitern und dem Menschen anzugleichen.

Aber aktuell ist unklar, wie z.B. Intuition, „Bauchgefühl“ entsteht, so ist z.B. das emotionale Gedächtnis unabhängig von der Häufigkeit des Auftretens eines Ereignisses. Auch ist es trügerisch, von der Häufigkeit auf die Wichtigkeit von Ereignissen oder Kontakten zu schließen

Letztlich basiert maschinelles Lernen auf Mustererkennung, und Algorithmen steuern die Verwendung der Daten.

Es lohnt sich, sich die Frage zu stellen, was können Computer gut und was auf keinen Fall. So sind Computer gut im

Darüber hinaus bleibt das selbstständige Lernen der sog. selbstlernenden Systeme aktuell immer noch mehr oder weniger innerhalb des geschlossenen, programmierten Regelsystems beschränkt.
Themenstellungen wie Intuition, Gefühle, Wertesysteme -  diese Dinge bleiben Menschen vorbehalten.

Jede Maschine macht nur, was Menschen ihr beibringen und das nur dort, wo Menschen sie einsetzen.

Die Systeme sind letztlich nur so gut, wie die Menschen, die sie programmieren.

Fei-Fei Li ist eine der klügsten Köpfe weltweit für die Entwicklung von künstlicher Intelligenz. Sie arbeitete seit 2009 in Stanford an einem System zur Bilderkennung und später als Chefentwicklerin für KI bei Google, seit 2021 ist sie als KI-Expertin Mitglied des Aufsichtsrats von Bayer. Von ihr stammt das schöne Zitat: „Maschinen haben kein eigenes Wertesystem. Sie spiegeln immer unsere menschlichen Werte wider“.

Wenn also vor allem weiße amerikanische Jungs in Kapuzenpullis Maschinen entwerfen und die Zukunft programmieren, ticken die Maschinen auch wie weiße amerikanische Jungs in Kapuzenpullis. Nur die Welt besteht nicht nur aus weißen amerikanischen Jungs in Kapuzenpullis.

Die „neuen“ Unternehmen und die Paradigmen der Big- Data-Geschäftsmodelle

Die einzelnen technischen Bauteile, selbst wenn sie Algorithmen beinhalten, sind für sich genommen erst einmal kein Grund für Alarmismus.

Jedes Kochrezept ist ein Algorithmus, jedes proprietäre Hostprogramm, schon jede Maschine mit einem Leitstand aus den 1950-er Jahren basiert auf Algorithmen. Neu ist, dass die Systeme jetzt mit riesigen Datenmengen gefüttert werden.

Neue Firmen mit neuen Geschäftsmodellen und Werten rücken damit in den Vordergrund, Firmen, deren Geschäftsmodell auf dem Sammeln und dem Verwerten der Daten ihrer Nutzer besteht.

Sie entwickeln daraus immer neue Geschäftsideen, mit denen sie ihr Portfolio erweitern oder ergänzen, sie beschränken sich nicht auf die eigene Branche  oder einen zentralen Markt  – wie es die meisten traditionellen Firmen noch tun -  sondern operieren weltweit mit ebenfalls weltweit gesammelten Daten und machen so gestandenen Branchenriesen ernsthaft Konkurrenz.

Die größten Datensammler und Datenveredler – Andreas Weigend,(ehemaliger Chefwissenschaftler bei Amazon), spricht hier von Datenraffinerien - sind amerikanische Firmen: Facebook, Google, Amazon, Apple und Microsoft.

Die Gefahr ist groß, dass es eine Machtverschiebung zugunsten dieser Big Five gibt, die den Datenmarkt beherrschen und die es kleineren, neuen oder traditionell aufgestellten Unternehmen unmöglich machen, an dem Geschäft der Datennutzung teilzuhaben und in diesen Markt einzudringen. 

Es entsteht ein Oligopol mit all seinen Vor- und Nachteilen. Die Nachteile werden verschärft, da dieses Oligopol international aufgestellt und tätig ist. Die national aufgestellten Staaten mit ihren nationalen Gesetzgebungen haben hier aktuell nichts entgegenzusetzen, weder zum Schutz ihrer Bürger und Bürgerinnen noch zum Schutz ihrer staatlichen Interessen.

Rekapitulieren wir kurz die Paradigmen dieser neuen Big Data-Geschäftsmodelle,

so ist festzustellen, dass die uns bekannten Prinzipien des Datenschutzes (Datensparsamkeit, Transparenz, Zweckbindung, „Recht auf Vergessen“) einen Großteil ihrer Regelungstauglichkeit verlieren.

In wie weit der aktuelle Aufstand von Politik und Presse bezüglich Facebook sich in einem Exempel-Statuieren erschöpft, das wenig nachhaltig bleibt und bald wieder verpufft,  oder ob das jetzt plötzlich entdeckte Problem mit dem Geschäftsmodell von Facebook dazu beiträgt, die Problemstellungen der massenhaften Datenverwertung wirklich strukturell und grundsätzlich und zwar im Sinne der betroffenen Bürger und Bürgerinnen zu lösen, bleibt abzuwarten.  

Die bisherigen Erfahrungen und die Blassheit der Akteure,  die bislang die Zukunft mit Werkzeugen der Vergangenheit lösen wollten, macht skeptisch.


Big-Data-Anwendungen - konkrete Beispiele und mögliche Folgen

Amazon

Schauen wir uns am Beispiel Amazon, das eher positiv wahrgenommen wird, an, wie die „neuen“ Firmen ticken und wie sie sukzessive ihre immer neuen Geschäftsideen und Geschäftsfelder vorantreiben.

Amazon, die Anwendung selbst kennt fast jeder. Was weniger bekannt ist,  dass Amazon der größte Cloud-Anbieter der Welt ist. Amazon bietet weltweit Speicherraum an. Firmen können einzelne Anwendungen oder auch ihre ganzen Systeme auf der Amazon-Plattform betreiben.

Angefangen hat Amazon mit dem Verkauf von Büchern in seinem Online-Shop. Der Anspruch war, überall erreichbar zu sein, 24 Stunden - 7 Tage die Woche - 365 Tage im Jahr.

Dazu benötigte man eine entsprechende Logistik. So entstanden riesige Lager, die sowohl von Amazon selbst als auch z.T. in Franchise durch externe Dienstleister betrieben werden.

Die technische Voraussetzung für das Funktionieren ist eine korrekte und vollständige Datenhaltung. Nur der Computer weiß, wo die Dinge liegen, jede Bewegung im Lager muss also registriert werden. Der Trend geht zur vollautomatischen Lagerhaltung, mit Picken durch Roboter und mit selbstfahrenden Flurfahrzeugen (Gabelstapler etc.). Auch die Verpackung ist automatisierbar.

In den USA experimentiert Amazon bereits mit dem Einsatz von Drohnen für die Auslieferung. Das Ziel ist eine vollautomatisierte Lieferkette, von der Bestellung über die Zusammenstellung, Verpackung der Waren bis zur Lieferung vor die Haustür.

Das Kerngeschäft – der Verkauf von Waren – wird ergänzt durch digitale Dienstleistungen:

Was mit Buchverkauf anfing, umfasst heute schon fast alles, was via Einzelhandel verkauft werden kann - und das weltweit und branchenübergreifend. Amazons Ziel ist, den Leistungsumfang immer weiter zu erweitern. Das Motto dabei: Ausprobieren was geht! Seien es neue Geschäftsfelder wie beispielsweise Whole oder Fresh Food–Lieferung von Nahrungsmitteln -  Musik und Filmdienste - oder neue Techniken wie Alexa.

Die digitale Assistentin Alexa und das dazu gehörende Gerät Echo ist für billiges Geld bereits ab 49 Euro (2018) erhältlich. Dabei handelt es sich um eine Integration von KI in die Big-Data-Anwendung, genauer um Spracherkennung.  Damit verbunden ist das Erfordernis, Alexa zu trainieren, um sie an individuelle Eigenheiten der Benutzer wie Idiolekt oder Dialekt anzupassen.

Damit hat man ein Frontend, das nur noch mittels Spracheingabe direkt mit dem Serversystem von Amazon kommuniziert. Es ist kein Browser mehr notwendig. Die Bestellung kann jetzt über Spracheingabe erfolgen. Alexa hört alles mit, was gesagt wird und versucht, die Schlüsselworte für den Einkaufsprozess, die Anfrage des Wetters oder was auch immer für eine Information gewünscht wird - zu erkennen.

Für den Einzelnen wird Alexa

Was Alexa wirklich alles aufzeichnet und auf den Amazon-Servern in der Cloud landet, was mit dem Gesprochenen dort geschieht, welche Auswertungen erfolgen, mit welchen anderen Daten es kombiniert wird, entzieht sich nicht nur den Besitzern, sondern auch ihren oft nichts ahnenden Gästen, die ebenfalls von Alexa ‚belauscht’ werden.

Dennoch: Amazon ist so erfolgreich, weil viele Kunden begeistert sind. Die Vorteile der Nutzung von Amazon für die Einzelnen liegen auf der Hand:

Die Nachteile treffen zunächst andere wie z.B.

Mittelfristig treffen die Auswirkungen aber auch den einzelnen Amazon-Kunden:

Das Beispiel Amazon zeigt, dass oft ein Nutzen für die Einzelnen in ihren persönlichen Lebenslagen entsteht und dass deshalb eine Kategorisierung in gut oder schlecht nicht wirklich weiterführt.
Wir sehen auch, wie sich die ‚neuen Unternehmen’ durch systematische Auswertung der ihnen zur Verfügung stehenden Daten immer breiter aufstellen, ihre Marktmacht ausbauen und damit traditionell aufgestellten Unternehmen immer mehr Konkurrenz machen.

Google

Spielen wir das Ganze jetzt nochmal am größten Big-Data-Projekt der Welt durch, an Google und seiner Suchmaschine.

Googles Suchmaschine ist weltweit kostenlos zugänglich - kostenlos - stimmt nicht ganz.
Wir - die Benutzer - bezahlen mit der Speicherung unserer Daten und unserer Suchbegriffe.
Google erhält täglich Milliarden von Informationen: u.a.

alles messbar und auswertbar.

Die wichtigste Geschäftsidee Googles beruht auf der zielgruppenspezifischen Werbung, die in die aufgerufenen Seiten eingeblendet wird. Damit macht Google noch über 80 Prozent seines Umsatzes.
Die Big Data-Methode dahinter ist das sog. Target-Marketing.

Die Geschäftsideen des Google-Konzerns reichen

Der Google-Konzern war es auch, der mit seiner Big Data-Anwendung Google Flu  2009 in Fachkreisen für Aufmerksamkeit sorgte.  Damals befürchtete man, dass die Vogelgrippe sich auf den Menschen übertragen und zu einer weltweiten Pandemie führen könnte. Erste Erkrankungsfälle wurden schon gemeldet. Ein Impfstoff  war noch nicht in Sicht.

Die Medien taten das Ihre: Bilder von tausenden getöteten Hühnern und von vermummten Menschen in Ganz-Körper-Schutzanzügen gingen durch Presse und Fernsehen, und die Vergleiche mit der Spanischen Grippe, die Millionen den Tod gebracht hatte, verfehlten bei vielen ihre Wirkung nicht.

Kurz vorher hatte Google in Fachzeitschriften veröffentlicht, dass seine neue Anwendung Google Flu Ort und Zeitpunkt von Grippeausbrüchen im Vorfeld prognostizieren könne.  

Wie war man vorgegangen:

Google verglich die veröffentlichten Grippedaten der US-Gesundheitsbehörden von 2003 bis 2008 mit den 50 Millionen am häufigsten eingegebenen Suchbegriffen der Google-Nutzer und Nutzerinnen in den USA, um festzustellen, ob sich die Eingabehäufigkeit bestimmter Suchbegriffe vor Ausbruch der Grippe verändert hatte.

Man überprüfte unterschiedliche mathematische Modelle durch Abgleich der Voraussage-Ergebnisse mit den tatsächlichen Grippedaten von 2007 bis 2008. So fand man schließlich tatsächlich ein Modell, mit dem man anhand der Auswertung von Häufigkeit und Korrelation von 45 Suchbegriffen die Ausbreitung der Grippe (Region und Zeit) erfolgreich prognostizieren konnte.

Die Behörden gewannen dadurch einen wertvollen Zeitvorsprung im Kampf gegen das Virus. Nach den Erfolgen der ersten Jahre musste Google die Anwendung wenig später jedoch wegen Erfolglosigkeit und falsch prognostizierten Grippeausbrüchen einstellen.

Das Beispiel zeigt, dass die Euphorie und die hohen Erwartungen, die mit Big Data-Analysen und Schlussfolgerungen oft verbunden sind, in der Realität auf Dauer nicht unbedingt Bestand haben, u.a. deshalb, weil sich das Benutzerverhalten mit Erhalt der Informationen verändern kann.

Gesellschaftliche Auswirkungen

Nicht nur Beispiele wie Google, Facebook und Amazon und ihre ständig erweiterten Services zeigen, dass die Auswirkungen von Big Data für die Gesellschaft als solche sehr virulent sind. So verwenden in den USA beispielsweise Bewährungsausschüsse in mehr als der Hälfte der US-Bundesstaaten Verhaltensvorhersagen auf Grundlage einer Datenanalyse, wenn sie entscheiden, ob eine Haftstrafe zur Bewährung ausgesetzt wird.

Und in immer mehr Städten der USA gibt es das predictive policing: Aufgrund einer Big-Data-Analyse werden Straßen, Gruppen und sogar einzelne Menschen stärker überwacht, nur weil ein Algorithmus sie als anfälliger für Verbrechen identifiziert hat.

Problematisch daran ist nicht nur, dass der Grundsatz, dass Menschen für ihre Taten beurteilt und verurteilt werden, hier verlassen wird, sondern auch, dass die Liste von Beispielen, die aufgrund von Verzerrungen der Datenbasis zu Nachteilen und Diskriminierungen für bestimmte Personen führen, immer länger wird.

Staaten und ihre Behörden gehören weltweit zu den größten Käufern, Verkäufern und Nutzern von Daten. Sie setzen zunehmend Softwaresysteme von privaten Unternehmen mit Predictive Analytics zur Analyse von menschlichem Verhalten ein. Die dahinter liegenden Mechanismen der KI und die programmierten Algorithmen bleiben jedoch die Geschäftsgeheimnisse dieser privaten Unternehmen.

Vor diesem Hintergrund sieht man, dass staatliches Handeln von Grundsätzen bestimmt wird, die der Staat selbst nicht kennt. Damit haben wir aus meiner Sicht unser Rechtsystem bereits verlassen.

Überaus bedenklich stimmen auch Beispiele wie der Trump-Wahlkampf. Das dort eingesetzte Mikro-Targeting der Firma Cambridge Analytica machte überdeutlich, dass durch Vermischung, Kombination und Anreicherung verschiedener Datenpools auch Rückschlüsse auf Personen kein Problem mehr darstellen und Raum für zielgenaue Ansprache – oder auch Manipulation bieten. Ich habe das bereits im November 2017 auf der IT-Engineering-Tagung der IG-Metall in Berlin gesagt, und ich bleibe bei meiner Einschätzung: Mit dieser Methode hat Donald Trump in den Swinging States seine Wahl gewonnen.

Das letzte Beispiel zeigt nicht nur die Gefahr, dass durch gezielte Manipulation die demokratischen Meinungsbildung unterhöhlt werden kann, es zeigt auch, dass datenschutzrechtliche Instrumente wie Anonymisierung und Pseudonymisierung von personenbezogenen Daten durch Big Data-Analysen zunehmend ihre Wirkung verlieren.

Konkrete Beispiele aus der Arbeitswelt

Die Predictive Analytics – so die Versprechungen -  sagen die Zukunft voraus, sei es zukünftiges Kauf-, Wähler- oder kriminelles Verhalten, Verlässlichkeit und Unvoreingenommenheit wird suggeriert - weil ja vom Computer ermittelt .

Promotet werden die Predictive Analytics nicht nur von den Unternehmen, deren Geschäftsmodell (Datensammeln, –veredeln) originär darauf ausgerichtet ist, sondern mittlerweile auch von traditionellen Softwareherstellern, deren Software bereits seit Jahren in den Unternehmen im Einsatz ist.  Sei es nun SAP, Oracle, Salesforce, Microsoft oder workday. Alle basteln wie verrückt an diesen KI-Features, weil sie meinen, sie können damit bei den Unternehmen punkten.

Und damit rücken diese Features immer mehr in den Fokus der Arbeitswelt. Hier gibt es durchaus auch positive Beispiele für deren Einsatz.

Instandhaltung

Vor allem bei der Instandhaltung steht die Verbesserung der Wartung und die Vermeidung ungeplanter Ausfälle im Zentrum der Bemühungen. Kritische Themen wie Verletzung von Persönlichkeitsrechten, Überwachung des Bedienerverhaltens stehen bei diesen Anwendungen zunächst nicht im Fokus.
Dennoch ist eine Ausweitung auf diese Themen kein Problem, da auch überwachungsgeeignete Daten in den Systemen vorhanden sind.

Die Chancen und Risiken hängen immer von der Philosophie des einzelnen Unternehmens und der Achtsamkeit der Betriebsräte ab – um z.B. Gefahren wie Dequalifizierung, Kontrolle der MitarbeiteiInnen und Mitarbeiter auszuschließen.

Betrachten wir deshalb das Thema Instandhaltung etwas genauer: Traditionelle Instandhaltungs-Systeme verwalten unter anderem Wartungspläne für Maschinen und Anlagen. Um ungeplante Stillstände zu vermeiden, liefern diese Systeme Hinweise, wann welche Maschinenteile ausgewechselt werden sollen. Die Informationen stammen aus dem über Jahre gesammelten Erfahrungswissen der Maschinenführer, Techniker und Ingenieure.

Was passiert, wenn ein solches Plant Management System als Cloud-Lösung  mit Big Data-Analysen angeboten wird? Dann stehen dem Anbieter Millionen von Daten über Material und dessen Verschleiß  zur Verfügung, erfasst weltweit von allen Unternehmen, die das System verwenden.

Alle neu eingegeben Daten werden vom System selbst – Stichwort KI und sog. Selbstlernende Systeme - zu neuen Optimierungen benutzt. Da ist nur noch ein kurzer Weg bis hin zu  einer Best Practice–Anwendung, die den Unternehmen dann wiederum als Service angeboten wird,  wann, was zu warten oder zu ersetzen ist, einschließlich kompletter Wartungspläne und maschinell erzeugter Arbeitsanweisungen.   

Was vorher hochqualifizierte Techniker und Facharbeiter mit ihrer Erfahrung vorgegeben haben, erhalten die Firmen jetzt per Service quasi auf Knopfdruck.

Die Risiken für die Beschäftigung in den Unternehmen sind leicht ableitbar:

Wenn BITKOM,  BSI und OECD sich unisono für die bedingungslose Grundsicherung aussprechen, lässt das vermuten, dass dahinter möglicherweise die Einschätzung steht, das Rationalisierungspotential der neuen Techniken sei höher als das Volumen neu entstehender Arbeitsplätze. Vor dem Hintergrund wäre die 28 Stunden-Woche nur ein Tropfen auf den heißen Stein.

Microsoft

Wichtig ist hier die systemische Relevanz und das Prinzip hinter Microsofts Office 365 (inzwischen M365) und seinem social graph. Alle Interaktionen werden vom System registriert:

Hieraus werden Schlussfolgerungen über meine Person gezogen:

so schlussfolgert das System.

Microsoft lässt sich in seinen Standardverträgen – wie alle großen Anbieter - von den Unternehmen vertraglich zusichern, dass es die Daten zur Verbesserung seiner eigenen Services verwenden und nutzen darf.  Problematisch ist dabei nicht nur, dass es sich um Personendaten handelt, sondern auch, dass die Algorithmen dahinter nicht offengelegt werden. Damit besteht keinerlei Transparenz, wie die Schlussfolgerungen und letztlich Bewertungen zustande kommen.

Was bedeutet das konkret? Ideale Profile - wie ein Arbeitnehmer zu sein hat - können erstellt und eine Abprüfung der Einzelpersonen mit diesen durchgeführt werden.

Der Grat zwischen Unterstützung der Tagesarbeit und Kontrolle wird leicht überschritten.

Nun erinnern wir uns an die Personalinstrumente, die in den Unternehmen gehypt werden: das Potenzial- und Performancemanagement, das Talentmanagement, die Bewerberauswahl – um nur einige zu nennen.

Wenn diese Instrumente jetzt mit den Schlussfolgerungen der Predictive Analytics, der Social Graphs kombiniert werden - ist das mehr als kritisch für den einzelnen Mitarbeiter!

Welche Mächtigkeit diese sozialen Graphen haben und welchen Druck zum Standard sie ausüben können, zeigt das Beispiel China, das ein digitales Punktesystem eingeführt hat, mit dem gute von schlechten Bürgern unterschieden werden.

Es gibt Pluspunkte für gewolltes Verhalten und Minuspunkte für Menschen, die irgendwie vom Standard abweichen oder gegen Regeln verstoßen. Trifft man sich mit einem Menschen mit niedrigem Punktekonto, können Minuspunkte die Folge sein. Das Punktekonto ist ausschlaggebend für Reisefreiheit, Wohnungsvergaben, Aufstiegs-und Berufsmöglichkeiten und vieles mehr. Mit unserem westlichen Wertesystem ist dies schwerlich zu vereinbaren.

Schlussfolgerungen und Fazit:

Die technischen Errungenschaften sind nicht zurückzudrehen. Die ‚neuen’ Unternehmen wurden gegründet von selbsterklärten „Gutmenschen“, die scheinbar das Ziel verfolgen, die Welt für den Menschen besser zu machen. Die Ziele waren durchaus lobenswert: Zugang zu Informationen für alle, basisdemokratische Ansätze...

Nach der ersten Euphorie (vgl. Arabischer Frühling) folgte die Ernüchterung (Facebook und Cambridge Analytica,  China). Heute sieht es eher so aus, dass wir die Kontrolle über unsere Daten nie mehr vollständig zurückbekommen.

Was sind die entscheidenden Fragen für die Zukunft, auf die wir gute Antworten benötigen?

Wir brauchen Schutz- und Haltelinien, Spielregeln im Umgang mit den Daten: was gehen darf und was nicht. Hier sind die Staaten mit ihren Regierungen gefragt, z.B. durch strafbewehrte Gesetzgebung zu regeln, was eine Datenraffinerie überhaupt und unter welchen Bedingungen verkaufen darf.

Was geschieht, wenn die Verfügungsmacht über die vielen Daten in die falschen Hände fällt – sei es von Staaten oder von Firmen?

Was die Arbeitswelt betrifft, benötigen wir tragfähige Konzepte, wie die Arbeitswelt der Zukunft gestaltet wird. Weit mehr muss geklärt werden als nur die Arbeitsverteilung zwischen Mensch und Maschine.  

Es braucht aus unserer Sicht auch ein Umdenken, welche Daten für die Verwaltung des Arbeitsverhältnisses wirklich erforderlich sind. Braucht es über 100 Soft Skill-Kriterien zur Performance- oder Talentvermessung von Beschäftigten – braucht es solche Tools überhaupt? Ist die Balance zwischen Persönlichkeitsrechten der Einzelnen und den Unternehmensinteressen überhaupt noch vorhanden?

Wichtig ist, dass wir auch als Einzelne

und im Hinblick auf die programmierten Algorithmen  - immer daran denken – die Welt besteht nicht nur aus amerikanischen weißen Jungs in Kapuzenpullis. Probleme, die diese Jungs nicht betreffen, halten sie nicht für wichtig, wissen vielleicht nicht einmal, dass es sie gibt und bilden sie deshalb auch nicht ab.

Ingrid Maas, April 2018, Update Januar 2022