Kurzfassung

Ein US-amerikanisches Gesetz erlaubt amerikanischen Behörden schon seit Jahren den Zugriff auch auf außerhalb der USA gespeicherte Daten.

Einrichtungen der US-Hyperscaler in Europa sind keine Lösung. Cloud Computing gerät immer stärker in die Kritik. Hoffnungen richten sich auf Open source und die Wiederentdeckung der Lokalität.

Warten auf politische Hilfesstellung erfordert viel Geduld. Die Unternehmen müssen die Angelegenheit in die eigene Hand nehmen und Stück für Stück ihre Lufthoheit zurückerobern.


Digitale Souveränität

Die Debatte ist wirklich nicht neu, seit 2016 gibt es den CLOUD Act, seit der ersten Amtszeit von Donald Trump, America first - US-amerikanisches Gesetz im Konflikt mit fast allem anderen nationalen Recht. Achtung: CLOUD steht für Clarifying Lawful Overseas Use of Data Act.

Zur Erinnerung: Der CLOUD Act bedeutet für US-amerikanische Firmen und für Firmen mit Sitz in den USA auf Erlass eines US-amerikanischen Gerichts die Herausgabe von Daten, auch wenn sie in einem Land außerhalb der USA gespeichert sind, unabhängig davon, ob dies nach dem Recht des betroffenen Landes erlaubt ist. US-Recht soll also in diesem Fall vorrangig vor nationalem Recht gelten. Die USA haben vollen Zugriff auf die Daten, wenn sie das wollen.

Die US-amerikanischen Firmen, vor allem Microsoft, haben mit nebulösen Erklärungen bei europäischen Unternehmen den Eindruck erweckt, ihre Daten seien vor dem Zugriff US-amerikanischer Behörden geschützt, wenn die Daten auf einer von ihnen mit Speicherorten in Europa betriebenen Cloud gespeichert sind. Nun musste vor dem französischen Senat ein hoher Microsoft-Funktionär unter Eid zugeben, dass ein solcher Schutz nicht garantiert werden kann. Dies war der berühmte Tropfen zuviel. Jetzt verschafft sich die Empörung Luft. Unternehmen fordern lautstark digitale Souveränität, Politiker plappern ihnen nach, ebenfalls lautstark.

Souveränität bedeutet allgemein Ausschluss von Abhängigkeiten, politisch, technisch oder wirtschaftlich.

Verbreiteter Irrglaube

Viele deutschen und europäischen Firmen sahen ihre Rettung darin, eine Public Cloud-Lösung zu wählen, deren Anbieter zugesichert hat, dass die Daten an einem Standort gespeichert sind, der dem europäischen Recht unterliegt. Das war schon spätestens seit dem CLOUD Act der USA ein Trugschluss. Seit der eidlichen Aussage des Chefjustiziars von Microsoft France vor dem französischen Senat muss nicht mehr drumrum geredet werden, man kann die Abhängigkeit von den USA und das Missfallen daran öffentlich zugeben.

Rechenzentren der US-Hyperscaler in Deutschland oder Europa sind kein Schutz vor dem Zugriff der US-Behörden, auch keine von ihnen betriebenen Treuhand-Modelle.

Oracle (derzeit als einziger US-amerikanischer Anbieter) wirbt mit dem Angebot einer Air-Gapped-Lösung. Unter Air Gap in strengem Sinne ist eine komplette physische Trennung zwischen zwei Netzwerken oder Systemen zu verstehen, sodass keine direkte Datenverbindung, z. B. über Kabel, WLAN oder Internet existiert. In vielen Mogelpackungen wird die Trennung allerdings nur als besonders geschütztes virtuelles Netzwerk oder über Firewalls hergestellt, oder auch nur über policies, denen man glauben kann oder auch nicht. Hier muss man genau hinsehen, die Unsicherheit bleibt.

Cloud-Computing in der Kostenfalle

Globalisierung und Cloud Computing waren mächtige Verlockungen, denen die Unternehmen gerne gefolgt sind. Doch inzwischen formiert sich Kritik an den großen Cloud-Anbietern immer deutlicher auch aus wirtschaftlicher Sicht. Die Firmen wurden lange Zeit mit günstigen Preisen in die Cloud gelockt und damit in die Abhängigkeit der Anbieter. Diese haben längst den Spieß umgedreht und angefangen, kräftig an der Preisschraube zu drehen. Datenintensive Anwendungen und vor allem die Nutzung generativer Künstlicher Intelligenz werden schnell kostspielig. Es muss sowohl für gespeicherte als auch für zwischen Verfügbarkeitszonen, Regionen und verschiedenen Clouds des Anbieters hin- und hergeschobene Daten bezahlt werden.

Oft fallen Ausstiegsgebühren für Daten an, die eine bestimmte Verfügbarkeitszone verlassen oder in sie hineinkommen. Die Kostenseite wird intransparenter und schwerer zu kontrollieren.

Hinzu kommt das drohende Vendor-Lock-in: Wenn ein Anbieter keine offenen Programmschnittstellen (APIs) und keine Transfermöglichkeiten für bei ihm gespeicherte Daten anbietet, bedeutet das eine Abhängigkeit, aus der man nur schwer wieder herauskommt. Dies trifft vor allem für die US-amerikanischen Anbieter zu, ganz besonders Microsoft.

Die Neuentdeckung der Lokalität

Wege aus der politischen, aber zunehmend auch wirtschaftlichen Abhängigkeit sind nicht neu. Die politische Abhängigkeit lässt sich vermeiden, durch eine Installation

  • on premises, auf eigenen Rechnern oder in einem eigenen Rechenzentrum,
  • in einer selbst vollständig kontrollierten Private Cloud,
  • in einem von einem nicht mit den USA verbandelten Anbieter betriebenen Rechenzentrum oder
  • in der Private Cloud eines ebenfalls nicht mit den USA verbandelten Anbieters.

Dies funkioniert allerdings nicht im Bereich der Künstlichen Intelligenz für die Parade-Produkte der US-Hyperscaler (Ausnahme mit Einschränkungen das Sprachmodell Llama-2). Sie können nur über die Clouds der Anbieter genutzt werden, ihr Code ist nicht erhältlich.

Der Silberstreif am Himmel einer besseren Zukunft sind Open Source-Produkte, die sich lokal oder in einer Cloud-Lösung von Anbietern außerhalb der US-Zugriffsmöglichkeiten betreiben lassen. Anbieter für Cloud Hosting jenseits der Reichweite des CLOUD Acts sind z.B. die französischen Firmen Mistral, OVHCloud, Scaleway, Clever Cloud oder aus Deutschland Ionos und Cloud&Heat, aus Österreich Anexia, um nur einige zu nennen.

Bisher hat man geglaubt, an den BigTechs gehe kein Weg vorbei, denn nur sie hätten das nötige Geld für die immer mächtiger werdenden Systeme und den Betrieb der immer teureren Rechenzentren. Für das Ende dieser Illusion haben die Chinesen gesorgt. Der DeepSeek-Schreck Anfang 2025 hat gezeigt, dass man mit deutlich kleineren Systemen und einem Bruchteil der Entwicklungskosten Leistungen erreichen kann, die mit den Amerikanern mithalten können und sie zum Teil sogar übertreffen. DeepSeek war keine Eintagsfliege. Inzwischen gibt es eine Phalance weiterer chinesischer Produkte und vor allem den spürbaren Willen der chinesischen Politik, die KI-Entwicklung an die Weltspitze zu treiben. Ganz nebenbei eine klatschende Ohrfeige für die verfehlte Sanktionspolitik der Amerikaner.

Ich vertrete die Ansicht, dass der Höhepunkt der großen Systeme der generativen Künstlichen Intelligenz bereits überschritten ist. Dafür gibt es mehrere Gründe:

  • Es scheint eine kritische Größe für die Sprachmodelle (LLMs) zu geben, bei deren Überschreitung die Systeme nicht mehr besser, möglicherweise sogar schlechter werden.
  • Die Qualität der Daten, mit denen die Systeme trainiert werden müssen, wird rapide schlechter. Schuld daran hat die schnelle Kommerzialisierung des Internets, die zunehmende Einbeziehung von Posts aus den Social Media und vor allem der stark wachsende Anteil künstlich erzeugter Daten (vgl. Selbstmord auf Raten)
  • Die Konkurrenz kleinerer spezialisierter und bezüglich ihres Outputs verlässlicherer Systeme formiert sich.

Unter dem Gesichtspunkt der wiederentdeckten Lokalität ist gerade der letzte Punkt für Unternehmen interessant. Man kann einen vortrainierten Chatbot aus dem open source-Spektrum verwenden. Von diesem Chatbot muss man nicht erwarten, dass er das ganze Wissen der Welt wiedergibt. Es reicht aus, wenn er Texte gut zusammenfassen und vernünftige deutsche Sätze zustande bringen kann. Diesen kann man mit firmeneigenen spezifischen Daten ergänzen und nachtrainieren (vgl. Eigene Chatbots bauen). Chinesische Firmen verkünden mit Stolz, dass ihre Open Source-Modelle (DeepSeek R1, Kimi K2 von MonshotAI) schon millionenfach heruntergeladen und in vielen Fällen auf spezielle Bedürfnisse der Benutzer angepasst wurden. Sie betonen den Wert, den diese Strategie insbesondere den Entwicklungsländern bietet, die für sich die Vorteile der KI nutzen wollen.

Open AI hat nun nachgezogen und angekündigt, seinerseits einige seiner Modelle zum Download anzubieten. Es ist kein lupenreines open source, aber immerhin open weights, d.h. der Code ist nicht sichtbar, aber die trainierten Verbindungsparameter sind zugänglich und veränderbar, beispielsweise durch ein Nachtraining mit firmeneigenen Daten. Der Vorteil besteht in der Abkoppelbarkeit von Cloud-Lösungen mit offener Flanke für Zugriffe US-amerikanischer Behörden gemäß CLOUD Act.

Eine weitere Sprosse auf der Leiter der digitalen Souveränität ist der Aufbau eigener Kompetenz, nicht das im Chorgesang der Klagelieder über die fehlenden Fachleute verharrende Warten bis der Arbeitsmarkt sie ausspuckt. Ein Kollateralnutzen solcher Initiativen ist dann die steigende Attraktivität auf dem Arbeitsmarkt, wenn eine Firma jungen lernbegierigen Informatikern in Zusammenarbeit mit erfahrenden Personen aus dem business eine Perspektive bietet, in der erlebbar Neues geschaffen wird.

Die Politik

Viele Beobachter der Szene vertreten die Ansicht, dass der Politik in Europa der ernste Wille fehlt. Sie produziert schwer durchführbare Regelungen mit verbleibender Rechtsunsicherheit, baut die Bürokratie weiter aus und kommt nicht voran mit der Finanzierung einer brauchbaren digitalen Infrastruktur. Politiker müssen nicht vom Fach sein, sollten aber wenigstens über eine Helikoptersicht auf die Technik verfügen. So bleibt es meist bei Schaufensterpolitik mit demonstriertem gutem Willen aber keinem wirklichen Interesse.

Nationale Initiativen scheinen mehr zu versprechen als das Warten auf den Brüsseler Koloss. Die schleswig-Holsteinische Landesregierung z.B. ist dabei, die gesamte öffentliche Verwaltung auf Open Source-Lösungen umzustellen. Die Stadt Schwäbisch Hall betreibt schon seit vielen Jahren eine Open Source-Officesoftware.

Eines von vielen Beispielen: Ecosia (Deutschland) und Qwant (Frankreich) haben unter dem Joint Venture European Search Perspective den europäischen Suchindex Staan entwickelt. Der Index erlaubt eine Suchsteuerung nach benutzerbestimmter und nicht nach von Medien mit höchstem Umsatz bestimmter Relevanz (Google, Bing). So werden auch der Überflutung mit Spam-Anzeigen Grenzen gesetzt (Quelle: BasicThinking vom 9.8.2025). Die solidere Indizierung macht die Suchmaschine auch interessant für Entwickler. Vergleichbare Beispiele lassen sich noch eine Menge finden.

Viele Firmen bauen ihre eigenen Chatbots, geschützt vor globalem Zugriff und angereichert mit eigenen Daten. KI-Projekte treten vermehrt aus dem Schatten des bloßen Dabeiseins heraus. Initiativen dieser Art scheinen zur Zeit im Aufwind zu stehen.

Fazit

Eine kleine Liste von Maßnahmen zur Reduzierung der technologischen, politischen und wirtschaftlichen Abhängigkeiten:

  • Verwendung von open source-Produkten: vortrainierte Sprachmodelle, Chatbots mit der Möglichkeit eines Nachtrainings mit spezifischen firmeneigenen Daten
  • ersatzweise Verwendung US-amerikanischer Produkte in open weights-Version sobald sie zugänglich und lokal installierbar sind
  • Beobachtung: die Software-Entwicklung außerhalb des US-Rechtsraums aufmerksam beobachten
  • und unbedingt firmeneigene KI-Kompetenz aufbauen und dabei besonders auf die Kommunikationsfähigkeit dieser Organisationseinheit mit den Geschäftsbereichen achten.

 

  Karl Schmitz • August 2025