Kurzfassung

Die technischen Details der KI-Brille werden umfangreich dargestellt, auch das, was der Hersteller Meta verschweigt.

Der vermutet richtungsweisende neue Trend für die KI-Technik liegt in der Vorverlagerung der Technik direkt in die Aufmerksamkeit und in der Konstruktion eines visuellen Alltags-Gedächtnisses.

Was vor allem die mentalen Folgen des regelmäßigen Tragens der Brille betrifft, sind Sie aufgerufen, selber eine Bewertung zu finden.


Brillen mit eingebauter Objekterkennung


Brille und Armband

Angekündigt für April 2026: Intelligente Brille - Starker Style: Metas Brille mit Option für Gesichtserkennung, Ray-Ban Meta Smart Classes der Name, Kosten ab 400 € aufwärts (Preis Anfang März 2026, ohne Extras), je nach Wahl als Sonnenbrille, mit klaren Gläsern, angepasst auf Einstärke oder auch mit Gleitsicht (mit entsprechenden Aufpreisen).

Fotos und Videos kann man entweder über die Brille mit Drücken auf einen Knopf im oberen rechten Brillenbügel machen bzw. Gedrückthalten dieses Knopfes oder per Sprachbefehl Hey Meta take a photo oder Hey Meta start a video und nochmal Drücken auf den Knopf am rechten Bügel, damit das Video aufhört. Vielleicht gibt es bald ja auch etwas für Linkshänder.

Telefonieren kann man selbstverständlich auch mit der Brille. Sie hat zwar keine SIM-Karte und ist dehalb per BlueTooth mit dem Smartphone verbunden, das man natürlich immer dabei hat. Anrufen geht auch einfach über Sprache: Hey Meta call und den Namen der Person nennen, die man anrufen will, Anrufe annehmen mit Doppeltippen auf den Bügel oder ebenfalls in trautem Zwiegespräch mit dem Brillenfreund: Hey Meta answer call. Alle Funktionen sind ebenfalls über die Meta View-App bzw. Meta AI-App wie sie demnächst heißt, auf dem SmartPhone bedienbar.

Der Ton kommt über die offenen Lautsprecher der Brille, sodass man gleichzeitig die Umgebung noch mit bekommt, also man auch nicht überfahren wird, wenn man wegen schallisolierten Kopfhörern das heranbrausende Auto nicht gehört hat. Super auch der Video-Anruf, bei dem die damit beglückte Person durch die Kamera des Anrufers mitsehen kann. Typische Szenarien:

  • Bein Einkaufen oder bei einer Panne mit dem Lastenfahrrad: Zeig mir das mal.
  • Opa will sein strahlendes Enkelkind sehen.
  • Meine Liebste will wissen: Was siehst du gerade?
  • Ich merke mir, wo ich geparkt habe und tippe schnell auf meinen Brillenbügel
  • oder für Drehbuchautoren: Der Bösewicht ist gerade im Museum bei einem Bilderraub, kein Kunstexperte, weiß nicht, ob er vor dem richtigen Manet steht, aber er kann seinen Kumpel draußen fragen.

Die Technik

Es war nicht einfach, belastbare und einigermaßen vollständige Informationen über die Technik von Metas KI-Brille zu sammeln. Hier ist, was sich finden und überprüfen ließ:

Kamera

Am oberen äußeren Eck des aus Benutzersicht linken Glases ist eine Kamera mit 3 mm großem Super-Weitwinkel-Objektiv eingebaut, leicht nach vorne gerichtet, sodass sie ungefähr das aufnimmt, wohin der Kopf zeigt, technisch völllig ausreichend für Social-Media-Aktivitäten, 12 Megapixel für eine Auflösung von 4032 x 3024 Pixel.

Lautsprecher

Zwei kleine Open-Ear-Lautsprecher befinden sich in den Bügeln. Bis zu fünf Mini-Mikrofone sind im Rahmen und den Bügeln verteilt.

Batterien


Das aufladbare Brillen-Etui

Ebenfalls dort einbebaute Akkus sollen für eine Laufzeit bei nicht zu viel Videoaufnahmen bis zu acht Stunden(allerdings nur bei „typical/moderate usage“) sorgen. Mit Audio-Betrieb am Stück sind es nur noch fünf Stunden und bei viel Video auch „deutlich weniger“. Es gibt ein aufladbares Lade-Case in Form eines lederfarbigen Etuis, mit dessen Hilfe sich die Nutzung, wiederum „typical moderate“, bis 48 Stunden verlängern lässt, wenn man die Brille immer mal wieder in das Lade-Etui packt.

Speicher

Ein Qualcomm-Snapdragon-Chip, ebenfalls in einem Bügel untergebracht, stellt die Kamera-, Audio- und KI-Funktionen zur Verfügung. Daneben sitzen die Speicherchips und Funkmodule für Bluetooth- und WLAN-Verbindung. Der lokale Speicher soll 32 GB umfassen. Wenn man irgendetwas mit der Brille außer Durchschauen anfangen will, braucht man die Kopplung mit dem Smartphone. Das läuft über die Meta AI-App, die man dort installiert haben muss. Standardmäßig werden die Daten von der Brille über die App übertragen und gleich in die Merta-Cloud befördert. Man kann diese Automatik in Voreinstellungen - sehr umständlich - abstellen, aber dann kann man nicht mehr viel mit der Brille anfangen.

Meta erhält Zugriff auf die Cloud-Daten, sobald KI-Funktionen genutzt werden, also schon, wenn man eine einfache Frage stellt oder Hinweise zu gesehenen Objekten haben will. Meta gibt zu, dass die Daten zu Trainingszwecken der KI-Software genutzt werden und dabei auch Prüfer und sogenannte Annotatoren Zugriff bekommen können.

Die Speicherung der Daten in der Cloud wird über das Meta-Nutzerkonto verwaltet, optimal mit Zwei-Faktor-Authentifizierung. Meta gibt an, dass die Brillendaten nach 30 Tagen gelöscht werden. Eine Verschlüsselung der Daten wird nur für die Übermittlung in die Meta-Cloud angegeben. Wir erfahren nichts über eine serverseitige Verschlüsselung oder eine Mandantentrennung zwischen Nutzern in der Cloud (ChatGPTs Thinking-Recherche zeigen).

ChatGPT: Was ich in den frei zugänglichen Meta-Quellen nicht sauber belegt gefunden habe, ist eine detaillierte technische Aussage wie: „lokale Daten sind mit Verfahren X verschlüsselt, Transport mit Y, serverseitig mit Z abgesichert“. Dazu wäre ich vorsichtig und würde nichts Konkretes behaupten, das Meta öffentlich nicht klar dokumentiert. ... Ich kann nicht belastbar behaupten, wie Meta auf Serverebene die Trennung eines Brillennutzers von anderen Brillennutzern konkret implementiert. Dafür fehlen in den öffentlich zugänglichen Meta-Quellen offenbar die Detailangaben.

Quelle: ChatGPT 5.2 Thinking 10.3.2026, 13:20 Uhr

Außerdem gibt es noch einen vierten Speicherbereich, die Saved Memories: „Dabei merkt sich Meta AI persönliche Details aus euren Chats, um später passendere Antworten zu geben“. Hier werden von der Meta KI für relevant gehaltene Daten über Vorlieben oder nicht näher bezeichnete persönliche Umstände gespeichert. Man kann aber auch selber veranlassen, dass dort Daten gesammelt werden, z.B. „Hey Meta Remember that I live in Hamburg and that I work as a software developer“. Man kann diese Einträgespäter editieren und auch löschen, das sieht dann so aus:

  • Prefers Italian food
  • Lives in Hamburg
  • Works as a software developer

Das waren jetzt bewusst brav ausgewählte Einträge.

Gewicht

Je nach Ausführung wird das Gewicht mit 58 bis 53 g angegeben (zum Vergleich: meine Wegwerf-Lesebrille aus dem DM-Shop wiegt 30 g, die Lesebrille meiner deutlich schöner aussehenden Frau 18 g). Die Werbung lobt die Wunderbrille mit dem Hinweis, dass sie mit all den KI-Funktionen nur ca. 10 g schwerer ist als die „normale“ Ray-Ban-Sonnenbrille.

Latenzzeit

Ein ganz wichtiger Faktor ist auch die Latenzzeit, d.h. die Dauer, bis von der Künstlichen Intelligenz eine Information bei der Brille ankommt. Meta schweigt dazu beharrlich, die Chatbots trotz Thinking-Modus finden auch keine Information und begnügen sich mit Schätzungen nach dem Prinzip des Indizienbeweises. ChatGPT 5.2 kommt nach langem „Nachdenken“ zu dem Ergebnis:

Einen veröffentlichten Durchschnittswert gibt es offenbar nicht; in der Praxis solltest du eher mit „ein paar Sekunden“ rechnen, bei Vision/Kamera-KI eher mehr. Das ist die ehrlichste Antwort auf Basis der derzeit öffentlich auffindbaren Informationen (ChatGPT 5.2 am 9.3.2026).

Also vorerst noch ist Warten angesagt, vor allem wenn Fotos oder Videoclips von der entfernten KI über deren Cloud-Verbindung erst analysiert und dann kommentiert werden müssen.

Sollten Sie erwägen, sich eine solche Brille anzuschaffen, so haben Sie jetzt eine Menge Infos um sich eine Meinung zu bilden, was für Sie wichtig ist.

Die Planung

Meta AI ist angekündigt für April 2026, auch in Deutschland, vorausgesetzt die Datenschützer werden in Schach gehalten. Ein kurzer Überblick:

  • Erklären was man sieht: Einfach fragen Hey Meta, was sehe ich gerade? Oder Beschreibe, was vor mir ist. Oder übersetzen, wenn ich in Island vor einem Verbotsschild mit der Aufschrift You are fined stehe: Hey Meta, übersetze mir diesen Text. In einer fremden Stadt vor der Oper kann ich fragen: Hey Meta, wo ist der Eingang? Für die Werbeindustrie tun sich mit Produktinformationen ungeahnte Möglichkeiten auf, wenn ich durch einen Laden gehen kann, mir Dinge im Regal anschaue, die Kamera ein Bild oder eine kurze Videosequenz aufnimmt, die Künstliche Intelligenz Meta AI die Aufnahme analysiert und einen Text erzeugt, der über die eingebauten Lautsprecher in der Brille gesprochen wird.
  • Visuelles Gedächtnis: Die Brille soll sich Dinge aus der Umgebung merken können, z.B. Hey Meta, merke dir wo ich mein Fahrrad abgestellt habe. Und später kann ich dann fragen: Hey Meta, wo war mein Fahrrad? Die Kamera nimmt eine kurze Videosequenz auf, ermittelt die GPS-Koordinaten, bekommt eventuell auch Funknetz- oder WLAN-Daten und ermittelt den Zeit-Stempel. Gespeichert wird alles zusammen über die Meta-App in der Meta-Cloud. Bei der Nachfrage, wo mein Fahrrad ist, passiert im Prinzip das Gleiche: Standort ermitteln, Route zum Abstellort berechnen, mir per Sprache das Ergebnis mitteilen und wenn ich Glück habe gleich die Navigation starten, vorerst allerdings nur per Sprache. Das ist erst der Einstieg in ein ehrgeiziges viel umfassenderes Konzept Externes Gedächtnis für Alltagssituationen (Schwierigkeiten erklären).
    GPS-Daten sind leider oft ungenau oder können nicht genau ermittelt werden. Die Umgebung kann sich in der Zwischenzeit geändert haben, es muss nicht gerade ein Erdbeben sein, aber ein inzwischen vollgestellter Parkplatz kann schon genug Probleme bereiten. Oder ganz einfach, es ist dunkel geworden. Da die Brille kein Display hat, muss sie die Navigation per Audio vornehmen und kann schnell in Schwierigkeiten geraten, wenn es Missvertändnisse beim Gehörten gibt. Und dann sind da noch die Auflagen aus dem Datenschutz: Das System muss entscheiden, was wo und wie lange gespeichert wird.
  • Gesichtserkennung. Die Idee, noch nicht offiziell aber in fortgeschrittener Planung: Man schaut eine Person an, die Brille bzw. Meta AI erkennt das Gesicht und nennt den Namen mit weiteren zugeordneten Informationen, entwerden per Sprache oder eingeblendet in eines der Brillengläser. Für Europa mit der Datenschutz-Grundverordnung wird es etwas schwieriger. Deshalb soll erst einmal nur der Zugriff auf die in den Meta-Platformen Facebook und Instagram gespeicherten eigenen Kontaktdaten erfolgen. Denn die Benutzerinnen und Benutzer haben bereits im Kleingedruckten der Geschäfts- und Nutzungsbedingungen zugestimmt, dass Meta die Daten „zur Verbesserung seiner Services“ benutzen darf. Die Daten von Personen des öffentlichen Lebens, so die Meinung bei Metas Juristen, darf man selbstverständlich auch nutzen, Motto Gelebte Demokratie - so kann man endlich seinen Abgeordneten in der Menge erkennen - sollte man ihm einmal begegnen.

Wenn Sie wissen wollen, was Metas Konkurrenz bietet: Übersicht zeigen.

Und Metas Konkurrenz?

Google und Apple arbeiten an ähnlichen Projekten, Google an seinem Betriebssystem Android XR, das Gemini auf Brillen bringen soll und verfolgt eher ein Konzept, das nicht wie bei Meta an ein Produkt gebunden ist, sondern als Leistungspaket Partnern für die Einbindung in ihre Produkte verkauft wird. Parallel dazu entwickelt die Google-Tochter DeepMind einen See-what-you-see-Assistenten, der auch mit Brillen funktionieren soll – genau die Art visueller Assistenz, die ebenfalls Meta anstrebt.

Apple ist zurzeit etwas hintendran mit seinem nicht so recht reussierenden Headset-Produkt Vision Pro. Smart Glasses gibt es vielleicht ab 2027.

Auch die Deutsche Telekom bemüht sich um den Anschluss, mit Magenta AI, einer Hardware von RayNeo und Design von Essilor Luxottica, alles zugekauft, so geht zurzeit Innovation made in Germany.

Was sich mit den Smart Glasses tut, betrifft nicht nur ein nettes Gadget, sondern stellt ein neues Prinzip für eine durch Künstliche Intelligenz gesteuerte Technik dar. Hier die wichtigsten Aspekte:

  • Strategische Grundsatzentscheidung: Smart Glasses sind ein neues Mensch-Maschine-Interface, nicht das, was Elon Musk mit seiner Firma NeuraLink vorhat, die dafür einen Chip ins Gehirn implantieren will, sondern etwas bescheidener: Technisch betrachtet wird die Computer-Connection vorverlagert, direkt in die Aufmerksamkeit der Menschen. Rechnerleistung wird unmittelbar in die Wahrnehmung integriert. Trotzdem ein Quantensprung für die enger werdende Mensch-Computer-Bindung.

    Funktionen, die bisher dem Smartphone zugeordnet waren, lassen sich in großen Teilen auf die SmartGlasses vorverlagern, unmittelbarer und dichter bei den Menschen. Dadurch werden heute noch nicht bekannte Anwendungsfelder erschlossen. Die Integration der Computer in das Leben der Menschen kann weiter voranschreiten, zusammen mit anderen wearables, z.B. Internet-fähigen Kleidungsteilen.

  • Alltagstauglichkeit: Man hat die Hände frei, Smart Glasses sitzen dort, wo die Aufmerksamkeit ohnehin ist. Computer müssen sie sich nicht erst beschaffen, sie fällt sozusagen automatisch in den Computer hinein, ohne dass die betroffene Person das merkt. Die Künstliche Intelligenz erhält einen natürlichen Zugang zum Alltagsgeschehen: sehen, hören, sprechen ohne ständig ein Handy aus der Tasche zu holen. Der Nutzen der angebotenen Dienste wird unmittelbar erlebbar. Und das Angebot steigt beharrlich, externe Dienste wie Spotify, Amazon Music, Audible, iHeart, Fitness-Apps, medizinische Services lassen sich sprachgesteuert über die Brille nutzen.
  • Audiovisuelles Computergedächtnis: Über die Daten-Pipeline Smart-Glasses/ Smartphone - Cloud - KI-Anwendung des Anbieters (im Falle der Ray-Ban Smart Glasses ist das der Facebook-Konzern Meta) werden Bild/Ton-Sequenzen des normalen Lebens übertragen. Daraus kann die KI im Hintergrund für jede Benutzerin und jeden Benutzer ein visuelles Gedächtnis aufbauen. Es lässt sich für auf die Person zugeschnittene Prognosen und Empfehlungen nutzen. Nach Meinung vieler Experten kann dies langfristig eine der wichtigsten KI-Anwendungen werden – eine Art externes Gedächtnis für den Alltag.

Albtraum für den Datenschutz

Der Datenschutz ist etwas "eingedampft" auf das Leuchten einer kleinen LED-Anzeige an der Brille neben der Kamera. Sie blinkt kurz einmal, wenn man ein Foto macht und leuchtet dauerhaft während einer Videoaufnahme. So kann man sich rechtzeitig in Sicherheit bringen, wenn man so bedenkenträgerisch unterwegs ist und nicht aufgenommen werden will - optimistische Menschen haben halt nicht so viel Angst vor dem Missbrauch ihres Rechts am eigenen Bild. Trotzdem kleine Empfehlung an den Gesetztgeber, das Tragen der Brillen zumindest doch in gemischten Saunen zu verbieten.

Ein aufleuchtendes LED-Lämpchen lässt sich nicht wirklich als Schutz verkaufen. Der Brillenträger hat selbst die Kontrolle verloren, wenn er den Aufnahmemodus eingeschaltet hat, denn die Daten sind längst in die Cloud entfleucht. Und die Gefilmten haben es nicht bemerkt, so jedenfalls der größte Teil von ihnen.

KI-Brillen sind nicht einfach „Facebook am Kopf“, sondern eine qualitativ neue Technik, weil sie dauerhaft näher an Wahrnehmung, Aufmerksamkeit und sozialer Situation sitzen. Bei Social Media gibt man selbst aktiv etwas ein. Bei KI-Brillen werden dagegen auch unbeteiligte Dritte, Räume, Gespräche, Blickrichtung, Stimme, Gewohnheiten und private Situationen automatisch miterfasst. Das ergibt ein sehr dichtes Profil des Alltags. Das Datenschutzproblem verschiebt sich von "meine Daten" zu "die Daten aller Menschen in meiner Nähe".

Wenn der Einstieg in die Gesichtserkennung gelingt, so die Meinung vieler Datenschutz-Experten, wird aus der Brille ein biometrisches Echtzeit-Erkennungssystem im Alltag. Die Reste von Privatheit würden verschwinden. Menschen müssten sich verstecken und ausweichen, um nicht überwacht zu werden, nicht nur an sensiblen Orten – sei es eine Arztpraxis, eine Bar oder eine Kultstätte, sondern auch im normalen Alltagsgeschehen, bei jeder Begegnung, jedem Gespräch. Der kontinuierliche Upload von Bildern, Sprache und kontextbeschreibenden Daten käme einer Aufzeichnung des gesamten Tagesablaufs gleich. Die KI kann aus dem umfangreichen Datenmaterial Persönlichkeitsprofile erstellen und braucht dafür nicht viel mehr als die Fähigkeit, Informationen zusammenzufassen. Für zahlende Werbekunden werden bestimmt spezielle Services für Produktangebote entwickelt, die Vorlieben der Beobachteten bedienen.

Mentale Folgen

Ob die KI-Brille ein Gadget für Nerds bleiben wird, ist zurzeit schwer einzuschätzen. Einen akzeptablen Preis, ein geringeres Gewicht, längere Nutzungsdauern der Batterien und eine kurze, zumutbare Wartezeit bis zur Antwort der KI unterstellt, kann daraus ein Erfolg werden. Zweifelsfrei nehmen die Bindung der Benutzerinnen und Benutzer an das Gerät und damit die Abhängigkeit von dem Gerät zu.

Für uns als Individuen als auch für unsere Gesellschaft ergeben sich einige Fragen, die hier als Plädoyer für ein Stück Nachdenklichkeit aufgelistet sind, sozusagen als Korrektiv zu schnellem Enthusiasmus:

Was geschieht mit unserer Wahrnehmung?
 

Die reale Welt, die man immer noch durch die Brille sieht, wird transparent überblendet mit der KI-erzeugten virtuellen Welt, digitalen Objekten und vorformulierten Texten, und zwar häppchenweise, in kleinen Portionen, denn im Brillenglas ist der Platz knapp. Läuft Wahrnehmung Gefahr, partioniert zu werden, in kleine Info-Tapas, ein vorformuliertes Bit-Snacking?

Was geschieht mit unserer Aufmerksamkeit?
 

Smart Glasses verlagern den Daten-Input direkt in die Wahrnehmung. Den Hintergrundsystemen der Künstlichen Intelligenz fällt die breite Flut des Gesehenen und Erlebten sozusagen direkt in den Kontor, ungefiltert und unverfälscht ohne kontrollierenden Einfluss der Brillenträgerinnen und -träger. Was bedeutet es, wenn von der KI zugespielte Informationen sich in die Steuerung dessen, was wir sehen, immer mehr einmischen?

Geht die Natürlichkeit des Erlebens verloren?
 

Wir verfügen über fünf Sinne, können dank unseres Erfahrungshintergrundes und unserer Erinnerungsfägigkeit Situationen bewerten und uns als verstehende und handelnde Personen in unserer Umgebung bewegen. Der computervermittelten Augmented Reality für die KI-Brille stehen nur die digitalisierten Audio- und Videokanäle zur Verfügung, die mit der Sicht auf die reale Welt kombiniert werden. Wird durch diesen Mix von real und virtuell die „Natürlichkeit“ des Erlebens erhalten oder findet bereits etwas statt, was die Psychologen sinnliche Deprivation nennen, d.h. eine Reduzierung bzw. Verarmung der aufgenommenen sinnlichen Reize?

Wird unser normales alltägliches Verhalten manipuliert?
 

Wenn uns Informationen direkt im Moment der Wahrnehmung zugespielt werden, kann das Verhalten subtiler, wirksamer und spontaner beeinflusst werden als über Infos auf dem Handy, die man erst nachlesen muss. Lassen wir uns schneller zu Entscheidungen verleiten? Wird unser Nachdenken vor einer Meinungsbildung ausgebremst?

Werden wir immer stärker mit Werbung berieselt?
 

Von den Chatbots sind wir gewohnt, dass sie einfache Fragen oft mit zusätzlichen, nicht erfragten Informationen versehen und uns vorschlagen, was wir als Nächstes fragen könnten oder sollten. Das besorgen spezielle Algorithmen, die dem Ergebnis des eigentlich für die Antwort zuständigen Sprachmodells überlagert werden. Die KI-erzeugten Informationen für die Smart Glasses geraten schnell unter den Verdacht, im Sinne geschäftlicher Interessen der Anbieter aufbereitet zu werden. Sie sind besonders geeignet für die Positionierung von Werbung, die stärker personalisiert wird, vor allem, wenn wie im Fall Meta das von den SmartGlasses erzeugte spezielle visuelle Memory mit den persönlichen Benutzerdaten aus Facebook und Instragram verbunden wird. Wer setzt der unkontrollierten Beeinflussung Grenzen?

Ändern sich stillschweigend gesellschaftliche Normen?
 

Sind wir schon dabei, uns daran zu gewöhnen, dass Alltagsräume ständig potentiell kamera-, audio- und KI-überwacht sind? Finden wir uns damit ab, dass öffentliche und stillschweigend auch immer stärker private Räume zu beobachteten und beeinflussten Datenräumen werden?

Ändern sich unsere sozialen Umgangsformen?
 

Wir erleben usere Welt in sozialen Beziehungen. In dieses Tatbestand greift die zunehmende Bindung an die digitalen Systeme ein. Der Lebenszeit-Anteil mit den Geräten nimmt zu, die Zeit für zwischenmenschliche direkte Kommunikation nimmt ab. Die Kommunikationsfähigkeit selber verändert sich. Wird unser Erleben der Welt individualisierter und einsamer? Leidet darunter der soziale Zusammenhalt unserer Gesellschaft?

Können wir den Herstellern trauen?

Meta tut sich ausgesprochen schwer mit Informationen über die Speicherung unserer Daten. Sind die Daten verschiedener Personen wirklich verlässlich gegeneinander abgegrenzt? Was wird wirklich in dem Saved-Memory-Bereich gespeichert? Unter welchen Bedingungen werden sie im Training von Metas KI-Systemen verwendet? Werden sie weiterverkauft, wenn ja, in welcher Form und an wen?

Begeben wir uns zu stark in eine technische Abhängigkeit?
 

Was geschieht, wenn KI-getriggerte Endgeräte wie besagte Brillen anfangen, uns die Welt zu erklären? Reicht uns die oft verkürzte Darstellung aus? Akzeptieren wir die uns angebotenen Interpretationen und hören wir auf, sie zu hinterfragen?

Systeme der Künstlichen Intelligenz unterstützen uns immer umfangreicher in Alltagssituationen und bieten sich zunehmend als verständige Lebensbegleiter an. Sie versprechen uns Bequemlichkeit, nehmen uns zuerst Routinen, später auch andere Entscheidungen ab und sagen uns immer mehr, wo es längs gehen soll mit unserem Leben. Wir haben uns zu fragen, wie viel Kompetenz und Verantwortung wir KI-gesteuerten Systemen zugestehen wollen.

Brauchen wir eine gesetzliche Eindämmung der drohenden Abhängigkeit?
 

Das Rückgrat der Technik und die Infrastruktur sind Privatbesitz der Big-Tech-Plattformbetreiber. Sie bestimmen die Spielregeln. Wie finden wir Wege aus der wachsenden Abhängigkeit? Wo setzen wir der zunehmenden Überwachbarkeit von immer mehr Lebensbereichen Grenzen? Was erwarten wir von unserer Politik? Halten wir sie für noch zu Veränderungen fähig? Oder überlassen wir privaten Konzernen weiter die Regie?

In diesem Dokument ist das Problem der gesundheitlichen Beeintächtigung nicht behandelt. Eine vertretbare Recherche steht vor einem dichten Lobby-Wald um das Thema herum. Den zu lichten, braucht Zeit. Schnelle Meinung der Chatbots zeigen.

 

Gibt es wissenschaftlichen Erkenntnisse, dass bei längerem regelmäßigen Tragen von Smart Glasses infolge der nahe am Gehirm liegenden elektromagnetischen Emission die Gesundheit beeinträchtigt werden kann?

ChatGPT meint nach 8 Sekunden Nachdenken, dass es keine belastbaren medizinischen Belege über gesundheitliche Schädigungen durch elektromagnetische Emissionen bei längere Tragen der Brille gibt, fügt aber hinzu, „wenn das Gerät innerhalb der geltenden Grenzwerte betrieben wird“.

Gemini ist etwas zurückhaltender und verweist auf athermische Effekte und die kumulative Belastung durch viele Strahenquellen (WLAN, 5G, Bluetooth).

DeepSeek betont, dass die Erkenntnisse im wesentlichen auf Simulationen beruhen und bleibt vorsichtig: „Ja, es gibt wissenschaftliche Erkenntnisse aus Simulationsstudien, die zeigen, dass die elektromagnetische Emission von Smart Glasses Gewebe im Kopf erreicht und potenziell gesundheitliche Beeinträchtigungen verursachen könnte“.

 

 

Karl Schmitz • März 2026