Translate  

Vorbemerkung

Dieser Text setzt sich mit den nicht ausgesprochenen Voraussetzungen einer Superintelligenz auseinander und wirft deren Erfinder Anthropomorphismus vor. Das bedeutet, dass man der Technik menschliche Eigenschaften, Verstand, Gefühle oder sogar Absichten und einen eigenen Willen zuschreibt.

Was aber, wenn die angeblich kurz bevorstehende Supertechnik das alles nicht braucht? Und was kann diese sogenannte Superintelligenz dann wirklich?

Preliminary remark

This text deals with the unspoken prerequisites of a superintelligence and accuses its inventor of anthropomorphism. This means ascribing human characteristics, intellect, feelings or even intentions and a will of its own to technology.

But what if the supposedly imminent super-technology doesn't need any of this? And what can this so-called superintelligence really do?


Bewusstlos in die Superintelligenz?

Ausgerechnet die Top-Leute der BigTech-Firmen können es nicht lassen, die nach ihren Vorstellungen zum Greifen nahe Superintelligenz immerzu zu beschwören. Zur Erinnerung: Damit ist eine Intelligenz gemeint. die unsere menschlichen Fähigkeiten auf allen Ebenen weit übertrifft (Näheres hier).

Verborgene Dogmen

Es ist kein Geheimnis, dass viele unserer Vorstellungen sich auf heimliche Glaubenssätze stützen, sozusagen auf nicht bewusst gemachte Dogmen. Stellt man sich zum Beispiel die Frage, ob Intelligenz ein Bewusstsein braucht, würde wahrscheinlich die Mehrheit der Menschen ohne viel zu überlegen spontan mit „natürlich“ antworten. Ebenso selbstverständlich erscheint es uns, dass ein intelligentes Wesen über die Fähigkeit verfügt, seine Welt wahrzunehmen und sich ein verständiges Bild von dieser Welt zu machen.

Wir haben die Chatbots als Vorzeigeprodukte der Künstlichen Intelligenz mit ihrer Fähigkeit kennen gelernt, das in einem Training mit Billionen digitaler Texte erworbene Weltwissen in sprachlich gut verständlicher Form wiederzugeben. Das darf jedoch nicht darüber hinwegtäuschen, dass die Chatbots letztlich nur papageienhaft oft Gesagtes und Geschriebenes nett verpacken und ausdrücken.

Auch was die.erwähnten Vorurteile betrifft, stehen sie uns in keiner Weise nach, wie man der im Folgenden wiedergegebenen Antwort von ChatGPT entnehmen kann. Auf die Frage, was Intelligenz ist, heißt es:

Intelligenz ist die Fähigkeit, Informationen sinnvoll zu verstehen, aus Erfahrungen zu lernen, Probleme zu lösen und sich flexibel an neue Situationen anzupassen.

Auf unseren Einwand, dass bei dieser Definition Wahrnehmung als eine wichtige Voraussetzung fehlt, Information überhaupt verstehen zu können, lobt uns der Chatbot und meint „Sehr gute und treffende Beobachtung — ja, du hast völlig recht." Er entschuldigt sich aber sofort mit der Bemerkung, Wahrnehmung sei schon implizit in seiner Erklärung enthalten gewesen und „präzisiert“ seine Definition:

Intelligenz ist die Fähigkeit, Wahrnehmungen in sinnvolle Informationen zu verwandeln, aus diesen Erfahrungen zu lernen, Probleme zu lösen und sich flexibel an neue Situationen anzupassen.

In der Begründung seiner Rechtfertigung für das ursprüngliche Weglassen der Wahrnehmung meint der Chatbot, dass Wahrnehmung eine notwendige Voraussetzung für jedes Verstehen und Lernen sei. Ohne „Wahrnehmung (im weitesten Sinn: sensorische, emotionale oder symbolische Aufnahme von Reizen aus der Umwelt oder dem eigenen Systemzustand)“ könne keine Information entstehen, die verarbeitet oder verstanden werden kann. Die Verwendung der Begriffe „symbolische Aufnahme von Reizen“ und „eigener Systemzustand“ zeigt, dass schon an Maschinen oder zumindest Systeme gedacht wird.

Die in einem Atemzug genannten Vokabeln "verarbeitet" und "verstanden" legen sogar nahe, dass unser Chatbot nicht zwischen Mensch und System unterscheidet. Bleiben wir bei unserem Papageienfreund und fragen ihn, was sein Weltwissen denn unter Wahrnehmung versteht:

Ganz allgemein versteht man unter Wahrnehmung den Prozess, durch den ein Lebewesen oder ein System Informationen aus seiner Umwelt oder aus sich selbst aufnimmt, organisiert und interpretiert, um sich ein inneres Bild der Realität zu bilden.

Wie wir wissen, können KI-Systeme Wahrnehmung technisch simulieren und damit sich selbst oder andere Systeme befähigen, Handlungen vorzunehmen, Handlungen, die allerdings bekannten Mustern oder Algorithmen folgen. Dazu braucht es weder Geist noch Bewusstsein.

Die Ki-Technik und mit ihr ein großer Teil der Schulpsychologie sind sich einig, dass es eine reale Welt gibt, von der Informationen ausgehen, die in dem Prozess der Wahrnehmung als Sinneseindrücke oder allgemein als Input verarbeitet und als ein „Bild der Realität“ interpretiert, sprich verstanden werden. Bei dieser Interpretation räumt die Schulpsychologie unserem Bewusstsein immerhin noch eine aktive Rolle ein, worüber die KI-Technik schweigend hinweggeht. Die Künstliche Intelligenz begnügt sich an dieser Stelle mit ihrer Fähigkeit, ihrem Input erkannte Muster zuordnen zu können, die sie in ihrem Training erlernt hat. Wenn diese Muster bereits Handlungsmöglichkeiten beinhalten, kann die KI-Technik dann aus ihrem Input Handlungen ableiten und durchführen. Zusätzliche Algorithmen können selbstverständlich auch erkannten Mustern Handlungen zuordnen und für deren Ausführung sorgen.

Diese Feststellung suggeriert uns, dass die Unterschiede zwischen künstlicher und natürlicher Intelligenz nicht unüberwindlich groß sind. Von einer menschliche Fähigkeiten in allen Aspekten übertreffenden Superintelligenz sollte man allerdings erwarten dürfen, dass sie Handlungen auch autonom, nach eigenen Regeln und nicht nur auf der Grundlage erkannter Muster oder vorgegebener Algorithmen planen und ausführen kann. Es fehlt der KI zwar noch an dieser Autonomie-Fähigkeit, aber daran arbeiten die Techniker der HighTech-Firmen ja auf Hochtouren.

Warum ihnen der Erfolg verwehrt bleibt, liegt nicht zuletzt an der Dogma-Gläubigkeit., dass Intelligenz ein linearer Prozess von einem Input ist, der von außen kommt, verarbeitet wird und uns zum Verstehen und Handeln befähigt.

Menschen und Maschinen

Für die menschliche Intelligenz zeichnet die neuere Kognitionswissenschaft (von Chris Frith, Karl Friston, Lisa Feldman-Barrett bis Anil Seth) aber ein völlig anderes Bild. Demnach ist die Hauptaufgabe unseres Bewusstseins, schlicht und ergreifend uns am Leben zu halten. Wahrnehmung ist dabei kein linearer Prozess eines Informationsflusses von außen nach innen, sondern eine Wechselwirkung mit der Umwelt.

Nach den Auffassungen der genannten Autoren wirdfür uns Menschen unser Modell von der Welt ständig angepasst, so dass ein für unser Leben wichtiges Gleichgewicht zwischen innerer Erwartung und äußerem Reiz erhalten bleibt. Darum nennt Anil Seth Wahrnehmung eine „kontrollierte Halluzination“, einen Prozess, der durch die Realität eine fortlaufende Korrektur erfährt. Das Gehirn bildet die Welt nicht ab, sondern konstruiert sie aktiv, damit wir sie verstehen können und handlungsfähig bleiben.

Diese Wahrnehmung ist „sellbstreferenzierend“, d.h. sie kann sich auf sich selbst beziehen, denn das Gehirn konstruiert nicht nur Modelle der Welt, sondern auch des eigenen Körpers, der überleben, handeln und fühlen will. Es geht darum, einen stabilen inneren Gleichgewichtszustand aufrechtzuerhalten. Es findet eine Art dauerhafter Selbstregulierung statt.

Künstliche Intelligenz kennen wir bisher nur als Software. Die Hardware ist nur das Substrat, auf dem die Software läuft. KI ist nicht selbstreferenzierend im oben beschriebenen Sinn. Sie agiert nicht autonom mit ihrer Umwelt. Sie ist mit einem softwaretechnisch realisierten statischen Modell ausgestattet, das sich nicht in einer permanenten Wechselwirkung mit seiner Umwelt befindet, sondern nur auf Eingaben von außen reagiert. Sie kann sich nicht aus eigener Kraft an die sich verändernde Umwelt anpassen.

Der im Bezug zur KI oft verwendete Ausdruck „selbstlernendes System“ ist irreführend, wenn man darunter versteht, ein KI-System könne sein Modell von seiner Welt von sich aus an eine sich verändernde Welt anpassen. Dies würde eine autonome Wahrnehmung voraussetzen. Einem KI-System muss man von außen beibringen, was es wahrnehmen soll, es braucht einen von außen veranlassten Input. Das kann durchaus in einer durch Algorithmen gesteuerten Form geschehen, kann den Eindruck eines sehr dynamischen Geschehens erwecken, ist aber dennoch keine autonome Wahrnehmung.

Ein KI-System kann nur seine von außen eingebrachten Informationen mit seinem Modell abgleichen, nach Mustern suchen und nach den Gesetzen von Statistik und Wahrscheinlichkeit bestimmte Ergebnisse liefern. Entscheidend ist, dass es nicht fähig ist, ein Gleichgewicht zwischen sich und seiner Umwelt herzustellen. Für seine bisher bekannten Zwecke braucht es dies auch nicht zu tun, denn es muss ja nicht selber für sein Überleben sorgen.

Somit kann ein KI-System auch keine autonomen Handlungen hervorbringen. Es kann nur Ergebnisse im Rahmen seiner durch Algorithmen vorgegebenen Möglichkeiten produzieren. Diese Ergebnisse können durch Wahrscheinlichkeitsrechnung ermittelte Ergebnisse sein, was oberflächlich betrachtet den Eindruck von autonomer Entscheidung erwecken kann, es aber nicht ist.

Der Ulmer Professor für Industrialisierung und Künstliche Intelligenz, Ralf Otte, fordert in seinem Werk Maschinenbewusstsein deshalb als eine wichtige Voraussetzung aufzuheben, die Trennung von Hardware und Software. Dann erst könnte man Systeme bauen, die über eine „Körperlichkeit“ (also eine Hardware) verfügen. Diese Hardware wäre nicht nur Substrat für eine Software, sondern ebenso aktiv wie die Software an der erbrachten Leistung beteiligt. Bisher gibt es diese Maschinen nicht. Professor Otte betont allerdings auch, dass ein eventuell auf diese Weise entstandenes Bewusstsein sich fundamental von dem unterscheiden würde, was wir für uns Menschen unter Bewusstsein verstehen.

Heutige Maschinen werden von außen gebaut, programmiert, trainiert und gewartet. Sie führen nur vordefinierte Aktionen aus und können ihre Struktur nicht selbst erzeugen oder verändern. Sie können nur Relationen zwischen Daten, aber nicht zwischen sich selbst und ihrer Umwelt herstellen. Maschinen existieren nur als von uns erzeugte Gegenstände, erfahren ihre Welt nicht selber, sondern werden innerhalb unserer Welt betrieben. Dabei „wissen“ sie nicht, was sie tun.

Das Ende eines Traums

Wir haben mit allen Lebewesen, mit Tieren und Pflanzen, gemein, uns am Leben zu erhalten. Wir können unsere Umwelt autonom wahrnehmen und in einer permanenten Auseinandersetzung mit ihr Handlungen durchführen und neue Gedanken entwickeln. Dabei hilft uns die Fähigkeit zur Selbstreferenz, das heißt, wir können uns aus uns selbst erneuern, verändern und wachsen. Jede einzelne Zelle unseres Körpers verfügt über dieses Potenzial. Wir sind eine Einheit aus Geist und Körper.

Leider haben wir keine Ahnung, wie sich Selbstreferenz erzeugen lässt. Maschinen oder Systeme, die wir bauen können, sind nicht in der Lage, sich selbst zu erleben und sich selbst zur Welt in Beziehung zu setzen. Solange eine Maschine nur verarbeitet, was wir ihr geben, anstatt zu sein, was sie aus sich selbst erzeugt, bleibt sie ein Apparat und ist kein Subjekt, das autonom handeln kann. Das ist das Ende der Träume von einer Superintelligenz, vorerst zumindest.

 

Unconscious into the superintelligence?

The top people at BigTech companies, of all people, can't stop conjuring up the super-intelligence they believe is within their grasp. As a reminder, this refers to an intelligence that far surpasses our human abilities on all levels (more details here).

Hidden dogmas

dogmaIt is no secret that many of our ideas are based on secret beliefs, on unconscious dogmas, so to speak. For example, if we were to ask ourselves whether intelligence requires consciousness, the majority of people would probably spontaneously answer 'of course' without much thought. It seems equally self-evident to us that an intelligent being has the ability to perceive its world and to form an intelligible picture of this world.

We have become familiar with chatbots as flagship products of artificial intelligence with their ability to reproduce the world knowledge acquired in training with trillions of digital texts in a linguistically easily understandable form. However, this should not obscure the fact that chatbots ultimately only package and express what is often said and written in a parrot-like manner.

As far as the prejudices mentioned above are concerned, they are in no way inferior to us, as can be seen from ChatGPT's answer below. When asked what intelligence is, they say:

Intelligence is the ability to make sense of information, learn from experience, solve problems and adapt flexibly to new situations.

In response to our objection that this definition lacks perception as an important prerequisite for being able to understand information at all, the chatbot praises us and says 'Very good and accurate observation - yes, you're absolutely right.' However, he immediately apologises by saying that perception was already implicit in his explanation and 'clarifies' his definition:

Intelligence is the ability to transform perceptions into meaningful information, to learn from these experiences, to solve problems and to adapt flexibly to new situations.

In justifying its original omission of perception, the chatbot argues that perception is a necessary prerequisite for all understanding and learning. Without 'perception (in the broadest sense: sensory, emotional or symbolic reception of stimuli from the environment or one's own system state)', no information can arise that can be processed or understood. The use of the terms 'symbolic reception of stimuli' and 'own system state' shows that machines or at least systems are already being considered.

papageiDie in einem Atemzug genannten Vokabeln "verarbeitet" und "verstanden" legen sogar nahe, dass unser Chatbot nicht zwischen Mensch und System unterscheidet. Bleiben wir bei unserem Papageienfreund und fragen ihn, was sein Weltwissen denn unter Wahrnehmung versteht:

The words 'processed' and 'understood' mentioned in the same breath even suggest that our chatbot does not differentiate between humans and systems. Let's stay with our parrot friend and ask him what his world knowledge understands by perception:

As we know, AI systems can technically simulate perception and thus enable themselves or other systems to perform actions, actions that follow known patterns or algorithms. This requires neither mind nor consciousness.

The Ki technique and a large part of conventional psychology agree that there is a real world from which information emanates, which is processed in the process of perception as sensory impressions or generally as input and interpreted, i.e. understood, as an 'image of reality'. In this interpretation, conventional psychology still gives our consciousness an active role, which AI technology ignores. At this point, artificial intelligence is content with its ability to assign recognised patterns that it has learned in its training to its input. If these patterns already contain possible actions, the AI technology can then derive actions from its input and carry them out. Additional algorithms can of course also assign actions to recognised patterns and ensure that they are carried out.

This statement suggests that the differences between artificial and natural intelligence are not insurmountable. However, we should expect a superintelligence that surpasses human capabilities in all aspects to be able to plan and execute actions autonomously, according to its own rules and not just on the basis of recognised patterns or predefined algorithms. AI still lacks this autonomous capability, but the technicians at high-tech companies are working flat out on it.

The reason why they have not been successful is not least due to the dogmatic belief that intelligence is a linear process of input that comes from outside, is processed and enables us to understand and act.

People and machines

However, recent cognitive science (from Chris Frith, Karl Friston, Lisa Feldman-Barrett to Anil Seth) paints a completely different picture of human intelligence. According to this, the main task of our consciousness is simply to keep us alive. Perception is not a linear process of information flow from the outside to the inside, but an interaction with the environment.

According to these authors, our model of the world is constantly being adapted for us humans so that a balance between inner expectation and external stimulus, which is important for our lives, is maintained. This is why Anil Seth calls perception a „controlled hallucination“, a process that is continuously corrected by reality. The brain does not depict the world, but actively constructs it so that we can understand it and remain capable of acting.

This perception is „self-referencing“, i.e. it can refer to itself, because the brain not only constructs models of the world, but also of its own body, which wants to survive, act and feel. The aim is to maintain a stable inner state of equilibrium. A kind of permanent self-regulation takes place.

kiKopfSo far, we have only known artificial intelligence as software. The hardware is only the substrate on which the software runs. AI is not self-referencing in the sense described above. It does not act autonomously with its environment. It is equipped with a static model realised in software that is not in permanent interaction with its environment, but only reacts to external input. It cannot adapt to the changing environment on its own.

The term „self-learning system“ often used in relation to AI is misleading if it is taken to mean that an AI system can adapt its model of its world to a changing world of its own accord. This would presuppose autonomous perception. An AI system must be taught from the outside what it should perceive; it needs input from the outside. This can certainly take place in a form controlled by algorithms and can give the impression of a very dynamic process, but it is still not autonomous perception.

An AI system can only compare the information it receives from outside with its model, search for patterns and deliver certain results according to the laws of statistics and probability. The decisive factor is that it is not capable of establishing a balance between itself and its environment. It does not need to do this for its known purposes, as it does not have to ensure its own survival.

This means that an AI system cannot produce autonomous actions. It can only produce results within the scope of its possibilities as defined by algorithms. These results can be determined by probability calculation, which can superficially give the impression of autonomous decision-making, but is not.

In his book, Ralf Otte, Professor of Industrialisation and Artificial Intelligence at the University of Ulm, therefore calls for machine awareness as an important prerequisite for eliminating the separation of hardware and software. Only then would it be possible to build systems that have a 'physicality' (i.e. hardware). This hardware would not only be a substrate for software, but would also be just as actively involved in the service provided as the software. So far, these machines do not exist. However, Professor Otte also emphasises that any consciousness created in this way would be fundamentally different from what we humans understand by consciousness.

Today's machines are built, programmed, trained and maintained externally. They only carry out predefined actions and cannot create or change their structure themselves. They can only establish relationships between data, but not between themselves and their environment. Machines only exist as objects created by us and do not experience their world themselves, but are operated within our world. They do not 'know' what they are doing.

The end of a dream

What we have in common with all living beings, animals and plants, is that we keep ourselves alive. We can perceive our environment autonomously and carry out actions and develop new thoughts in a permanent dialogue with it. Our ability to self-reference helps us to do this, i.e. we can renew, change and grow from within ourselves. Every single cell in our body has this potential. We are a unity of mind and body.

Unfortunately, we have no idea how self-reference can be generated. Machines or systems that we can build are not capable of experiencing themselves and relating themselves to the world. As long as a machine only processes what we give it instead of being what it generates from itself, it remains an apparatus and is not a subject that can act autonomously. This is the end of dreams of a superintelligence, at least for the time being.

absturz

 

 

Translate  


  Ingrid Maas   Karl Schmitz • November 2025