Veröffentlicht am

19 November 2025

Was LLMs vom menschlichen Denken unterscheidet – eine Interpretation

Wie Sprachmodelle „denken“ und warum das nicht mit (unserem) Bewusstsein zu verwechseln ist

Axel

0 Min. Lesezeit
Share Icon
Share Icon
Share Icon
Share Icon
Share Icon

Im Rahmen unseres zweiten sipgate Festivals, hatten wir das Vergnügen, Philipp Wicke als Gastredner zu begrüßen. Der Titel seines Vortrags und anschließendem Workshop lautete: „Wie denken LLMs? Unterschiede in menschlichem und maschinellem Bewusstsein”.

Philipp ist unter anderem Dozent an der Ludwig-Maximilians-Universität (LMU) und der BTU Cottbus. Seine Forschungsschwerpunkte liegen in den Bereichen Künstliche Intelligenz und Computerlinguistik.

Disclaimer: Dieser Text ist keine Zusammenfassung des Vortrags von Philipp. Vielmehr spiegelt er meine Gedanken, angeregt durch das Gehörte, wider. Es handelt sich hierbei also um meine persönliche Meinung und Interpretation. Nicht mehr und nicht weniger. Und abweichende Meinungen sind bestimmt genauso richtig oder falsch wie meine.

Die Illusion des Verstehens

Wir reden von „denkenden Maschinen“, als wäre das eine Metapher, die irgendwann zur Realität geworden ist. Doch wenn Large Language Models (LLMs) wie GPT, Claude oder Gemini heute Antworten formulieren, Geschichten erzählen oder gar Ratschläge geben – was genau geschieht da eigentlich? Denken sie? Oder tun sie nur so?

Wie LLMs arbeiten

Im Zentrum aller modernen Sprachmodelle steht ein nüchternes Prinzip: Wahrscheinlichkeitsrechnung. Token für Token berechnen diese Systeme, welches Fragment von Sprache mit größter Wahrscheinlichkeit als Nächstes passt. Kein Plan oder Absicht. Nur der unermüdliche Versuch, den plausibelsten nächsten Schritt vorherzusagen.

Das klingt banal, ist es aber nicht. Denn durch extreme Skalierung – mehr Daten, mehr Parameter, mehr Rechenzeit – wird aus banaler Statistik eine Art emergentes Verhalten. Die Modelle lernen nicht, wie man konkrete Probleme löst. Sie lernen die Struktur, die Sprache solchen Lösungen verleiht. Wer sich fragt, wie eine KI auf eine neue Fragestellung antwortet, sollte nicht an ein neuronales Gehirn denken, sondern an eine Verdichtung kollektiver Sprachmuster.

Denken ohne Bewusstsein?

Maschinen denken ohne Selbst(zweck). Es gibt kein Ich oder eine eigene Perspektive. Was LLMs können, ist Mustererkennung in einem Maßstab, der unser Vorstellungsvermögen übersteigt. Aber ist das schon Denken?

Wir Menschen lernen durch unsere Erfahrung, durch Kontext, besser gesagt durch scheinbar unendlich viele Komponenten. Wir interpretieren nicht nur Inhalte, wir spüren sie. Bedenken die Konsequenzen unseres Handelns (idealerweise). Und wir irren uns nicht nur, wir leiden dann auch potenziell unter unseren Fehlern. Maschinen können sich, rein technisch gesehen, auch irren. Allerdings ohne dabei Emotionen zu zeigen. Es fehlt das Erleben des Irrtums. Die Differenz zwischen Fehler und Scheitern bleibt menschlich.

Sprache als Denkform – bei Mensch und Maschine

Sprache strukturiert Denken. Ein Prinzip, das auch für Maschinen gilt. Doch was bei Menschen über Jahrzehnte kulturell eingebettet geschieht, passiert bei LLMs in Sekundenbruchteilen und auf Basis „eingefrorener“ Datenschnipsel. Eine KI, die auf einem Datensatz von 2025 trainiert wurde, lebt in einem Weltbild von 2025. Ihre Konzepte, Metaphern und Vorannahmen sind eingefroren, statisch.

Was heißt das für uns?

Es ist ein Irrtum, KI daran zu messen, wie menschenähnlich sie ist. Sie ist nicht wie wir. Sie wird nie wie wir sein. Aber sie kann Dinge, die wir nicht können. Und sie tut das auf eine Weise, die nicht besser oder schlechter ist. Aber fundamental anders.

Vielleicht ist genau das der Denkfehler: Zu glauben, dass Intelligenz sich nur auf einem Weg manifestieren darf – unserem. Dabei wäre es klüger, KI nicht als Imitation des Menschen zu sehen, sondern als eigenständige Denkform. Eine, die in bestimmten Kontexten vielleicht sogar präziser, verlässlicher oder auch neutraler agiert. Und eine, die wir dann auch zu unserem Vorteil nutzen können und sollten.

Fazit: Der Mensch denkt, die KI berechnet

Der Unterschied könnte eigentlich größer nicht sein. Wir erleben Denken, KI berechnet Sprache. Unser Bewusstsein entsteht im Dialog mit der Welt. Ein Konzept, welches Maschinen auf absehbare Zeit völlig fremd und unmöglich sein wird. 

Die entscheidende Frage ist also nicht, ob LLMs denken wie wir. Sondern, ob ihr Denken in ihrer eigenen Logik Sinn ergibt. Und ob wir bereit sind, diese Logik zu verstehen, statt sie ständig zu vermenschlichen.

Dieser Blogbeitrag ist Teil einer Reihe von Artikeln, die im Kontext unseres AI-Festivals entstanden sind. Das zweitägige sipgate AI-Festival findet mehrmals im Jahr in losen Abständen (noch nur) für alle Mitarbeitenden bei sipgate statt. Neben einem Hands-On-Tag mit Workshop, Vorträgen und Diskussionsrunden steht der zweite Tag ganz im Rahmen der Strategie und eines gemeinsamen Ausblicks auf kommende Unternehmungen. Weitere Artikel zum Festival findest du hier im Blog.

Habt Ihr Feedback zu diesem Artikel?
Dann schreibt uns gerne direkt an blog@sipgate.de – oder teilt den Artikel auf den Social Media Kanälen und diskutiert dort weiter. Wir freuen uns auf eure Gedanken!
Share Icon
Share Icon
Share Icon
Share Icon
Share Icon

Keine Neuigkeiten
mehr verpassen

Mit unserem Newsletter bleiben Sie auf dem aktuellsten Stand.
Super, das hat geklappt!
Schade, das hat leider nicht geklappt.