Sie kennen das sicher: Da hört man oft die Behauptung, ChatGPT und Co. seien nur «stochastische Papageien» – also im Grunde nichts weiter als clevere Nachplapperer ohne echtes Verständnis. Mit dieser geschwollenen Bemerkung wollen Kritiker zeigen, dass sie es besser wissen. Doch die neueste Forschung zeichnet ein ganz anderes Bild.
Was ist überhaupt ein „stochastischer Papagei“? 🦜
Der Begriff klingt kompliziert, ist aber eigentlich ganz einfach: Stellen Sie sich vor, Sie trainieren einen Papagei darauf, menschliche Gespräche zu imitieren. Der Papagei kann perfekt sprechen, versteht aber kein Wort von dem, was er sagt. Genau das behaupten Kritiker über KI: Sie würde nur Wörter zusammenwürfeln, die sie aus Millionen von Texten gelernt hat – ohne zu verstehen, was sie da eigentlich schreibt.
Diese Theorie stammt aus einem wissenschaftlichen Paper von 2021, das viel Staub aufgewirbelt hat. So sehr, dass sogar Google-Mitarbeiter auf die Barrikaden gingen, als eine der Autorinnen deswegen entlassen wurde.
Wenn KI plötzlich rechnen kann: Die emergenten Eigenschaften
Hier wird es richtig spannend: Forscher am MIT und anderen Top-Universitäten haben etwas Faszinierendes entdeckt. Wenn KI-Systeme eine bestimmte Größe erreichen – etwa 100 Milliarden Parameter (denken Sie daran wie an 100 Milliarden kleine Denkbausteine) – passiert etwas Unerwartetes: Sie entwickeln plötzlich völlig neue Fähigkeiten, die niemand programmiert hat.
Ein Beispiel aus der Praxis: Kleine KI-Modelle können praktisch keine Mathe. Null Punkte bei Textaufgaben. Aber sobald sie gross genug werden – Schwupps! – lösen sie plötzlich 58% aller Mathematikaufgaben auf dem Niveau von 9-12-jährigen Kindern. Das ist, als würde ein Kind, das nur Buchstaben gelernt hat, plötzlich anfangen zu rechnen.
Die Wissenschaft hat mittlerweile 137 solcher «emergenter Eigenschaften» dokumentiert – Fähigkeiten, die bei einer kritischen Größe einfach «aus dem Nichts» auftauchen.
Das Chain-of-Thought-Wunder
Besonders beeindruckend ist das sogenannte «Chain-of-Thought Reasoning» – auf Deutsch: schrittweises Denken. Wenn Sie einer kleinen KI sagen: «Erkläre mir Schritt für Schritt, wie du zu dieser Antwort kommst», produziert sie Unsinn.
Aber grosse Modelle? Die denken tatsächlich in logischen Schritten! Sie können komplexe Probleme in Teilschritte zerlegen und dabei ihre «Gedanken» nachvollziehbar erklären. Das ist weit entfernt vom simplen Nachplappern.
Die Skeptiker haben auch Recht – teilweise
Fairerweise muss man sagen: Die Kritiker haben nicht völlig unrecht. Gary Marcus, ein renommierter KI-Forscher, warnt zu Recht vor Übertreibungen. Er zeigt, dass KI-Systeme immer noch fundamentale Schwächen haben – sie können zum Beispiel nicht von geraden auf ungerade Zahlen verallgemeinern.
Und eine Stanford-Studie von 2023 behauptet sogar, dass emergente Eigenschaften nur eine «Fata Morgana» seien – ein Messartefakt, der durch ungenaue Bewertungsmethoden entsteht.
Was MIT-Forscher wirklich sagen
Die Wahrheit liegt irgendwo dazwischen. MIT-Professor Tommi Jaakkola, einer der führenden KI-Forscher, arbeitet an Methoden, um zu verstehen, was in KI-Systemen wirklich passiert. Sein Fazit: «Wir sehen faszinierende Verhaltensweisen, die wir noch nicht vollständig verstehen.»
Besonders spannend: Ein MIT-Experiment mit einem KI-System, das nur Othello (Reversi) spielen gelernt hatte. Die Forscher entdeckten, dass das System eine interne «Landkarte» des Spielbretts entwickelt hatte – obwohl niemand ihm beigebracht hatte, dass es überhaupt ein Brett gibt!
Warum das wichtig ist
Diese Debatte ist mehr als akademisches Geplänkel. Wenn KI-Systeme wirklich nur «Papageien» wären, könnten wir sie relativ einfach vorhersagen und kontrollieren. Aber wenn sie unerwartete Fähigkeiten entwickeln, wird die Sache komplizierter – und spannender.
Die gute Nachricht: Die Forschung macht Fortschritte beim Verstehen dieser Phänomene. 2025 arbeiten OpenAI, Google DeepMind und Anthropic gemeinsam daran, KI-«Gedankenprozesse» transparenter zu machen.
Die weniger gute Nachricht: Wir verstehen noch lange nicht alles. Und unvorhersagbare Fähigkeiten bringen auch unvorhersagbare Risiken mit sich.
Das Fazit für den gesunden Menschenverstand
Moderne KI-Systeme sind weder magische Superintelligenzen noch dumme Nachplapperer. Sie sind komplexe Systeme, die überraschende Fähigkeiten entwickeln können – aber auch klare Grenzen haben.
Die «stochastische Papagei»-Kritik war wichtig, um vor Übertreibungen zu warnen. Aber sie erfasst nicht die ganze Realität. Wer heute behauptet, ChatGPT sei «nur ein Papagei», macht es sich zu einfach.
Die spannende Frage ist nicht mehr: «Papagei oder Intelligenz?» Sondern: «Welche spezifischen Fähigkeiten entwickeln diese Systeme, und wie können wir sie verstehen und sicher nutzen?»