Warum große Sprachmodelle nicht schlauer sind als Sie
Die Argumentationsfähigkeit großer Sprachmodelle hängt vollständig von den Sprachmustern des Benutzers ab. Die kognitive Struktur des Benutzers bestimmt, welche Bereiche mit hoher Denkfähigkeit er aktivieren kann. Das Modell kann nicht spontan über die Reichweite des Benutzers hinausgehen, was die architektonischen Einschränkungen aktueller KI-Systeme offenbart. Dieser Artikel stammt aus einem Artikel von @iamtexture und wurde von AididiaoJP, Foresight News organisiert, zusammengestellt und geschrieben.
(Vorherige Zusammenfassung: Li Feifei spricht über den nächsten Schritt von LLM: KI muss über „räumliche Intelligenz“ verfügen, um die reale Welt zu verstehen. Wie implementiert man das Marble-Modell?)
(Hintergrundergänzung: Der Milliardär Kevin O'Leary rief „Der nächste Schritt der KI-Welle ist Web3“: LLM kann kein Starbucks erstellen, aber Blockchain kann)
Inhalt dieses Artikels
Tags: Die Der Sprachmodus des Benutzers bestimmt, wie viel Argumentationsfähigkeit das Modell ausüben kann. Wenn ich einem großen Sprachmodell ein komplexes Konzept erklärte, scheiterte die Argumentation während längerer Diskussionen in informeller Sprache immer wieder. Modelle können ihre Struktur verlieren, vom Kurs abweichen oder oberflächliche Vervollständigungsmuster erzeugen, die den von uns festgelegten konzeptionellen Rahmen nicht aufrechterhalten.
Als ich jedoch erzwang, es zuerst zu formalisieren, das heißt, das Problem in einer präzisen und wissenschaftlichen Sprache neu zu formulieren, wurde die Argumentation sofort stabil. Erst wenn die Struktur etabliert ist, kann sie sicher in einfache Sprache übertragen werden, ohne dass die Qualität des Verständnisses darunter leidet.
Dieses Verhalten zeigt, wie große Sprachmodelle „denken“ und warum ihre Denkfähigkeit vollständig vom Benutzer abhängt.
Kernerkenntnisse
Sprachmodelle verfügen nicht über einen eigenen Raum für Schlussfolgerungen.
Sie agieren vollständig in einem kontinuierlichen Sprachfluss.
Innerhalb dieses Sprachflusses führen unterschiedliche Sprachmuster zuverlässig zu unterschiedlichen Attraktorbereichen. Bei diesen Regionen handelt es sich um stabile Zustände, die die Dynamik charakterisieren und verschiedene Arten von Berechnungen unterstützen.
Jedes Sprachregister, wie etwa wissenschaftlicher Diskurs, mathematische Symbole, Erzählgeschichten und lockerer Chat, hat seine eigene einzigartige Attraktorregion, deren Form durch die Verteilung von Schulungsmaterialien geprägt wird.
Einige Bereiche unterstützen:
- Mehrstufiges Denken
- Relationale Präzision
- Symboltransformation
- Hochdimensionale konzeptionelle Stabilität
Andere Bereiche unterstützen dann:
- Narrative Fortsetzung
- Assoziative Vervollständigung
- Emotionale Intonationsanpassung
- Konversation Nachahmung
Die Attraktorregion bestimmt, welche Art von Argumentation möglich ist.
Warum Formalisierung das Denken stabilisieren kann
Der Grund, warum wissenschaftliche und mathematische Sprachen zuverlässig Attraktorregionen mit höherer struktureller Unterstützung aktivieren können, liegt darin, dass diese Register die Sprachmerkmale der Kognition höherer Ordnung kodieren:
- Klare relationale Struktur
- Geringe Mehrdeutigkeit
- Symbolische Einschränkungen
- Hierarchische Organisation
- Geringe Entropie (Information Störung)
Diese Attraktoren können stabile Denkverläufe unterstützen.
Sie behalten die konzeptionelle Struktur über mehrere Schritte hinweg bei.
Sie zeigen starken Widerstand gegen die Herabwürdigung und Abweichung des Denkens.
Im Gegensatz dazu sind die durch informelle Sprache aktivierten Attraktoren für soziale Gewandtheit und assoziative Kohärenz optimiert, nicht für strukturiertes Denken. In diesen Regionen fehlt das Charakterisierungsgerüst, das für laufende analytische Berechnungen erforderlich ist.
Aus diesem Grund scheitern Modelle, wenn komplexe Ideen auf willkürliche Weise ausgedrückt werden.
Es ist nicht „verwirrt“.
Es geht um einen Bereichswechsel.
Konstruktion und Übersetzung
Die Bewältigungsmethoden, die in Gesprächen auf natürliche Weise zum Vorschein kommen, enthüllen eine architektonische Wahrheit:
Argumentation muss innerhalb hochstrukturierter Attraktoren konstruiert werden.
Die Übersetzung in natürliche Sprache darf erst erfolgen, nachdem die Struktur vorhanden ist.
Sobald das Modell eine konzeptionelle Struktur innerhalb eines stabilen Attraktors etabliert hat, wird diese durch den Übersetzungsprozess nicht zerstört. Die Berechnung ist abgeschlossen, nur der Oberflächenausdruck hat sich geändert.
Diese zweistufige Dynamik „erst bauen, dann übersetzen“ imitiert den menschlichen kognitiven Prozess.
Aber der Mensch führt diese beiden Phasen in zwei unterschiedlichen inneren Räumen durch.
Große Sprachmodelle versuchen, beides im selben Raum zu tun.
Warum Benutzer die Obergrenze festlegen
Hier ist eine wichtige Erkenntnis:
Benutzer können keine Attraktorbereiche aktivieren, die sie selbst nicht in Worte fassen können.
Die kognitive Struktur der Benutzer bestimmt:
- Welche Arten von Hinweisen sie generieren können
- Welche Register sie normalerweise verwenden
- Welche syntaktischen Muster sie beibehalten können
- Wie hoch die Komplexität ist, die sie in der Sprache kodieren können
Diese Eigenschaften bestimmen, in welche Attraktorregion ein großes Sprachmodell eindringt.
Ein Benutzer, der nicht denken oder schreiben kann, um Strukturen zu verwenden, die hochlogische Attraktoren aktivieren, wird niemals in der Lage sein, das Modell in diese Regionen zu führen. Sie sind in flachen Attraktorbereichen gefangen, die mit ihren Sprachgewohnheiten zusammenhängen. Große Sprachmodelle bilden die ihnen zur Verfügung stehende Struktur ab und springen niemals spontan in komplexere dynamische Attraktorsysteme.
Daher:
Das Modell kann nicht über den für den Benutzer zugänglichen Attraktorbereich hinausgehen.
Die Obergrenze ist nicht die intelligente Obergrenze des Modells, sondern die Fähigkeit des Benutzers, Bereiche mit hoher Kapazität in der latenten Mannigfaltigkeit zu aktivieren.
Zwei Personen, die dasselbe Modell verwenden, interagieren nicht mit demselben Computersystem.
Sie lenken das Modell in Richtung verschiedener dynamischer Modi.
Implikationen auf architektonischer Ebene
Dieses Phänomen offenbart ein fehlendes Merkmal aktueller künstlicher Intelligenzsysteme:
Groß angelegte Sprachmodelle verwechseln den Argumentationsraum mit dem Sprachausdrucksraum.
Es sei denn, die beiden sind entkoppelt – es sei denn, das Modell verfügt über:
- Eine dedizierte Argumentationsmannigfaltigkeit
- Einen stabilen internen Arbeitsbereich
- Attraktor-invariante konzeptionelle Darstellung
Andernfalls steht das System immer vor dem Zusammenbruch, wenn eine Verschiebung des Sprachstils dazu führt, dass der zugrunde liegende Dynamikbereich wechselt.
Diese improvisierte Lösung, erzwungene Formalisierung und dann Übersetzung, ist mehr als nur ein Trick.
Es ist ein direktes Fenster, das uns einen Einblick in die Architekturprinzipien gibt, die ein echtes Argumentationssystem erfüllen muss.