Studie Large Language Models können strategisch denken

Quelle: IESE Business School München 1 min Lesedauer

Anbieter zum Thema

Eine aktuelle Studie der IESE Business School zeigt, dass LLMs weder bloße Nachahmer noch in vollkommen rationale Akteure sind: Sie bilden Überzeugungen, bewerten Optionen und handeln entsprechend.

Die Ergebnisse einer IESE-Studie zeigen, dass LLMs weder bloße Nachahmer noch vollkommen rationale Akteure sind, sondern etwas dazwischen.(Bild:  frei lizenziert /  Pixabay)
Die Ergebnisse einer IESE-Studie zeigen, dass LLMs weder bloße Nachahmer noch vollkommen rationale Akteure sind, sondern etwas dazwischen.
(Bild: frei lizenziert / Pixabay)

Large Language Models (LMMs) sind KI-Technologien, die menschliche Sprache und Texte verstehen, analysieren und erzeugen. Aber imitieren sie lediglich oder können sie tatsächlich denken? In einer Reihe von Experimenten, die sich auf Spieltheorie und Kognitionswissenschaft stützen, zeigen die IESE-Professoren Veronica Cappelli und Enric Junqué de Fortuny, dass LLMs zu strategischem Denken fähig sind – sie bilden Überzeugungen, bewerten Optionen und handeln entsprechend.

Ihre Überzeugungen variieren auch systematisch, je nachdem, gegen wen sie ihrer Meinung nach spielen, wie aus einer neuen Forschungsarbeit der IESE Business School mit Campus in München hervorgeht.

  • Wenn ihnen gesagt wird, dass sie gegen menschliche Gegner antreten, schränken sie ihre Argumentationstiefe ein.
  • Wenn sie jedoch glauben, dass ihr Gegner ein anderes Sprachmodell ist, zeigen LLMs metakognitives Bewusstsein – sie überlegen, wie sich ein mit menschlichen Daten trainiertes Modell verhalten könnte, und beziehen diese Erwartung in ihre eigene Strategie ein.

Diese Verhaltensweisen hinterfragen aktuelle Erkenntnisse, darunter eine Studie von Apple Research, die darauf hindeutet, dass das Denken von LLMs fragil ist und tatsächlich eher einem ausgeklügelten Musterabgleich ähnelt.

Wenn das Denken ins Stocken gerät

Stoßen ihre kognitiven Fähigkeiten an ihre Grenzen, ändern einige Modelle ihre Herangehensweise, so die Studie der IESE Business School. Anstatt ihre Argumentationskette zu erweitern, verlassen sie sich auf heuristische Regeln, die das Problem vereinfachen und gleichzeitig auf innere Kohärenz abzielen. In einigen Fällen spiegeln sie sogar menschliches Verhalten wider: Wenn das Denken ins Stocken gerät, greifen sie auf lose zusammenhängende Ideen oder Analogien zurück, die hilfreich sein könnten. Diese Tendenz, nach assoziativen Hinweisen zu suchen, wenn das direkte Denken versagt, fügt der sich entwickelnden strategischen Kognition der künstlichen Intelligenz eine weitere Ebene hinzu.

(ID:50617790)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung