EZB-Studie: KI-Architektur entscheidet über Stabilität
Künstliche Intelligenz birgt neue Risiken für die Finanzstabilität. Eine EZB-Studie zeigt, dass die Architektur von KI-Investoren entscheidend für die Stabilität der Märkte ist.
Q-Learning: Übermäßige Rücknahmen bei Ausfallrisiko
Die Studie untersucht das Verhalten von Q-Learning- und Large Language Model (LLM)-Investoren in einem Investmentfonds-Rücknahmeproblem mit wirtschaftlicher und strategischer Unsicherheit.
Q-Learning-Investoren koordinieren gut, zeigen aber bei Ausfallrisiken übermäßige Rücknahmen, die die Fragilität verstärken.
Dieses Verhalten wird durch einen 'Hot Stove Effect' erklärt: Seltene negative Erfahrungen, wie Verluste, beeinflussen zukünftige Entscheidungen stark, was zu übermäßiger Vorsicht führt.
Selbst bei starken Fundamentaldaten neigen QL-Agenten dazu, zu oft zu liquidieren, was zu ineffizienten Ergebnissen führt, die nicht mit dem spieltheoretischen Gleichgewicht übereinstimmen.
Die Autoren vergleichen dies mit 'algorithmischer Dummheit', da die Algorithmen Strategien anwenden, die suboptimal sind.
LLMs: Heterogene Erwartungen, unvorhersehbare Ergebnisse
LLM-Investoren verhalten sich anders.
Sie sind weniger von Ausfallrisiken betroffen, da sie über erwartete Ergebnisse nachdenken, anstatt aus wiederholten Erfahrungen zu lernen.
Allerdings schaffen sie ein anderes Problem: Wenn Fundamentaldaten so sind, dass die Erwartungen der Investoren über die Handlungen anderer zentral werden und mehrere Ergebnisse möglich sind, wird das LLM-Verhalten hochgradig unvorhersehbar.
Verschiedene LLM-Agenten bilden unterschiedliche Überzeugungen über die Handlungen anderer und teilen im Gegensatz zu menschlichen Investoren keine gemeinsamen Erwartungen oder Konventionen, die ihnen bei der Koordination helfen würden.
Dies führt zu weniger vorhersehbaren Marktergebnissen, obwohl individuelle Entscheidungen rational erscheinen.
Die Informationsverteilung spielt dabei eine Rolle: Private Signale können die Konsistenz der LLM-Entscheidungen verbessern.
Architektur als Achillesferse der Stabilität
Die Studie entlarvt die naive Annahme, KI würde Märkte rationalisieren.
Stattdessen verlagern sich die Risiken – von menschlicher Irrationalität zu algorithmischer Anfälligkeit.
Regulierer müssen die Blackboxen der KI-Architekturen dringend verstehen, um neue Krisen zu verhindern.