Fed-Forscher trimmen KI-Kosten: LLMs 80 Prozent effizienter
FED Paper

Fed-Forscher trimmen KI-Kosten: LLMs 80 Prozent effizienter

LLMs auf Sparkurs: Smarter lernen, weniger zahlen

Large Language Models (LLMs) sind präzise, aber teuer im Einsatz – ein Dilemma für Institutionen mit riesigen, dynamischen Textdaten.

Ein neues FEDS Paper stellt nun M-RARU vor, einen Active-Learning-Algorithmus, der die Trainingskosten drastisch senkt.

Durch geschickte Auswahl der informativsten Datenpunkte für das "Lehrer-LLM" reduziert M-RARU den Stichprobenbedarf um bis zu 80 Prozent.

Das Ergebnis: Deutlich schnellere und günstigere KI-Modelle, die dennoch die hohe Klassifikationsgenauigkeit der großen LLMs beibehalten.

Eine praktische Lösung für den breiten Einsatz von KI.

KI-Effizienz für Notenbanken

Die Fähigkeit, große Textkorpora schnell und präzise zu klassifizieren, ist für Zentralbanken und Finanzinstitutionen von wachsender Bedeutung – sei es bei der Analyse von Geschäftsberichten, Nachrichtenströmen oder Forschungsdokumenten.

Bislang scheitert der breite Einsatz von LLMs oft an den immensen Rechen- und Finanzkosten.

Dieses Paper adressiert genau diese praktische Hürde und liefert einen konkreten Ansatz, KI-Technologie auch in dynamischen Umgebungen wirtschaftlich nutzbar zu machen.

Praktische KI für Notenbanken

Die Studie liefert einen wichtigen Baustein für die praktische Anwendung von Large Language Models in datenintensiven Institutionen.

Sie zeigt einen Weg auf, wie die hohen Kosten von LLMs gesenkt werden können, ohne die Performance zu opfern.

Für Zentralbanken, die mit riesigen, unstrukturierten Textdaten arbeiten, ist dies von hoher Relevanz, auch wenn es keine direkten geldpolitischen Signale sendet.