KI-Umfragen zu Zahlungs-Apps: ChatGPT simuliert Datenschutz-Ansichten
BIS Paper Read in English

KI-Umfragen zu Zahlungs-Apps: ChatGPT simuliert Datenschutz-Ansichten

Eine neue BIS-Studie nutzt ChatGPT zur Simulation von Umfrageantworten über Zahlungs-Apps und deren Wahrnehmung von Datenschutz und Vorteilen. Die Ergebnisse zeigen Ähnlichkeiten mit realen Umfragen, aber auch deutliche Einschränkungen der KI.

KI-Agenten spiegeln menschliche Präferenzen

Die Studie verwendet ChatGPT, um Umfrageantworten zu Zahlungs-Apps zu simulieren, wobei der Fokus auf Datenschutz und wahrgenommenen Vorteilen liegt.

Durch die Gestaltung von Prompts, die reale Nutzermerkmale widerspiegeln, stimmen die generierten Antworten mit den Ergebnissen einer niederländischen Umfrage überein, insbesondere wenn sie nach Datenschutzbedenken gruppiert werden.

Datenschutzbewusste KI-Agenten bewerten Apps weniger positiv, während Nutzer eine positivere Einstellung zeigen als Nicht-Nutzer, selbst ohne solche Merkmale im Prompt.

Dies deutet auf das Potenzial von GenAI als ergänzendes Werkzeug für Marktumfragen hin, insbesondere für das Brainstorming von Fragen und die Durchführung von Simulationen vor menschlichen Umfragen.

Der Trainingsdaten-Stichtag für ChatGPT-4o liegt vor der Veröffentlichung der Referenzstudie, wodurch keine Datenlecks gewährleistet sind.

Grenzen der Simulation: Variabilität und Bias

Trotz ihres Potenzials weist generative KI erhebliche Einschränkungen bei Umfrageanwendungen auf.

ChatGPT schafft es nicht, die Antwortvariabilität realer Umfragen abzubilden, was zu einer begrenzten Bandbreite an Antworten führt.

Darüber hinaus neigt es dazu, Datenschutzbedenken zu überbetonen, indem die meisten generativen Agenten als „Datenschutz-Fundamentalisten“ klassifiziert werden, was nicht mit tatsächlichen Umfragedaten übereinstimmt.

Diese Verzerrung bleibt auch bei einer Änderung des simulierten Wohnsitzlandes bestehen, was auf eine Herausforderung bei der Identifizierung und Behebung ihrer Ursache hindeutet.

Diese Ergebnisse erfordern erhebliche Vorsicht beim Einsatz von GenAI für Umfragen.

Nützlich, aber kein Ersatz

Die Studie bestätigt das Potenzial von GenAI als wertvolles Werkzeug für die Marktforschung.

Ihre Limitationen bei Variabilität und Bias zeigen jedoch klar, dass menschliche Umfragen unverzichtbar bleiben.

Für die Politik bedeutet dies, KI als Ergänzung zu nutzen, aber nicht als alleinige Grundlage für Entscheidungen.