
Autorin: Tamara Ritter
In der Marktforschung wird künstliche Intelligenz (KI) bereits angewendet – beispielsweise in der Analyse von Daten, beim Erarbeiten von Fragebögen oder beim Durchforsten von offenen Antworten. Die Motivation für den Einsatz von KI liegt auf der Hand: Es geht um Effizienz und somit um Kosteneinsparungen. So gibt es mittlerweile Überlegungen, künstliche Intelligenz in der Marktforschung auch in der Datenerhebung anzuwenden. Konkret: Statt Hunderte Personen in persönlichen Interviews zu einem Produkt zu befragen oder Tausende Fragebogen von echten Menschen ausfüllen zu lassen, könnten sogenannte Large Language Models (LLM) – wie beispielsweise ChatGPT – innert Minuten Ergebnisse liefern. Steffen Müller, Professor für Marketing am Institut für Marketing Management an der ZHAW School of Management and Law, hat genau dies gemeinsam mit Christoph Bräunlich und Jan Eubel von der Schweizer Firma BSI getestet. Dabei haben sie sich auf den Bereich Finanzdienstleistungen und Neo-Banken konzentriert.
KI-Modelle tendieren dazu, die Meinung von gut gebildeten weissen Personen abzubilden
Steffen Müller, Institut für Marketing Management
Beim Einsetzen von LLM sei vor allem eines wichtig: das richtige Prompting, also «die schlauste Art, das Modell nach einem Ergebnis zu fragen», sagt Müller. Daher hat das Forschungsteam in einem ersten Schritt genaue Personas für das Projekt erstellt und in den Prompt integriert. Diese hypothetischen Personen wurden mit soziodemografischen Merkmalen wie Alter, Geschlecht, Bildungsstand und Wohnort versehen, um die gewünschte Bevölkerungsschicht repräsentativ abzubilden. «Wichtig zu erwähnen ist dabei, dass Large-Language-Modelle dazu tendieren, ‘weird’ zu sein», sagt Müller und meint damit nicht etwa, dass die Tools irgendwie seltsam sind.
Er ordnet ein: «Die Abkürzung ‘weird’ fasst zusammen, welche Menschengruppen KI-Modelle in Antworten oft bevorzugen: white (weiss), educated (gebildet), industrialised (aus industriellen Ländern), rich (reich) und democratic (demokratisch).» Large-Language-Modelle wie ChatGPT widerspiegeln demnach vor allem die westliche Welt – man spricht auch von «Unconscious Bias», also einer Voreingenommenheit, welche die Stereotypen, die in Gesellschaften lauern, bestätigt. Inwiefern die definierten Personas mit dem Unconcious Bias konkurrieren, ist schwer einzuschätzen. Das Projekt von ZHAW und BSI mit dem Fokus auf Finanzdienstleistungen und Neo-Banken in den USA, Grossbritannien und Deutschland passte jedoch ins westlich geprägte Bild der meisten Large-Language-Modelle. Eine gute Ausgangslage, wenn es darum geht, eine künstlich generierte Gesellschaft befragen zu wollen.
Das Team hat also die vorgefertigten Personas mit vier verschiedenen LLMs (ChatGPT-4o, Llama 3.3 70B, Qwen 2.5 72B und Mixtral-8x7B) zu Neo-Banken befragt. Fragen wie «Welche Neo-Banken kennen Sie?» oder «Bei welcher Neo-Bank sind Sie Kund:in?» kamen vor. Die gleichen Fragen hat das Projektteam 200 echten Personen gestellt und die Antworten miteinander verglichen. Das Ergebnis: je nach Frage ernüchternd.
Die KI-Modelle haben die Lage teilweise komplett falsch eingeschätzt. Während die KI-Modelle offene oder numerische Fragen teilweise ähnlich wie reale Personen beantworteten, stimmten die Antworten von Ja/Nein-Fragen in den meisten Fällen nicht annähernd überein. So wurden auf die Frage, ob ein Konto bei einer Neo-Bank besteht, die Ja-Anteile in allen drei Ländern deutlich zu niedrig eingeschätzt – teilweise durchgehend mit 0 Prozent.
«Zu erklären ist dies mit dem wohl noch wenig ausreichenden Training der Modelle für den spezifischen Kontext», sagt Müller. Studien der Harvard Business School und der University of Wisconsin kommen zum gleichen Schluss: Die Datenerhebung in der Marktforschung mit künstlicher Intelligenz zu tätigen – sogenanntes Silicon Sampling –, kann verlockend sein, wenn es um Effizienz geht. Dennoch sind die Ergebnisse nicht ausreichend wahrheitsgetreu, um ihnen zu vertrauen und daraus Marketingstrategien abzuleiten.
Müller fasst zusammen: «Für explorative Forschung oder in Vorstudien für kausale Forschung kann künstliche Intelligenz hilfreich sein.» Bei deskriptiver Forschung, also der Abbildung von Realitäten, funktioniert künstliche Intelligenz bislang für viele Fragestellungen nicht gut genug. Ein interessanter Ansatzpunkt seien künftig jedoch das Training eines LLM mit eigenen Daten, etwa aus dem CRM-System oder aus vergangenen Befragungen, und das Finetuning des Modells.
Und was empfiehlt Steffen Müller praktizierenden Marktforschenden? «Gerade in Spannungsfeldern, wo schnelle Ergebnisse verlangt werden, kann es verlockend sein, sich auf die teilweise gut klingenden Antworten künstlicher Intelligenz zu verlassen», sagt Müller und appelliert: «Marktforschende sollen kritisch bleiben, hinterfragen, wie die Daten erhoben wurden, und die laufenden Trends für Marketingtools verfolgen.»
Auch wenn es in den nächsten Jahren vermutlich einige Firmen geben werde, die künstlich erhobene Daten anbieten, sei die Qualität von Antworten realer Personen nicht zu unterschätzen, betont Müller. Denn das Leben spielt sich nach wie vor in der echten Welt ab.
Wird künstliche Intelligenz auch Bereiche mit sensiblen Kundendaten, wie das Private Banking und das Versicherungswesen, revolutionieren? Johannes Höllerich, Dozent in der Abteilung Banking, Finance and Insurance an der School of Management and Law, sieht in KI-Tools Potenzial. Sie können Bankmitarbeitenden helfen, aktuelle Marktdaten zu analysieren oder relevante Informationen zu bestimmten Aktien bereitzustellen, Informationen aus dem Intranet zu bündeln, Marktberichte zusammenzufassen oder steuerrechtliche Vorschriften schnell zu finden. Einige Schweizer Banken seien bereits daran, Lösungen für interne Recherche-Tools zu entwickeln. Erste Startups beschäftigen sich zudem mit KI-basierten Chatbots für die direkte Beratung ihrer Kund:innen. Die Datensicherheit und die Gefahr von Halluzinationen – also wenn die KI-Tools falsche Aussagen tätigen – seien dabei nicht zu unterschätzen, sagt Höllerich, darum sei sowohl aufseiten der Kund:innen als auch der Mitarbeitenden noch viel Skepsis vorhanden.
Nichtsdestotrotz: Large-Language-Modelle wie ChatGPT können Privatpersonen bereits heute helfen, sich Finanzwissen anzueignen. «Sich gänzlich auf Antworten eines KI-Modells zu verlassen, würde ich eher nicht empfehlen, da gerade beim Anlegen viele Faktoren zusammenspielen», erklärt Johannes Höllerich. Dennoch könnten sich Kund:innen mithilfe von künstlicher Intelligenz beispielsweise auf Beratungsgespräche vorbereiten und gezielt Fragen stellen oder Argumente bereithalten. Der Kern des Private Banking bleibe weiterhin die enge, vertrauensvolle Beziehung zwischen Beraterin und Kunde – insbesondere bei komplexen Mandaten, internationalen Steuerfragen oder anspruchsvollen Familienkonstellationen, beteuert Höllerich.
Das Gleiche gelte für Versicherungsberatende: «Ich sehe künstliche Intelligenz im Versicherungsbereich momentan eher als Unterstützung in der Beratung», sagt Pirmin Mussak, Dozent am Institut für Risk and Insurance. Längerfristig könnten Large-Language-Modelle die Versicherungsbranche aber revolutionieren. Künstliche Intelligenz werde heute bereits erfolgreich in der Schadenbearbeitung und im Kundenservice eingesetzt. In aktuellen Forschungsprojekten untersucht Mussak, wie generative KI den Vertriebsbereich verändern kann. Interessant sei es dabei unter anderem, zu untersuchen, inwiefern KI-gestützte Chatbots dazu beitragen können, dass Kund:innen zu objektiv besseren Entscheidungen kommen, wenn sie eine neue Versicherungspolice wählen. Stand heute bevorzugten allerdings trotz Digitalisierung viele Kundinnen und Kunden weiterhin eine persönliche Beratung.
Headerbild: Adobestock/rawpixel.com
Autorin: Tamara Ritter