Die Evolution der market research: Von der focus group zur KI-Simulation.
Die Geschichte der market research ist eine Geschichte der Ernüchterung. Jede Generation glaubte, die definitive Methode gefunden zu haben, um zu verstehen, was Konsumenten wollen. Und jede Generation entdeckte die blinden Flecken der vorherigen. Dieser Artikel zeichnet den Weg von den ersten Befragungen bis zur synthetischen Simulation nach. Warum die vierte Generation der market research alles verändern wird.
Die Anfänge: market research als Befragungskunst (1920er–1940er)
Die moderne market research beginnt in den 1920er-Jahren in den USA. George Gallup entwickelte standardisierte Befragungsmethoden und bewies mit der korrekten Vorhersage der Präsidentschaftswahl 1936, dass systematische Stichproben besser funktionieren als das damals übliche Literary Digest mit seiner Millionen-Umfrage (die spektakulär falsch lag).
In den 1940ern revolutionierte Ernest Dichter die Branche. Der Wiener Psychoanalytiker brachte Sigmund Freuds Methoden in die market research und begründete die Motivforschung. Dichter erkannte als Erster, was die Branche bis heute beschäftigt: Was Menschen sagen und was sie tun, sind zwei fundamental verschiedene Dinge.
Dichters Einsicht war bahnbrechend. Er zeigte, dass Konsumenten oft nicht wissen, warum sie kaufen. Dass Kaufentscheidungen emotional, symbolisch und unbewusst motiviert sind. Dass die direkte Frage «Warum haben Sie das gekauft?» eine nachträgliche Rationalisierung produziert, keine Erklärung.
Tragischerweise wurde diese Erkenntnis in den folgenden Jahrzehnten weitgehend ignoriert. Die Branche baute ihre gesamte Methodik auf genau dem Instrument auf, dessen Grenzen Dichter bereits aufgezeigt hatte: der direkten Befragung.
Die Ära der focus groups (1960er–2000er)
Die focus group, wie wir sie heute kennen, wurde in den 1960er-Jahren zum Goldstandard der qualitativen market research. Robert Merton hatte die Methode bereits in den 1940ern für die Propagandaforschung entwickelt. Marketing-Agenturen adaptierten sie für kommerzielle Zwecke.
Die focus group bot etwas, das Entscheider lieben: Anschaulichkeit. Hinter dem Einwegspiegel zu sitzen und «echten Kunden» zuzuhören, fühlte sich an wie Kundennähe. Und die Ergebnisse liessen sich wunderbar in Präsentationen verpacken: Originalzitate, emotionale Reaktionen, lebendige Diskussionen.
Was dabei übersehen wurde: Die Methode produzierte systematisch verzerrte Ergebnisse. Social Desirability Bias, Groupthink und das Asch-Konformitätsphänomen machten jede focus group zu einem unreliablen Instrument. 8–12 Teilnehmende haben keinerlei statistische Aussagekraft. Und die Tatsache, dass sich dominant auftretende Teilnehmende überproportional durchsetzen, war bekannt, aber wurde als «Moderationsherausforderung» abgetan statt als fundamentales Designproblem.
Trotz dieser Schwächen dominierten focus groups fast ein halbes Jahrhundert. Der Grund war weniger methodisch als kulturell: Die Branche hatte riesige Infrastrukturen um die Methode herum aufgebaut (Studios, Rekrutierungsnetzwerke, Moderationstrainings) und war strukturell nicht in der Lage, ihre eigene Grundlage in Frage zu stellen.
Die digitale Revolution (2000er–2010er)
Mit dem Internet kam die quantitative Online-Forschung. Panel-Anbieter bauten riesige Datenbanken mit befragungswilligen Personen auf. Plötzlich waren Stichproben von 1.000 oder 5.000 Personen erschwinglich. A/B-Tests wurden zum Standard im digitalen Marketing. Big Data versprach, Konsumentenverhalten durch die Analyse von Klick-, Kauf- und Bewegungsdaten zu verstehen.
Die digitale Revolution löste das Stichprobenproblem: Erstmals waren grosse, statistische relevante Stichproben auch für kleinere Unternehmen bezahlbar. Sie löste auch das Geschwindigkeitsproblem: Online-Umfragen lieferten Ergebnisse in Tagen statt Wochen.
Was sie nicht löste: das Grundproblem. Online-Umfragen messen was Menschen sagen, nicht warum sie es tun. Big Data zeigt was Menschen klicken, nicht warum sie klicken. Die Lücke zwischen beobachtetem Verhalten und den tieferliegenden Motivationen blieb bestehen.
Die KI-Revolution: Synthetische Simulation als vierte Generation (2020er)
Die vierte Generation der market research verändert nicht die Methode der Befragung: Sie verändert das Paradigma. Statt zu fragen, wird simuliert. Statt Selbstauskunft zu sammeln, werden Reaktionsmuster modelliert.
Silicon Sampling, die Methode des SERL Lab in Luzern, nutzt KI, um 10.000 synthetic test subjects zu generieren. Jedes Profil repräsentiert eine einzigartige Kombination aus Demografie, Psychografie und Erfahrungswerten. Diese Profile reagieren auf Ihre Strategie, Marke oder Botschaft. Die Resonance Analysis misst die Wirkung über vier Dimensionen.
Was diese vierte Generation von allen vorherigen unterscheidet: Sie akzeptiert die Erkenntnis, die Ernest Dichter vor 80 Jahren formulierte. Menschen können nicht zuverlässig über ihre eigenen Entscheidungsprozesse berichten. Also hört man auf, sie danach zu fragen. Stattdessen modelliert man ihre Reaktionen auf Basis psychografischer Profile, die auf validierten psychologischen Modellen basieren, nicht auf Selbstauskunft.
Was jede Generation besser machte, und was sie übernahm
Die erste Generation (Befragung) brachte Systematik in die Kundenforschung. Die zweite Generation (focus groups) fügte qualitative Tiefe hinzu. Die dritte Generation (Digital) brachte Skalierung und Geschwindigkeit. Jede Generation löste ein Problem der vorherigen.
Aber jede Generation übernahm auch eine Grundannahme, die sie hätte hinterfragen müssen: dass Menschen in der Lage und willens sind, ehrlich und vollständig über ihre eigenen Präferenzen, Motivationen und Entscheidungsprozesse Auskunft zu geben.
Die vierte Generation ist die erste, die mit dieser Annahme bricht. Und das macht sie nicht nur zur nächsten Iteration, sondern zu einem echten Paradigmenwechsel.
Was das für Entscheider bedeutet
Für Unternehmen, die heute vor strategischen Entscheidungen stehen, ist die Botschaft klar: Die Werkzeuge, die Ihnen zur Verfügung stehen, sind besser als je zuvor. AI market research bietet eine Kombination aus Geschwindigkeit, Skalierung und methodischer Robustheit, die noch vor fünf Jahren undenkbar war.
Das bedeutet nicht, dass traditionelle Methoden obsolet sind. Für explorative Forschung, für Langzeit-Tracking und für spezifische Fragestellungen bleiben sie wertvoll. Aber für die Validierung strategischer Entscheidungen, wo Millionen auf dem Spiel stehen und die Zeit drängt, ist die vierte Generation überlegen.
Den Kostenvergleich aller Methoden und Generationen finden Sie in unserem separaten Artikel.
„Hundert Jahre market research haben bewiesen, dass Menschen nicht zuverlässig über sich selbst berichten können. KI-Simulation ist die erste Methode, die das akzeptiert und daraus eine Stärke macht.“ — Marcel Tobien, SERL Lab