Gute Erhebungsmethoden sind nur die halbe Miete. Es kommt vor allem auf die Analyse an.

Wenn Marktforscher von „Methoden“ sprechen, meinen sie in den überwiegenden Fällen „Erhebungsmethoden“: Fokusgruppen, CATI, Tiefeninterviews, standardisierte Befragung, Online-Befragung, Leitfaden-Interviews, Soziographie und vieles mehr. Vielfach gliedern sich die Dienstleister darüber hinaus in quantitative und qualitative Forscher. Der folgende Beitrag beschäftigt sich ein wenig tiefer mit den verschiedenen Methoden und rückt darüber hinaus die Bedeutung der Analyse der Daten stärker ins Blickfeld.

So richtig es ist, sich Gedanken über die Erhebungsmethode zu machen, ist es zunächst einmal viel wichtiger, den Erkenntnisfokus zu schärfen. In der kundenbezogenen Marktforschung ist es uns in der Regel nicht so wichtig, welche Meinung der Kunde über unser Produkt hat. Viel wichtiger ist es uns, wie er sich verhält: Kauft er schließlich oder nicht? In welcher Menge und zu welchem Preis? Empfiehlt er das Produkt weiter? Spricht er überhaupt darüber? Wie spricht er darüber? All diese Fragen sind verhaltensbezogene Fragen, die wir mit unterschiedlichen Methoden messen können. Erst im zweiten Schritt fragen wir uns, warum er sich so verhält. An dieser Stelle neigen viele Unternehmen – viel zu früh – dazu, den Kunden zu fragen. Kunden zu befragen, bedeutet jedoch in der Regel, Meinungen einzuholen. Meinungen können wichtig sein – nicht umsonst gibt es die Riege der „Meinungsforscher“ -, eine Meinung hat aber nicht immer etwas mit Verhalten zu tun. Zwischen Meinung und Verhalten können Lichtjahre liegen.

Übersicht sozialwissenschaftlicher Erhebungsmethoden

Übersicht sozialwissenschaftlicher Erhebungsmethoden

Messen ist besser als befragen

Marktforscher sind in aller erster Linie darüm bemüht, Daten zu bekommen, die das tatsächliche Verhalten von Kunden messen, ohne sie in den Test involvieren zu müssen – hier unter Ökoskopie eingeordnet. In diese Kategorie fallen z.B. alle Daten, die uns Google-Analytics zur Verfügung stellt und davon abgeleitet sogenannte Split- oder A/B-Tests, bei denen verschiedene Varianten den Kunden bzw. Usern zur Verfügung gestellt werden und dann schlicht gezählt wird, welche Variante mehr Zuspruch findet. Das besondere hierbei: Es handelt sich eigentlich nicht mehr um klassische Experimentierumgebungen, sondern es wird live reales und ungefärbtes Kundeverhalten gemessen. Etwas besseres kann sich der Marktforscher gar nicht wünschen, ist aber nur dort möglich, wo Varianten einfach erstellt und wieder verworfen werden können und wo sich sehr schnell Eregebnisse ablesen lassen – hier also vor allem bei Online-Services.

In der Entwicklung anfassbarer Produkte ist es etwas komplizierter und aufwändiger. Besonders die großen Unternehmens leisten sich hier sehr ausgefeilte Testdesigns, die aber ebenfalls zum Ziel haben, Präferenzen zu messen und nicht abzufragen. In diese Kategoerie fallen beispielsweise die sogenannten „Car Clinics“ und im Dienstleistungsbereich Testmärkte, also Supermärkte, in denen man tatsächlich einkaufen kann, aber dabei sehr intensiv beobachtet wird. Diese Kategorie ist der Grafik als „Experiment“ bezeichnet, da alle steuerbaren Einflussparameter solange kontrolliert orchestriert werden können, bis ein optimales Ergebnis vorliegt.

Diese beiden Varianten sind quantitative Methodenansätze, weil über eine möglichst große Zahl und statistische Auswertungsmethoden Erkenntnisse gewonnen werden. Überhaupt ist die übliche, etwas verwirrende Unterscheidung zwischen „quantitativ“ und „qualitativ“ lediglich die der zugrunde liegenden Fallzahlen: je weniger, desto qualitativer – was natürlich Unsinn ist. Auch quantitative, d.h. mit hohen Fallzahlen operierende Untersuchungsdesign liefern „qualitative“ Ergebnisse (was allerdings nichts über die Brauchbarkeit aussagt). „Qualitativ“ ist im allgemeinen Sinne eher mit „intensiv“ oder „kategorial“ gleichgesetzt. Wenige Fälle können eben sehr viel genauer, intensiver und hinsichtlich ihrer kategorialen Einordnung untersucht werden. Analog zu einem Biologen, der auf einer unendeckten Insel eine neue Pflanzenart zunächst anhand weniger Exemplare sehr genau untersucht, analysiert der Sozialforscher Phänome zunächst anhand einiger weniger Fälle, bevor er mit statistischen Methoden Häufigkeiten und Verteilungen bestimmt.

Beobachten statt Befragen

Es gibt nur wenige „qualitative“ Methoden, die Verhalten zu erforschen versuchen. Eine davon ist die Ethnographie. Früher hätte man hierzu wahrscheinlich „teilnehmende Beobachtung“ gesagt – aber neue technische Möglichkeiten schaffen eben auch veränderte Begriffe. Die ursprünglich aus der Ethnologie stammende Methode wird mittlerweile verstärkt auch in der heimischen Marktforschung eingesetzt, was auf einen erweiterten Kulturbegriff im Sinne von „Subkultur“ oder auf das unbestimmt „Fremde“, was uns zum Zeitpunkt der Erforschung noch unbekannt ist, verweist. Wie auch immer, entscheidend bei der Methode ist, dass Kunden in ihrer Alltagsumgebung – sei es am Arbeitsplatz, in ihrem Auto oder zu Hause – beim Umgang mit dem zu untersuchenden Gegenstand zu beobachten, mit ihnen zu sprechen und diese Interaktion auf Video aufzuzeichnen, um es einer genauern Analyse zugänglich zu machen.

Bei der teilnehmenden Beobachtung bzw. Ethnograhie entsteht ein nicht unerhebliches Problem: Das Wissen des Probanden um die Beobachtung und die unvermeidbare Interaktion mit dem Beobachter. Jeder, der wissentlich schon einmal beobachtet wurde, weiß wie sich das anfühlt. Jeder, der das Gefühl hat, beobachtet zu werden, verhält sich anders als wenn er alleine wäre. Das ist eine Art Naturgesetz. Wie also kommt man an das unverfälschte, natürliche – wenn man so will – authentische Verhalten des Kunden? Die Antwort: Gar nicht. So enttäuschend diese Aussage vielleicht sein mag, so hoffnungsvoll soll die Nächste stimmen: Wir brauchen dieses unverfälschte und natürliche Verhalten überhaupt nicht. Denn erstens: Menschen können sich nur bis zu einem gewissen Grade und nur über einen vergleichsweise kurzen Zeitraum verstellen. Und zweitens: Die Art und Weise wie wir uns verstellen ist selbst aufschlussreich genug.

Marktforschung hat zwei Komponenten: Erhebungsmethode und Auswertungsmethode. Bei quantitativ angelegten Forschungsdesigns ist die Frage der Analyse in die Erhebung integriert: Eine quantitative Studie hat immer Zahlen und Statistiken als Ergebnis. Darauf ist das Studiendesign ausgelegt: Eine große Menge von Kunden standandisiert, also nach einem einheitlichen Vorgehen zu befragen. Dieses Vorgehen sagt freilich nichts über die Korrektheit der Ergebnisse. An dieser Stelle soll der sehr aufschlussreiche Verweis auf die „Probleme in der Meinungsforschung“ im Wikipedia-Beitrag zur Meinungsforschung genügen. Eine weitere Frage, die sich aus der quantitativen Erhebung ergibt, ist die nach der Interpretation der Ergebnisse. Aber auch diese soll hier nicht weiter vertieft werden.

Die Auswertung qualitativ erhobener Daten ist für die meisten Forscher ein ungelöstes Problem

Bei den qualitativen Erhebungsmethoden ist die Frage der Datenauswertung für die meisten Forscher ein ungelöstes Problem. Da durch qualitative Methoden in der Regel schon bei wenigen Probanden Berge von Daten in Form von seitenlangen Interviewtranskripten oder stundenlangen Ton- oder Videomitschnitten entstehen, ist die Frage nach der effizientesten und dabei zugleich aufschlussreichsten Analysemethode virulent. Schon daran sieht man, dass eine Erhebungsmethode alleine keinen wirklichen Nutzen hat. Viele Forscher lösen das Problem, in dem sie über die „qualitativ“ erhobenen Daten wiederum statistische Verfahren der Auswertung legen. Interviewtexte werden beispielsweise nach bestimmten Schlüsselbegriffen durchsucht und schlicht gezählt. Es gibt mittlerweile eine Reihe von Computerprogrammen, die große Textmengen „semantisch“ analysieren. Heraus kommen dabei Aussagen über sehr rudimentäre Bedeutungsstrukturen des Textes, die allerdings nichts mit einer hermeneutischen Bedeutungsanalyse zu tun haben. All diese Versuche, den Textmengen Herr zu werden, führen den Aufwand der Erhebung ad absurdum, weil sie die Qualität der Erhebung durch unzureichende Analysewerkzeuge zunichte machen. Demgegenüber ist jedes standadisierte Vorgehen besser und vermutlich auch billiger.

Nun ist es nicht so, dass es keine geeigneten Verfahren der Bedeutungsanalyse gäbe. Eines davon ist die objektive Hermeneutik. Die objektive Hermeneutik ist eine Methode zur Rekonstruktion objektiver Bedeutungsstrukturen in Texten. „Texte“ sind dabei festgehaltene, d.h. protokollierte soziale Interaktionen. Genau so muss man eine Erhebung im Rahmen einer Marktfoschung verstehen: als eine in sich erklärbare soziale Interaktion. Sobald man die Einflüsse durch die Erhebung auf die Realiät nicht mehr als störend wahrnimmt, sondern als Teil einer Interaktion, werden die „Störungen“ erklärbar und lassen Blick auf die tatsäschliche Realität zu. Es würde an dieser Stelle viel zu weit führen, die objektive Hermeneutik zu erläutern. Wichtig ist die lediglich die umso weitreichendere Erkenntnis, durch ein geeignets Analyseverfahren, Einflüsse bei der Erhebung erklärbar zu machen. Die dadurch entstehende Rückkopplungseffekte auf die Erhebung ergeben ein rundes, weil komplettes qualitatives Forschungsdesign.

Ziel der Erhebung ist es, die für die gewählte Analysemethode bestmöglichen Daten zu liefern. Sie ist ist somit nur die eine Seite einer Medaille, die zusammen mit der Auswertungsmethode ein Ganzes ergibt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.