BUNDESTAGSWAHL 2021 Mehr erfahren
Diagramm

14.10.2014 | Von:
Harald Schoen
Robert Greszki

Politische Umfrageforschung in Deutschland – Ein Überblick

Stichprobenfehler und Berichterstattung

Die Datenerhebung bei politikbezogenen Umfragen beruht auf dem Prinzip der Zufallsauswahl. Sie erlaubt es, mithilfe der sogenannten schließenden Statistik von einer Stichprobe im Umfang von beispielsweise 1000 Personen auf 60 Millionen Wahlberechtigte zu schließen. Voraussetzung dafür ist, dass jeder Wahlberechtigte mit gleicher oder zumindest bekannter Wahrscheinlichkeit in die Stichprobe gelangen kann. Um dies sicherzustellen, haben Sozialforscher für persönliche und telefonische Befragungen, die beiden traditionell bevorzugten Verfahren, verschiedene Techniken entwickelt. Beispielsweise erlaubt es die sogenannte Random-digit-dialing-Methode in Telefonbefragungen potenzielle Befragte nach dem Prinzip der Zufallsauswahl anzurufen.[17]

Liegen Daten aus einer Zufallsstichprobe vor, können Ergebnisse durch statistische Verfahren von der Stichprobe auf die Grundgesamtheit übertragen werden – etwa auf alle Wahlberechtigten in der Bundesrepublik. Allerdings darf dabei nicht übersehen werden, dass die Stichprobe zufällig ausgewählt wurde und daher die darauf gestützten Ergebnisse auch zufällig von den tatsächlichen Werten in der Grundgesamtheit, denen das eigentliche Interesse gilt, abweichen können. Diese Unsicherheit lässt sich in Form des Zufallsfehlers berechnen.[18] Der Zufallsfehler hängt maßgeblich von der Stichprobengröße und der Streuung der Befragtenangaben ab. Je größer die Stichprobe und je kleiner die Streuung, desto genauer ist das Ergebnis. Würden beispielsweise 350 von 1000 Befragten angeben, bei der kommenden Wahl für die Unionsparteien votieren zu wollen, so liegt der Schätzwert für die Stichprobe bei 35 Prozent. Bei der Übertragung auf alle Wahlberechtigten wäre demnach zu folgern, dass – vereinfacht formuliert – der tatsächliche Stimmenanteil der Unionsparteien in 95 Prozent der Fälle zwischen beispielsweise 33,2 und 36,8 Prozent variieren kann.[19]

Diese Unsicherheit ist unvermeidlich, wird in der Berichterstattung über Umfrageergebnisse aber häufig nur im Kleingedruckten erwähnt oder ganz unterschlagen.[20] Die Folgen sind offenkundig. Würde in unserem Beispiel für die Unionsparteien in einer Folgebefragung ein Stimmenanteil von 36 Prozent ermittelt, so bewegte sich dieser innerhalb der stichprobenbedingten Unschärfe und wäre nicht der Rede wert. Nicht selten wird darüber in der Öffentlichkeit jedoch anders gesprochen. Aus einer nicht nennenswerten Schwankung wird ein Zustimmungszuwachs, der mit politischen Geschehnissen und Entscheidungen in Verbindung gebracht wird. Diese Form der Scheinpräzision, die ihre Steigerung in Prozentangaben mit Nachkommastellen findet, sorgt dafür, dass die Öffentlichkeit wankelmütiger dargestellt und wahrgenommen wird, als sie tatsächlich ist. Das kommt vermutlich dem Bedürfnis von Medien und Erhebungsinstituten entgegen, im Wettbewerb um Marktanteile öffentliche Aufmerksamkeit zu erregen. Aber die Schattenseiten sollten nicht übersehen werden. Die Fixierung auf Punktschätzungen ist der sachgerechten Aufklärung der Gesellschaft über sich selbst nicht dienlich.

Die Vernachlässigung stichprobenbedingter Unschärfe kann auch dazu beitragen, in der Öffentlichkeit falsche Erwartungen an die Arbeit von Wahlforschungsinstituten zu nähren. Sieht man von allen anderen damit verbundenen Problemen wie etwa Falschantworten der Befragten ab,[21] könnte eine mit statistischer Unschärfe vertraute Öffentlichkeit beispielsweise auf Abweichungen der Parteianteile in Vorwahlbefragungen vom tatsächlichen Wahlergebnis deutlich gelassener reagieren, als dies gelegentlich geschieht.

Systematische Stichprobenverzerrungen

Bislang gingen wir von der Annahme aus, alle potenziellen Befragten werden tatsächlich befragt. Diese Annahme ist jedoch nicht haltbar. Die Ausschöpfungsquoten entsprechen kaum jemals 100 Prozent und sind im Laufe der Zeit merklich gesunken.[22] So lag sie bei der Allgemeinen Bevölkerungsumfrage (ALLBUS) 2012 bei rund 38 Prozent, obgleich nach den Regeln der empirischen Sozialforschung vorgegangen wurde.[23] Bei Telefonbefragungen sind die Ausschöpfungsraten noch erheblich niedriger. Neben dem schleichenden gesellschaftlichen Wandel dürften zum Absinken der Ausschöpfungsraten auch Skandale etwa um zweifelhafte Praktiken des Telefonmarketings beigetragen haben.

Die Folgen liegen auf der Hand. Es wird aufwendiger, eine bestimmte Zahl von Personen zu befragen, was steigende Kosten bedeutet. Darüber hinaus kann nicht ohne Weiteres davon ausgegangen werden, dass die Personen, die nicht erreicht werden können oder nicht bereit sind, an einer Befragung teilzunehmen, sich nicht systematisch von den Befragungsteilnehmern unterscheiden. Vielmehr scheint die Teilnahmewahrscheinlichkeit mit verschiedenen Merkmalen, etwa soziodemografischen Charakteristika und dem Interesse am Gegenstand der jeweiligen Befragung, zusammenzuhängen.[24] So nehmen beispielsweise politisch interessierte Leute mit höherer Wahrscheinlichkeit an Bevölkerungsbefragungen zu politischen Themen teil als Personen, die sich für Politik wenig oder gar nicht interessieren. Überträgt man nun Befragungsergebnisse zu Merkmalen, die mit der Ausfallwahrscheinlichkeit zusammenhängen, auf alle Wahlberechtigten, können daher erhebliche Verzerrungen und Fehlschlüsse resultieren. Um diesem Problem beizukommen, werden unter anderem Maßnahmen zur Steigerung der Kooperationsbereitschaft der potenziellen Befragten[25] sowie Techniken zur nachträglichen Fehlerkorrektur eingesetzt. Sie konnten das Problem bislang allenfalls lindern, nicht jedoch generell lösen, weshalb hier erheblicher Forschungsbedarf besteht.

Probleme bei der Stichprobenziehung dürften auch dazu beitragen, dass vor Wahlen und Abstimmungen zwar viele umfragegestützte Aussagen über Stimmenanteile zu vernehmen sind, aber praktisch keine über die Beteiligungsabsicht.[26] Geht man etwa davon aus, dass das Interesse an der Volksabstimmung über das Projekt "Stuttgart 21" die Bereitschaft erhöht, an der Abstimmung selbst und an einer darauf bezogenen Befragung teilzunehmen, folgt daraus, dass in der realisierten Stichprobe die Bereitschaft zur Abstimmungsteilnahme überschätzt wird. Die Stimmenanteile für die Ja- und Nein-Seite können davon unberührt bleiben. Insoweit ist die Zurückhaltung, Aussagen über die Beteiligung an bevorstehenden Abstimmungen und Wahlen zu treffen, nachvollziehbar. Weniger einsichtig ist es vor diesem Hintergrund, dass Befragungen mitunter mit sehr kurzen Feldzeiten realisiert werden. Wenn beispielsweise innerhalb eines (halben) Tages 1000 Personen befragt werden, ist davon auszugehen, dass Stichprobenprobleme verschärft werden. Sie sind allenfalls dann zu vernachlässigen, wenn man sicher sein kann, dass sie mit den Merkmalen, über die Aussagen getroffen werden, nicht zusammenhängen.

Fußnoten

17.
Zu Weiterentwicklungen für Mobiltelefone vgl. Michael Häder/Sabine Häder (Hrsg.), Telefonbefragungen über das Mobilfunknetz. Konzept, Design und Umsetzung einer Strategie zur Datenerhebung, Wiesbaden 2009.
18.
Der Verzicht auf eine Zufallsauswahl würde das Problem nicht lösen, sondern verschärfen, da er Schlüsse auf die Gesamtbevölkerung unmöglich machte.
19.
Diese Beispielwerte beziehen sich auf das sogenannte 95-Prozent-Konfidenzintervall (Erwartungsbereich) bei einem aus Erfahrung realistisch anzunehmenden Standardfehler von 0,918. Siehe hierzu auch den Beitrag von Anne Jessen in dieser Ausgabe (Anm. d. Red.).
20.
Vgl. Frank Brettschneider, Demoskopie im Wahlkampf – Leitstern oder Irrlicht?, in: Markus Klein et al. (Hrsg.), 50 Jahre Empirische Wahlforschung in Deutschland. Entwicklung, Befunde, Perspektiven, Daten, Wiesbaden 2000, S. 485–490.
21.
Vgl. Dieter Ohr/Hans Rattinger, Zur Beziehung zwischen in der Vorwahlzeit erhobenen Wahlabsichten und Wahlergebnissen, in: Oscar W. Gabriel/Klaus G. Troitzsch (Hrsg.), Wahlen in Zeiten des Umbruchs, Frankfurt/M. 1993, S. 3–25.
22.
Vgl. Rainer Schnell, Nonresponse in Bevölkerungsumfragen. Ausmaß, Entwicklung und Ursachen, Opladen 1997; ders., Survey-Interviews. Methoden standardisierter Befragungen, Wiesbaden 2012.
23.
Vgl. ALLBUS 2012 (Studien-Nr. 4614), http://www.gesis.org/allbus/studienprofile/2012/« (19.9.2014).
24.
Vgl. Robert Groves/Stanley Presser/Sarah Dipko, The Role of Topic Interest in Survey Participation Decisions, in: Public Opinion Quarterly, 68 (2004), S. 2–31.
25.
Eine Möglichkeit besteht darin, materielle Anreize zu setzen. Vgl. Hanna Proner, Ist keine Antwort auch eine Antwort? Die Teilnahme an politischen Umfragen, Wiesbaden 2011.
26.
Daneben sind Falschantworten, das sogenannte overreporting, zu bedenken. Vgl. Robert Bernstein/Anita Chadha/Robert Montjoy, Overreporting Voting: Why it Happens and Why it Matters, in: Public Opinion Quarterly, 65 (2001), S. 22–44; Michael J. Hanmer/Antoine J. Banks/Ismail K. White, Experiments to Reduce the Over-Reporting of Voting: A Pipeline of Truth, in: Political Analysis, 22 (2014), S. 130–141.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autoren/-innen: Harald Schoen, Robert Greszki für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und der Autoren/-innen teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.