Umfragen 2016 - Geschichte

Umfragen 2016 - Geschichte


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.


Eine kurze Geschichte der Abstimmungsprobleme am Wahltag

D ie USA haben eine lange Geschichte von Problemen im Wahllokal und nicht nur die potenziell qualvolle Wahl, wen sie wählen sollen. Von praktischen Problemen bis hin zu Einschüchterungen gibt es Dutzende von Schwierigkeiten, mit denen Amerikaner konfrontiert sind, die versuchen, sich Gehör zu verschaffen. Während der Vorwahlsaison 2016 stießen die Wähler auf Probleme, die von langen Schlangen bis hin zu falschen Registrierungslisten reichten. Und während die Parlamentswahlen am Dienstag beginnen, stehen Wahlschutzgruppen bereit, um sich mit allen Problemen zu befassen, auf die die Wähler stoßen könnten.

Ein Blick auf die Geschichte der Abstimmungsprobleme in den USA zeigt, dass der Wahltag zwar immer kompliziert war, aber die Art und Weise, in der das Wählen im Laufe der Jahre erschwert wurde, konsistent ist und nur in zwei Kategorien unterteilt wird: technologische Probleme und Probleme des Zugangs.

Wenn man eines über die Geschichte der amerikanischen Abstimmungstechnologie sagen kann, dann ist es, dass jeder Abstimmungsmechanismus Mängel aufweist.

Im Laufe der Jahrhunderte haben technologische Veränderungen neue Möglichkeiten für Fehler und Schwierigkeiten bei der Abstimmung geschaffen. Stimmabgabe per Stimme oder farbcodiertem Ticket setzt Wähler Einschüchterungen aus oder Stimmenkauf schließt heimlich diejenigen aus, die nicht lesen oder schreiben können. Es kann schwierig sein, die Absicht eines Wählers in einem Kontrollkästchen auf einem Blatt Papier zu interpretieren, aber mechanische Wahlgeräte können auch die hängenden und mit Grübchen versehenen Tölpel der Wahlen von 2000, die immer noch groß sind, versagen. Inzwischen haben computergestützte Maschinen dieses Problem nicht behoben: 2004 sammelte Senatorin Barbara Mikulski aus Maryland Berichte, dass Wähler in drei Bezirken die Vorwahlen des Senats auf ihren Bildschirmen der Wahlgeräte nicht einmal gesehen haben.

Aber während die Technologie problematisch sein kann, war es schon immer das besorgniserregendere Problem am Wahltag, sicherzustellen, dass jeder, der das Recht und den Wunsch hat, wählen zu können, dies tun kann.

Die vielleicht einfachste Form von Ärger bei den Wahlen ist, auf den ersten Blick geleugnet zu werden. Frauen, die vor der Verabschiedung des 19. Zusatzartikels protestierten, wurden oft abgewiesen, wenn auch nicht rechtswidrig.

In der Zwischenzeit andere, die Tat das Wahlrecht haben, wurde dieses Recht auch oft verweigert und vor allem Afroamerikanern.

Obwohl Gewalt und Ausschreitungen am Wahltag Mitte des 19. . Auch nachdem der 14. Verfassungszusatz schwarzen Männern die gleichen Bürgerrechte garantierte, die weißen Amerikanern genossen, bedeutete Gewalt, dass dieses Recht in der Praxis nur kurzzeitig von der schwarzen Bevölkerung genossen wurde. Octavius ​​Catto, ein Schwarzer, der der Union im Bürgerkrieg geholfen hatte, ein Intellektueller und ein erfahrener Lehrer, wurde 1871 in Philadelphia wegen Wahlen erschossen. Als im Mai 1876 in Indianapolis Stadtwahlen abgehalten wurden, gab es Berichte, dass afroamerikanische Wähler in Wahllokalen körperlich angegriffen wurden. Und bei den Präsidentschaftswahlen in diesem Jahr forderte ein weißer Rassist in South Carolina: „Jeder Demokrat muss sich verpflichtet fühlen, die Stimme mindestens eines Negers zu kontrollieren, durch Einschüchterung, Kauf, Fernhaltung oder wie jeder einzelne es selbst bestimmen kann.“ #8221

Ein Brief eines Afroamerikaners mit Schlagzeilen in der New York Mal als “How They ‘Voted’ in Mississippi” beschreibt die Einschüchterung, die denen ausgesetzt war, die wählen durften, die unter Androhung von Gewalt gezwungen wurden, das Gegenteil von dem zu wählen, was sie wollten. Berichte über solche Taktiken führten zu einer Untersuchung des Kongresses, bei der ein Mann aussagte, dass er in Louisiana “er sah, wie fünfzig farbige Männer von einer Wache weißer Männer zu den Wahlurnen marschierten und das demokratische Ticket wählten, wobei sie ihre Tickets vor der Abstimmung vorzeigen mussten ,” berichtete der Detroit Freie Presse.

Und sowohl vor als auch nach dieser Zeit des Wiederaufbaus – sogar bis in die 1960er Jahre – waren auch gewaltfreie Methoden der Entrechtung weit verbreitet.

Wähler müssen möglicherweise finanzielle Anforderungen erfüllen. Im frühen 19. Jahrhundert erhöhte New York die Menge an steuerpflichtigem Vermögen, die ein schwarzer Mann zum Wählen benötigte, obwohl diese Anforderungen für andere abgeschafft wurden. Kopfsteuern wurden zu einer allgegenwärtigen Methode, um Schwarze nach dem Wiederaufbau zu entrechten. Später wurden potenzielle Wähler manchmal fälschlicherweise darüber informiert, dass sie wegen nicht zusammenhängender Verstöße wie Strafzettel verhaftet werden könnten, wenn sie zu den Urnen erscheinen würden, eine Panikmache, die 1964 in Texas angewendet wurde und die anscheinend noch 1996 in New Jersey angewendet wurde. Einige wurden bedroht oder mit wirtschaftlicher Vergeltung in Form von Arbeitsplatzverlust, Räumung oder Kreditverweigerung gedient haben.

Wähler müssen möglicherweise einen Alphabetisierungs- oder „Verständnistest“ bestehen. so dass Sie in der Lage sein mussten, Ihre Stimme dem richtigen Kästchen für diesen Kandidaten zuzuordnen und die Kästchen regelmäßig zu mischen. Diese Reifen entwickelten sich zu Alphabetisierungstests&mdash, die oft fast unmöglich zu bestehen waren&mdash, die Afroamerikanern im Süden lange auferlegt wurden. Noch in den 1960er Jahren könnten Wählern verworrene logische Fragen gestellt werden, die sogar ein erfahrener Leser falsch verstehen könnte. Restriktive Gesetze zur Alphabetisierung richteten sich nicht nur an die armen oder schwarzen Wähler: New York, seit Generationen Heimat von Einwanderern, führte 1921 eine englische Alphabetisierungsanforderung ein.

Oder die Wähler könnten feststellen, dass es einfach unmöglich war, zu den Urnen zu kommen. Lerone Bennett Jr. schrieb 1962 in Ebenholz über die Strategien, die angewandt wurden, um schwarzen Wählern im Süden nach dem Bürgerkrieg die Stimmabgabe physisch unmöglich zu machen: “Bewaffnete weiße Männer waren auf den Straßen zu den Wahllokalen stationiert, ‘um zu verhindern, dass Neger Waffen beschlagnahmen.’ In einem County in Louisiana lagen die Wahllokale in einer isolierten Wildnis. Die Weißen versammelten sich in der weißen Kirche und man sagte ihnen im Flüsterton, wie sie die Wahllokale erreichen sollten.” Dies waren nicht die einzigen Manipulationen, und die Taktiken von kurzen oder wechselnden Wahlzeiten, Änderungen der Wahllokale in letzter Minute oder unzugänglichen Orten blieben bestehen .

Diese Sorge hält auch heute noch an: 2016 gibt es hunderte Wahllokale weniger als noch vor zwei oder vier Jahren. Und zum Beispiel hat eine kurzfristige Änderung der Wahllokale bereits die Einwohner von Boise, Ida., betroffen. Das Electionland-Projekt von ProPublica überwacht Berichte über lange Wartezeiten, Probleme mit Maschinen und Registrierungen im ganzen Land

Im Allgemeinen hat sich jedoch einiges verbessert.

Das Voting Rights Act von 1965 trug dazu bei, dass Taktiken wie Alphabetisierungstests nicht mehr verwendet werden konnten, um Afroamerikaner zu entmündigen. Nach 1975 verlangte der Kongress Sprachunterstützung für Minderheitengruppen in Bezirken, in denen sie 5 % der Bevölkerung ausmachten oder 10.000 zählten. Eine Erweiterung des Stimmrechtsgesetzes aus dem Jahr 1982 fügte den Schutz für blinde, behinderte und analphabetische Wähler hinzu. Der Americans with Disabilities Act von 1990 forderte außerdem physische Zugänglichkeit und Unterkünfte für Menschen mit Behinderungen.


Wahlkonsortium in Princeton

8. November 2016, 12:45 Uhr von Sam Wang

(Updates: 6:06 Uhr Daten für Präsidentschaft und Senat und zusätzliche Konfidenzintervalle. 9:00 Uhr: weitere Beschreibung, auch Varianzminimierung.)

Hier sind die letzten Schnappschüsse. Vier Senatsrennen liegen innerhalb eines Prozentpunktes: Indiana, Missouri, New Hampshire und North Carolina. Partisanen dort möchten sich möglicherweise für mögliche Nachzählungskämpfe verständigen.

Bald werde ich einen kurzen Geek's Guide to the Election herausbringen. Außerdem beginnt das Live-Blogging gegen 20:00 Uhr.

Präsidentin: Hillary Clinton (D).

Die Schätzungen des Präsidenten basieren auf der aktuellen Momentaufnahme in der rechten Seitenleiste, mit Ausnahme der Karte mit dem wahrscheinlichsten Einzelergebnis, bei der die Varianzminimierung vorgenommen wurde, um eine stabilere Momentaufnahme für North Carolina zu erhalten, Clinton +1,0 ± 1,0% (N= 8 Umfragen).

Wahrscheinlichstes Einzelergebnis (siehe Karte unten): Clinton 323 EV, Trump 215 EV. Dies ist auch der Modus des NC-bereinigten Histogramms.

Median: Clinton 307 EV, Trump 231 EV. Meta-Marge: 2,2%. Ein-Sigma-Bereich: Clinton 281-326 EV. Die Gewinnwahrscheinlichkeit beträgt 93 % unter Verwendung der revidierten Annahme des Abfragefehlers, +/- 1,1 %.

Nationale Volksabstimmung: Clinton +4,0 ± 0,6%.

Wenn möglich, wurde Varianzminimierung verwendet, um ein Zeitfenster zu identifizieren, das eine geringere Varianz als das Standardzeitfenster ergab.

Modus: 51 demokratische/unabhängige Sitze, 49 republikanische Sitze Die wahrscheinlichste Einzelkombination ist in der folgenden Tabelle aufgeführt.

Median: 50 demokratische/unabhängige Sitze, 50 republikanische Sitze. (Durchschnitt=50,4 ± 1,1 der 1-Sigma-Bereich rundet auf 49 bis 51 Sitze)

Allgemeine Kongressabstimmung: Demokratisch +1%, ungefähr gleich wie 2012.

Erwartungen basierend auf dem politischen Bericht von Cook: 239 R, 196 D, ein 8-Sitzgewinn für die Demokraten.

Bisher 168 Kommentare &darr

Rückblickend auf den primären Umfragefehler in Michigan (http://election.princeton.edu/2016/03/09/how-surprising-was-the-sanders-win-in-michigan/) was halten wir von den schlechten Nachrichten? auf dieser Seite der Medaille (MI, -19 AZ, -12 NC, -10 NH, -9 PA, -4 IA, -4)? Die gute Nachricht ist: OH, +6 FL, +3. Schwer zu sagen über Caucus Staaten CO, NV. Verzeihen Sie mir, wenn dieser Bereich abgedeckt wurde, würde mich über einen Link dazu freuen.

Tief durchatmen, tief durchatmen // 8. November 2016 um 11:46 Uhr

Sam, einige in Yale reden beißend über dich!

Ed Wittens Cat // 8. November 2016 um 11:51 Uhr

Der König ist tot…
Lang lebe der König!
Nate ist WIRKLICH nicht so.

Ed Wittens Cat // 8. November 2016 um 11:57 Uhr

von Wired Artikel–
Weil Wang die ganze Zeit über True North gesegelt ist, während Silver vorsichtig versucht hat, sein FiveThirtyEight-Datensegelboot (mit ESPN-Goldbarren beschwert) durch tückischen Gegenwind der Kategorie-Fünf-Hurrikan in der mit Abstand verrücktesten Präsidentschaftskampagne in zu kreuzen das moderne politische Zeitalter.

Hey, alle zusammen – könnt ihr bitte keinen Siegestanz über diesen Artikel machen? Ich möchte diese Art von Vergleichen reduzieren. Sie alle wissen, was er getan hat, um diese Aktivität in der Öffentlichkeit zu schaffen. Er ist ein Pionier.

Ed Wittens Cat // 8. November 2016 um 12:46 Uhr

Ich habe dir 2012 gesagt, dass ich mit Silver fertig bin
als er das NYT-Stück verschwand, schrieb er, um den Mythos über das Oversampling zu entlarven.
Das war pures Anbiedern.
Wissenschaftler und Mathematiker haben eine tiefe Verantwortung für das öffentliche Wohl, um sich nicht für Klicks und Augäpfel zu huren.
Aus diesem Grund ist die Transparenz von Umfrageaggregationsmodellen so wichtig.

Katze: Unabhängig davon erhöht es nicht das Nettogut der Welt, einen Katzenkampf anzuzetteln (oder anzuheizen). Hier würde die Welt durch Versöhnung verbessert.

Hat sonst noch jemand die feste Periodizität im MM-Plot und die anderer Umfragebeobachter wie das Ergebnis bemerkt? Peak-to-Peak scheint etwas weniger als 2 Monate zu betragen. Seltsam, weil die Zustandsdiagramme (z. B. Upshot) diese Funktion nicht ohne weiteres zeigen. Aber die nationale Verschwörung ist eine Faltung der staatlichen Verschwörungen, also ist dies ein auftauchendes Verhalten.

Hat jemand einen FFT-Code? Seien Sie gespannt, ob uns das etwas sagt.

Bob McConnaughey // 8. November 2016 um 15:03 Uhr

Nicht FFT, aber ich habe einen SAS-Code, den ich ausgraben kann, der eingerichtet ist, um die Saisonalität zu bewerten, tatsächlich wurde er von dieser Website von Ed Stanek ausgeliehen:
http://www.umass.edu/seasons/pdffiles/sea05d01.pdf
Wir haben die Daten in Julianische Daten umgewandelt, die Thetas in Radiant erhalten, die Sinus/Cos der Radiantmaße erhalten, aber es war wirklich der SAS-Code dieses Typen.

Ziemlich sicher, es wird sich zeigen, dass es bei k = 1/2 Monaten ansteigt. Aber was bedeutet es? Was passiert in dieser Zeitskala?

Übrigens, Daten sind immer schön, egal was Wired sagt! )

Ja, diese Zeile ‘godawful Webdesign’ im Artikel hat mich zum Nachdenken gebracht: Worüber sprechen sie? Da wurde mir zum ersten Mal klar, dass ich ein Nerd bin.

Altmodisch Web-Design. Was nicht unbedingt schlecht ist.

Vielleicht ist dies im Down-Thread abgedeckt, aber wie erhalten Sie eine Chance von 98-99% auf einen HRC-Gewinn, wenn der linke Rand des Histogramms unter 270 liegt? Machen diese nur 1-2% der Gesamtergebnisse aus?

diskutiert ein wenig unten und andere Beiträge. Kurze Antwort: Die PEC-Vorhersage verwendet das Histogramm nicht, um Vorhersagen zu treffen. Nur “wie’der die Wahrscheinlichkeit, dass MM>0 am Wahltag” ist, wobei der MM nur anhand des Medians des Histogramms berechnet wird. Ändert an dieser Wahl nicht viel, aber vielleicht etwas, worüber man in Zukunft nachdenken sollte.

Gutes Interview auf MSNBC. Alle guten Punkte wurden gemacht.

Hallo Sam, warum ist die endgültige Zahl von PEC von 323 EV für HRC heute Morgen auf 307 gesunken? Hast du NC in die DJT-Spalte aufgenommen?

Worauf wollen Sie wetten, dass der Trumpster über eine manipulierte Wahl jammern und stöhnen wird, weil er genauso viele Staaten gewonnen hat wie Clinton?

Bei jeder Wahl, die die Demokraten gewinnen, bekomme ich eine E-Mail nach der Wahl von einem Cousin, die zeigt, dass die Landfläche der von den Republikanern gewonnenen Bezirke die Landfläche der von den Demokraten gewonnenen Bezirke bei weitem übersteigt, als ob Land und nicht Menschen wählen würden.

Dr. Wang, ich schätze Ihr stetiges, stabiles und stilvolles Auftreten während dieser ganzen Wahl. Danke, dass Sie mir einen Ort gegeben haben, an den ich gehen kann, wenn es um Politik geht. Du tust Wunder für die Psyche!


Inhalt

Das erste bekannte Beispiel für eine Meinungsumfrage war eine Liste der Wählerpräferenzen, die von der Raleigh Star und North Carolina State Gazette und der Wilmington American Watchman und Delaware Advertiser vor den Präsidentschaftswahlen von 1824 [1] zeigt Andrew Jackson, der John Quincy Adams mit 335 zu 169 Stimmen im Wettbewerb um die Präsidentschaft der Vereinigten Staaten anführt. Da Jackson die Volksabstimmung in diesem Bundesstaat und im ganzen Land gewann, wurden solche Strohabstimmungen nach und nach populärer, aber sie blieben lokale, normalerweise stadtweite Phänomene. 1916, Der literarische Digest begann eine landesweite Umfrage (teilweise als Übung zur Erhöhung der Auflage) und sagte die Wahl von Woodrow Wilson zum Präsidenten richtig voraus. Millionen Postkarten verschicken und die Retouren einfach zählen, Die literarische Zusammenfassung die Siege von Warren Harding 1920, Calvin Coolidge 1924, Herbert Hoover 1928 und Franklin Roosevelt 1932 richtig vorausgesagt haben.

Dann, im Jahr 1936, deutete seine Umfrage unter 2,3 Millionen Wählern darauf hin, dass Alf Landon die Präsidentschaftswahl gewinnen würde, aber Roosevelt wurde stattdessen durch einen Erdrutsch wiedergewählt. Der Fehler wurde hauptsächlich durch die Teilnahmeverzerrung verursacht. Diejenigen, die Landon favorisierten, waren enthusiastischer, an der Umfrage teilzunehmen. Darüber hinaus wurden in der Umfrage wohlhabendere Amerikaner, die tendenziell republikanische Sympathien hatten, überbewertet. [2] Zur gleichen Zeit führte George Gallup eine weitaus kleinere (aber wissenschaftlich fundiertere) Umfrage durch, in der er eine demografisch repräsentative Stichprobe befragte. Die Gallup-Organisation sagte Roosevelts Erdrutschsieg richtig voraus, ebenso wie ein anderer bahnbrechender Meinungsforscher, Archibald Crossley. Die literarische Zusammenfassung ging bald aus dem Geschäft, während die Umfragen begannen zu steigen. [3]

Elmo Roper war ein weiterer amerikanischer Pionier in der politischen Vorhersage mit wissenschaftlichen Umfragen. [4] Er sagte die Wiederwahl von Präsident Franklin D. Roosevelt dreimal voraus, 1936, 1940 und 1944. Louis Harris war seit 1947 in der öffentlichen Meinung tätig, als er der Firma Elmo Roper beitrat und später Partner wurde.

Im September 1938 gründete Jean Stoetzel, nachdem er Gallup kennengelernt hatte, IFOP, das Institut Français d'Opinion Publique, als erstes europäisches Umfrageinstitut in Paris und startete im Sommer 1939 politische Umfragen mit der Frage "Warum für Danzig sterben?" öffentliche Unterstützung oder Ablehnung dieser Frage des Appeasement-Politikers und zukünftigen Kollaborateurs Marcel Déat.

Gallup gründete eine Tochtergesellschaft im Vereinigten Königreich, die im Gegensatz zu praktisch allen anderen Kommentatoren, die einen Sieg der von Winston Churchill angeführten Konservativen Partei erwarteten, fast allein den Sieg von Labour bei den Parlamentswahlen 1945 richtig vorhersagte. Die alliierten Besatzungsmächte halfen 1947 und 1948, in allen westlichen Besatzungszonen Deutschlands Vermessungsinstitute zu schaffen, um die Entnazifizierung besser zu steuern. In den 1950er Jahren hatten sich verschiedene Arten von Umfragen in den meisten Demokratien ausgebreitet.

Langfristig war die Werbung Anfang der 1930er Jahre stark unter Druck geraten. Die Weltwirtschaftskrise zwang die Unternehmen, ihre Werbeausgaben drastisch zu kürzen. Entlassungen und Kürzungen waren in allen Agenturen üblich. Darüber hinaus förderte der New Deal aggressiv den Konsum und minimierte den Wert (oder die Notwendigkeit) von Werbung. Der Historiker Jackson Lears argumentiert, dass "in den späten 1930er Jahren die Werbetreibenden der Unternehmen jedoch einen erfolgreichen Gegenangriff gegen ihre Kritiker gestartet hatten." Sie rehabilitierten das Konzept der Verbrauchersouveränität, indem sie wissenschaftliche Meinungsumfragen erfanden und sie zum Kernstück ihrer eigenen Marktforschung sowie zum Schlüssel zum Verständnis von Politik machten. George Gallup, der Vizepräsident von Young and Rubicam, und zahlreiche andere Werbeexperten führten den Weg. In den 1940er Jahren spielte die Branche eine führende Rolle bei der ideologischen Mobilisierung des amerikanischen Volkes für den Kampf gegen die Nazis und Japaner im Zweiten Weltkrieg. Als Teil dieser Bemühungen definierten sie den "American Way of Life" in Bezug auf ein Bekenntnis zum freien Unternehmertum neu. "Werbetreibende", so Lears abschließend, "spielten eine entscheidende hegemoniale Rolle bei der Schaffung der Konsumkultur, die die amerikanische Gesellschaft nach dem Zweiten Weltkrieg dominierte." [5] [6]

Meinungsumfragen wurden viele Jahre lang durch Telekommunikation oder im persönlichen Kontakt durchgeführt. Methoden und Techniken variieren, obwohl sie in den meisten Bereichen weithin akzeptiert sind. Im Laufe der Jahre haben auch technologische Innovationen die Erhebungsmethoden wie die Verfügbarkeit elektronischer Zwischenablagen [7] und internetbasierte Umfragen beeinflusst. Verbal-, Abstimmungs- und Verarbeitungsarten können effizient durchgeführt werden, im Gegensatz zu anderen Arten von Umfragen, Systematiken und komplizierten Matrizen, die über bisherige orthodoxe Verfahren hinausgehen. [ Zitat benötigt ]

Meinungsumfragen entwickelten sich durch populäres Denken zu beliebten Anwendungen, obwohl die Rücklaufquoten für einige Umfragen zurückgingen. Auch Folgendes hat zu differenzierenden Ergebnissen geführt: [4] Einige Meinungsforschungsinstitute wie Angus Reid Public Opinion, YouGov und Zogby verwenden Internetumfragen, bei denen eine Stichprobe aus einem großen Panel von Freiwilligen gezogen und die Ergebnisse mit gewichtet werden spiegeln die Demografie der interessierenden Bevölkerung wider. Im Gegensatz dazu beziehen sich populäre Webumfragen auf jeden, der teilnehmen möchte, und nicht auf eine wissenschaftliche Stichprobe der Bevölkerung, und werden daher im Allgemeinen nicht als professionell angesehen.

Kürzlich wurden statistische Lernmethoden vorgeschlagen, um Social-Media-Inhalte (wie Beiträge auf der Mikroblogging-Plattform Twitter) für die Modellierung und Vorhersage von Umfragen zur Wahlabsicht zu nutzen. [8] [9]

Umfragen können auch im Bereich der Öffentlichkeitsarbeit eingesetzt werden. In den frühen 1920er Jahren bezeichneten PR-Experten ihre Arbeit als Einbahnstraße. Ihre Aufgabe wäre es, die fehlinterpretierten Interessen großer Institutionen der Öffentlichkeit zu präsentieren. Sie würden auch die normalerweise ignorierten Interessen der Öffentlichkeit durch Umfragen messen.

Benchmark-Umfragen Bearbeiten

EIN Benchmark-Umfrage ist in der Regel die erste Umfrage in einer Kampagne. Es wird oft gemacht, bevor ein Kandidat sein Angebot für ein Amt bekannt gibt, aber manchmal geschieht es unmittelbar nach dieser Ankündigung, nachdem er eine Gelegenheit hatte, Mittel zu beschaffen. Dies ist im Allgemeinen eine kurze und einfache Umfrage unter wahrscheinlichen Wählern.

EIN Benchmark-Umfrage dient einer Reihe von Zwecken für eine Kampagne, sei es eine politische Kampagne oder eine andere Art von Kampagne. Erstens gibt es dem Kandidaten ein Bild davon, wo er bei der Wählerschaft steht, bevor ein Wahlkampf stattfindet. Erfolgt die Abstimmung vor der Bekanntgabe für ein Amt, kann der Kandidat anhand der Abstimmung entscheiden, ob er überhaupt für ein Amt kandidieren soll oder nicht. Zweitens zeigt es ihnen, wo ihre Schwächen und Stärken in zwei Hauptbereichen liegen. Die erste ist die Wählerschaft. EIN Benchmark-Umfrage zeigt ihnen, welche Arten von Wählern sie mit Sicherheit gewinnen, welche sie mit Sicherheit verlieren werden und alle zwischen diesen beiden Extremen. Dadurch weiß die Kampagne, welche Wähler zu überzeugen sind, damit sie ihre begrenzten Ressourcen am effektivsten einsetzen können. Zweitens kann es ihnen eine Vorstellung davon geben, welche Botschaften, Ideen oder Slogans bei den Wählern am stärksten sind. [10]

Brushfire-Umfragen Bearbeiten

Buschfeuer-Umfragen sind Umfragen, die in der Zeit zwischen dem Benchmark-Umfrage und Umfragen verfolgen. Die Anzahl der Buschfeuer-Umfragen von einer Kampagne genommen wird, hängt davon ab, wie wettbewerbsfähig das Rennen ist und wie viel Geld die Kampagne ausgeben muss. Diese Umfragen konzentrieren sich normalerweise auf wahrscheinliche Wähler und die Dauer der Umfrage hängt von der Anzahl der getesteten Nachrichten ab.

Buschfeuer-Umfragen werden für eine Reihe von Zwecken verwendet. Erstens wird dem Kandidaten mitgeteilt, ob er bei der Abstimmung Fortschritte gemacht hat, wie viel Fortschritt gemacht wurde und in welcher Demografie er an Boden gewonnen oder verloren hat. Zweitens ist es eine Möglichkeit für die Kampagne, eine Vielzahl von Botschaften, sowohl positive als auch negative, an sich selbst und ihren Gegnern zu testen. Dadurch weiß die Kampagne, welche Nachrichten bei bestimmten demografischen Merkmalen am besten funktionieren und welche Nachrichten vermieden werden sollten. Kampagnen verwenden diese Umfragen häufig, um mögliche Angriffsbotschaften ihres Gegners und mögliche Reaktionen auf diese Angriffe zu testen. Die Kampagne kann dann einige Zeit damit verbringen, eine wirksame Reaktion auf wahrscheinliche Angriffe vorzubereiten. Drittens kann diese Art von Umfrage von Kandidaten oder politischen Parteien verwendet werden, um Hauptherausforderer davon zu überzeugen, aus einem Rennen auszusteigen und einen stärkeren Kandidaten zu unterstützen.

Umfragen verfolgen Bearbeiten

EIN Tracking-Umfrage oder rollierende Umfrage ist eine Umfrage, bei der Antworten in mehreren aufeinanderfolgenden Zeiträumen, z. B. täglich, eingeholt werden und dann die Ergebnisse anhand eines gleitenden Durchschnitts der Antworten berechnet werden, die über eine feste Anzahl der letzten Zeiträume, beispielsweise der letzten fünf Tage, gesammelt wurden . [11] In diesem Beispiel verwenden die nächsten berechneten Ergebnisse Daten für fünf Tage, die vom nächsten Tag rückwärts gezählt werden, nämlich dieselben Daten wie zuvor, aber mit den Daten vom nächsten Tag einschließlich und ohne die Daten vom sechsten Tag davor dieser Tag.

Allerdings unterliegen diese Umfragen mitunter dramatischen Schwankungen, weshalb politische Kampagnen und Kandidaten ihre Ergebnisse vorsichtig analysieren. Ein Beispiel für eine Tracking-Umfrage, die zu Kontroversen über ihre Genauigkeit führte, ist eine, die während der US-Präsidentschaftswahl im Jahr 2000 von der Gallup-Organisation durchgeführt wurde. Die Ergebnisse für einen Tag zeigten den demokratischen Kandidaten Al Gore mit elf Punkten Vorsprung auf den republikanischen Kandidaten George W. Bush. Eine anschließende Umfrage, die nur zwei Tage später durchgeführt wurde, zeigte dann, dass Bush sieben Punkte vor Gore lag. Es wurde bald festgestellt, dass die Volatilität der Ergebnisse zumindest teilweise auf eine ungleiche Verteilung der demokratischen und republikanischen Wähler in den Stichproben zurückzuführen war. Obwohl die Gallup-Organisation argumentierte, dass die Volatilität der Umfrage eine echte Repräsentation der Wählerschaft sei, unternahmen andere Meinungsforschungsorganisationen Schritte, um so große Schwankungen in ihren Ergebnissen zu reduzieren. Ein solcher Schritt beinhaltete die Manipulation des Anteils von Demokraten und Republikanern in einer bestimmten Stichprobe, aber diese Methode ist umstritten. [12]

Im Laufe der Zeit wurden eine Reihe von Theorien und Mechanismen angeboten, um fehlerhafte Umfrageergebnisse zu erklären. Einige davon spiegeln Fehler der Meinungsforscher wider, viele von ihnen sind statistischer Natur. Andere werfen den Befragten vor, keine offenen Antworten gegeben zu haben (z.B., der Bradley-Effekt, der Shy-Tory-Faktor) können diese kontroverser sein.

Fehlergrenze durch Bemusterung Bearbeiten

Umfragen auf der Grundlage von Bevölkerungsstichproben unterliegen Stichprobenfehlern, die die Auswirkungen von Zufall und Unsicherheit im Stichprobenverfahren widerspiegeln. Stichprobenerhebungen beruhen auf dem Gesetz der großen Zahl, um die Meinungen der Gesamtbevölkerung nur auf der Grundlage einer Teilmenge zu messen, und zu diesem Zweck ist die absolute Größe der Stichprobe wichtig, aber der Prozentsatz der Gesamtbevölkerung ist nicht wichtig (es sei denn, es passiert). nahe an der Stichprobengröße liegen). Der mögliche Unterschied zwischen der Stichprobe und der gesamten Grundgesamtheit wird oft als Fehlerspanne ausgedrückt – normalerweise definiert als der Radius eines 95-%-Konfidenzintervalls für eine bestimmte Statistik. Ein Beispiel ist der Prozentsatz der Personen, die Produkt A gegenüber Produkt B bevorzugen. Wenn für eine Umfrage eine einzige, globale Fehlerspanne gemeldet wird, bezieht sich dies auf die maximale Fehlerspanne für alle gemeldeten Prozentsätze unter Verwendung der vollständigen Stichprobe aus der Umfrage. Wenn die Statistik ein Prozentsatz ist, kann diese maximale Fehlerspanne als Radius des Konfidenzintervalls für einen gemeldeten Prozentsatz von 50 % berechnet werden. Andere schlagen vor, dass eine Umfrage mit einer Zufallsstichprobe von 1.000 Personen einen Stichprobenfehler von ±3% für den geschätzten Prozentsatz der Gesamtbevölkerung aufweist.

Eine Fehlerspanne von 3 % bedeutet, dass bei häufiger Anwendung desselben Verfahrens in 95 % der Fälle der wahre Bevölkerungsdurchschnitt innerhalb der Stichprobenschätzung plus oder minus 3 % liegt. Die Fehlerquote kann durch die Verwendung einer größeren Stichprobe verringert werden. Wenn ein Meinungsforscher jedoch die Fehlerquote auf 1 % reduzieren möchte, bräuchte er eine Stichprobe von etwa 10.000 Personen. [13] In der Praxis müssen Meinungsforscher die Kosten einer großen Stichprobe gegen die Verringerung des Stichprobenfehlers abwägen, und eine Stichprobengröße von etwa 500–1.000 ist ein typischer Kompromiss für politische Umfragen. (Beachten Sie, dass es notwendig sein kann, Tausende zusätzlicher Teilnehmer einzubeziehen, um vollständige Antworten zu erhalten.) [14] [15]

Eine andere Möglichkeit, die Fehlerquote zu verringern, besteht darin, sich auf Umfragedurchschnitte zu verlassen. Dies geht davon aus, dass das Verfahren bei vielen verschiedenen Umfragen ähnlich genug ist, und verwendet die Stichprobengröße jeder Umfrage, um einen Umfragedurchschnitt zu erstellen. [16] Ein Beispiel für einen Umfragewert finden Sie hier: Umfragewert der Präsidentschaftswahlen 2008. Eine weitere Fehlerquelle ergibt sich aus fehlerhaften demografischen Modellen von Meinungsforschern, die ihre Stichproben nach bestimmten Variablen wie der Parteiidentifikation bei einer Wahl gewichten. Wenn Sie beispielsweise davon ausgehen, dass sich die Aufschlüsselung der US-Bevölkerung nach Parteiidentifikation seit den letzten Präsidentschaftswahlen nicht geändert hat, unterschätzen Sie möglicherweise einen Sieg oder eine Niederlage eines bestimmten Parteikandidaten, dessen Parteiregistrierung im Vergleich zu der vorige Präsidentschaftswahlzyklus.

Es ist zu beachten, dass eine Schätzung eines Trends einem größeren Fehler unterliegt als eine Schätzung eines Niveaus. Dies liegt daran, dass, wenn man die Änderung schätzt, die Differenz zwischen zwei Zahlen x und Ja, dann hat man mit Fehlern in beiden zu kämpfen x und Ja. Ein grober Anhaltspunkt ist, dass, wenn die Änderung der Messung außerhalb des Fehlerbereichs liegt, es wert ist, darauf geachtet zu werden.

Verzerrung durch Nicht-Antworten Bearbeiten

Da einige Personen Anrufe von Fremden nicht beantworten oder sich weigern, die Umfrage zu beantworten, sind Umfragestichproben aufgrund eines Nicht-Antwort-Bias möglicherweise keine repräsentativen Stichproben einer Bevölkerung. Die Rücklaufquoten sind rückläufig und in den letzten Jahren auf etwa 10 % gesunken. [17] Aufgrund dieses Selektionsbias können sich die Merkmale derjenigen, die einer Befragung zustimmen, deutlich von denen derjenigen unterscheiden, die die Befragung ablehnen. Das heißt, die tatsächliche Stichprobe ist eine verzerrte Version des Universums, das der Meinungsforscher analysieren möchte. In diesen Fällen führt Bias auf die eine oder andere Weise zu neuen Fehlern, die zusätzlich zu den durch die Stichprobengröße verursachten Fehlern auftreten. Fehler aufgrund von Verzerrungen werden bei größeren Stichprobengrößen nicht kleiner, da bei einer größeren Stichprobengröße einfach der gleiche Fehler in einem größeren Maßstab wiederholt wird. Wenn die Personen, die eine Antwort verweigern oder nie erreicht werden, dieselben Merkmale aufweisen wie die Personen, die antworten, sollten die Endergebnisse unvoreingenommen sein. Wenn die Personen, die nicht antworten, unterschiedliche Meinungen haben, liegt eine Verzerrung der Ergebnisse vor. In Bezug auf Wahlumfragen deuten Studien darauf hin, dass Verzerrungseffekte gering sind, aber jedes Umfrageunternehmen hat seine eigenen Techniken zur Anpassung der Gewichtung, um die Auswahlverzerrung zu minimieren. [18] [19]

Antwortverzerrung Bearbeiten

Umfrageergebnisse können durch Antwortverzerrungen beeinflusst werden, wenn die Antworten der Befragten nicht ihre wahren Überzeugungen widerspiegeln. Dies kann von skrupellosen Meinungsforschern absichtlich herbeigeführt werden, um ein bestimmtes Ergebnis zu erzielen oder ihren Kunden zu gefallen, aber häufiger ist es das Ergebnis der detaillierten Formulierung oder Anordnung der Fragen (siehe unten). Befragte können absichtlich versuchen, das Ergebnis einer Umfrage zu manipulieren, indem sie z.B. eine extremere Position vertreten, als sie tatsächlich vertreten, um ihre Argumentation zu stärken oder schnelle und unüberlegte Antworten zu geben, um das Ende ihrer Befragung zu beschleunigen. Die Befragten können sich auch unter sozialem Druck fühlen, keine unpopulären Antworten zu geben. Beispielsweise könnten die Befragten nicht gewillt sein, unpopuläre Einstellungen wie Rassismus oder Sexismus zuzugeben, und Umfragen spiegeln daher möglicherweise nicht die tatsächliche Häufigkeit dieser Einstellungen in der Bevölkerung wider. Im amerikanischen politischen Sprachgebrauch wird dieses Phänomen oft als Bradley-Effekt bezeichnet. Wenn die Ergebnisse von Umfragen weit verbreitet sind, kann dieser Effekt noch verstärkt werden – ein Phänomen, das allgemein als Schweigespirale bezeichnet wird.

Die Verwendung des Mehrheitswahlsystems (wählen Sie nur einen Kandidaten aus) in einer Umfrage führt zu einer unbeabsichtigten Verzerrung der Umfrage, da Personen, die mehr als einen Kandidaten bevorzugen, dies nicht angeben können. Die Tatsache, dass sie nur einen Kandidaten auswählen müssen, verzerrt die Umfrage, was dazu führt, dass sie den Kandidaten bevorzugt, der sich von den anderen am stärksten unterscheidet, während Kandidaten, die anderen Kandidaten ähnlich sind, benachteiligt werden. Das Mehrheitswahlsystem beeinflußt auch Wahlen auf die gleiche Weise.

Einige antwortende Personen verstehen möglicherweise die verwendeten Wörter nicht, möchten aber möglicherweise die Verlegenheit vermeiden, dies zuzugeben, oder der Umfragemechanismus lässt keine Klärung zu, sodass sie eine willkürliche Entscheidung treffen können. Ein gewisser Prozentsatz der Leute antwortet auch skurril oder aus Ärger über die Umfrage. Dies führt dazu, dass vielleicht 4% der Amerikaner berichten, dass sie persönlich enthauptet wurden. [20]

Formulierung der Fragen Bearbeiten

Zu den Faktoren, die die Ergebnisse von Meinungsumfragen beeinflussen, gehören der Wortlaut und die Reihenfolge der Fragen, die vom Vermesser gestellt werden. Fragen, die sich bewusst auf die Antwort eines Befragten auswirken, werden als Leitfragen bezeichnet. Einzelpersonen und/oder Gruppen verwenden diese Art von Fragen in Umfragen, um Antworten zu erhalten, die ihren Interessen entsprechen. [21]

Zum Beispiel ist es wahrscheinlicher, dass die Öffentlichkeit eine Person unterstützt, die vom Vermesser als einer der "führenden Kandidaten" bezeichnet wird. Diese Beschreibung ist "führend", da sie auf eine subtile Voreingenommenheit für diesen Kandidaten hinweist, da sie impliziert, dass die anderen im Rennen keine ernsthaften Konkurrenten sind. Darüber hinaus enthalten Leitfragen häufig bestimmte Fakten oder fehlen ihnen, die die Antwort eines Befragten beeinflussen können. Argumentative Fragen können sich auch auf das Ergebnis einer Umfrage auswirken. Diese Art von Fragen, je nach Art, entweder positiv oder negativ, beeinflussen die Antworten der Befragten, um den Ton der Frage(n) widerzuspiegeln und eine bestimmte Antwort oder Reaktion zu erzeugen, anstatt die Stimmung unvoreingenommen einzuschätzen. [22]

Bei Meinungsumfragen gibt es auch "geladene Fragen", auch "Trickfragen" genannt. Diese Art von Leitfrage kann ein unangenehmes oder kontroverses Thema betreffen und/oder automatisch davon ausgehen, dass das Thema der Frage mit dem/den Befragten zusammenhängt oder dass er/sie damit vertraut ist. Ebenso werden die Fragen dann so formuliert, dass die möglichen Antworten begrenzt sind, typischerweise auf ja oder nein. [23]

Eine andere Art von Frage, die zu ungenauen Ergebnissen führen kann, sind "Doppelnegative Fragen". Diese sind häufiger auf menschliches Versagen als auf vorsätzliche Manipulation zurückzuführen. Ein solches Beispiel ist eine 1992 von der Roper-Organisation durchgeführte Umfrage zum Holocaust. Die Frage lautete: "Erscheint es Ihnen möglich oder unmöglich, dass die Vernichtung der Juden durch die Nazis nie stattgefunden hat?" Die verwirrende Formulierung dieser Frage führte zu ungenauen Ergebnissen, die darauf hindeuteten, dass 22 Prozent der Befragten es für möglich hielten, dass der Holocaust möglicherweise nie stattgefunden hat. Als die Frage umformuliert wurde, äußerten deutlich weniger Befragte (nur 1 Prozent) dieselbe Meinung. [24]

Vergleiche zwischen Umfragen laufen daher oft auf den Wortlaut der Frage hinaus. Bei einigen Themen kann die Frageformulierung zu recht ausgeprägten Unterschieden zwischen den Umfragen führen. [25] [26] Dies kann jedoch auch auf legitim widersprüchliche Gefühle oder sich entwickelnde Einstellungen und nicht auf eine schlecht konstruierte Umfrage zurückzuführen sein. [27]

Eine übliche Technik, um diese Verzerrung zu kontrollieren, besteht darin, die Reihenfolge der Fragen zu rotieren. Viele Meinungsforscher führen auch Split-Samples durch. Dies beinhaltet zwei verschiedene Versionen einer Frage, wobei jede Version der Hälfte der Befragten präsentiert wird.

Die effektivsten Kontrollen, die von Einstellungsforschern verwendet werden, sind:

  • genügend Fragen zu stellen, um alle Aspekte eines Themas abzudecken und Effekte aufgrund der Form der Frage (wie positive oder negative Formulierung) zu kontrollieren, die Angemessenheit der Zahl quantitativ mit psychometrischen Maßen wie Reliabilitätskoeffizienten zu ermitteln, und
  • Analyse der Ergebnisse mit psychometrischen Techniken, die die Antworten zu einigen zuverlässigen Werten zusammenfassen und ineffektive Fragen erkennen.

Diese Kontrollen sind in der Umfragebranche nicht weit verbreitet. [ warum? ] . Da es jedoch wichtig ist, dass Fragen zum Testen des Produkts eine hohe Qualität aufweisen, arbeiten Umfragemethodiker an Methoden, um diese zu testen. Empirische Tests geben Aufschluss über die Qualität des Fragebogens, manche können komplexer sein als andere. Das Testen eines Fragebogens kann beispielsweise wie folgt erfolgen:

  • kognitive Interviews führen. Durch die Befragung einer Stichprobe potenzieller Befragter nach ihrer Interpretation der Fragen und der Verwendung des Fragebogens kann ein Forscher
  • Durchführung eines kleinen Pretests des Fragebogens mit einer kleinen Teilmenge von Zielpersonen. Die Ergebnisse können einen Forscher über Fehler informieren, z. B. fehlende Fragen oder logische und verfahrenstechnische Fehler.
  • Einschätzung der Messqualität der Fragen. Dies kann beispielsweise mit Test-Retest-, [28] Quasi-Simplex-, [29] oder Multitrait-Multimethod-Modellen erfolgen. [30]
  • Vorhersage der Messqualität der Frage. Dies kann mit der Software Survey Quality Predictor (SQP) erfolgen. [31]

Unfreiwillige Fassaden und falsche Korrelationen Bearbeiten

Einer der Kritikpunkte an Meinungsumfragen ist, dass gesellschaftliche Annahmen, dass Meinungen, zwischen denen kein logischer Zusammenhang besteht, "korrelierte Einstellungen" sind, Menschen mit einer Meinung in eine Gruppe drängen können, die sie dazu zwingt, vorzugeben, eine vermeintlich verknüpfte, aber eigentlich nicht zusammenhängende Meinung zu haben. Das wiederum kann dazu führen, dass Leute, die die erste Meinung haben, in Umfragen behaupten, dass sie die zweite Meinung haben, ohne diese zu haben, was dazu führt, dass Meinungsumfragen Teil von Problemen mit sich selbst erfüllenden Prophezeiungen werden. Es wurde vorgeschlagen, dass Versuche, unethischen Meinungen durch die Verurteilung vermeintlich verknüpfter Meinungen entgegenzuwirken, die Gruppen begünstigen können, die die tatsächlich unethischen Meinungen fördern, indem sie Menschen mit vermeintlich verknüpften Meinungen durch Ächtung an anderer Stelle in der Gesellschaft dazu zwingen, solche Bemühungen kontraproduktiv zu machen, die nicht zwischen Gruppen gesendet werden die gegenseitige Hintergedanken annehmen und nirgendwo konsistent kritisches Denken äußern dürfen, können psychischen Stress erzeugen, weil der Mensch klug ist, und dass Diskussionsräume geschaffen werden sollten, die frei von Hintergedanken hinter bestimmten Meinungen sind. In diesem Zusammenhang wird die Ablehnung der Annahme, dass Meinungsumfragen tatsächliche Zusammenhänge zwischen Meinungen aufzeigen, als wichtig erachtet. [32] [33]

Abdeckungsbias Bearbeiten

Eine weitere Fehlerquelle ist die Verwendung von Stichproben, die methodenbedingt nicht repräsentativ für die Grundgesamtheit sind, wie die Erfahrungen von Die literarische Zusammenfassung im Jahr 1936. Zum Beispiel weist die Telefonstichprobe einen eingebauten Fehler auf, da in vielen Fällen und an vielen Orten diejenigen mit Telefon im Allgemeinen reicher waren als diejenigen ohne.

Mancherorts haben viele Menschen nur Mobiltelefone. Da Meinungsforscher in den Vereinigten Staaten keine automatischen Wählmaschinen verwenden können, um Mobiltelefone anzurufen (weil dem Besitzer des Telefons möglicherweise Gebühren für die Annahme eines Anrufs entstehen [34] ), werden diese Personen in der Regel von Umfragen ausgeschlossen. Es besteht die Sorge, dass diese Unterschiede die Umfrageergebnisse verzerren können, wenn sich die Untergruppe der Bevölkerung ohne Mobiltelefone deutlich vom Rest der Bevölkerung unterscheidet. [35]

Umfrageorganisationen haben mit unterschiedlichem Erfolg viele Gewichtungstechniken entwickelt, um diese Mängel zu überwinden. Studien von Mobiltelefonnutzern des Pew Research Center in den USA aus dem Jahr 2007 kamen zu dem Schluss, dass sich "nur Mobilfunkteilnehmer in wichtigen Punkten von Festnetzteilnehmern unterscheiden, (aber) sie waren weder zahlreich noch unterschiedlich genug in Bezug auf die von uns untersuchten Fragen zu einer signifikanten Änderung der Schätzungen der allgemeinen Bevölkerungsumfrage führen, wenn sie in die Festnetzstichproben aufgenommen und gemäß den Parametern der US-Volkszählung zu grundlegenden demografischen Merkmalen gewichtet werden." [36]

Dieses Problem wurde erstmals 2004 identifiziert, [37] wurde aber erst während der US-Präsidentschaftswahlen 2008 bekannt. [38] Bei früheren Wahlen war der Anteil der Bevölkerung, der Mobiltelefone nutzte, gering, aber da dieser Anteil zugenommen hat, besteht die Besorgnis, dass die ausschließliche Abfrage von Festnetzanschlüssen nicht mehr repräsentativ für die allgemeine Bevölkerung ist. Im Jahr 2003 waren nur 2,9% der Haushalte drahtlos (nur Mobiltelefone), verglichen mit 12,8 % im Jahr 2006.[39] Dies führt zu einem "Abdeckungsfehler". Viele Meinungsforschungsinstitute wählen ihre Stichprobe durch Wahl von zufälligen Telefonnummern aus. Im Jahr 2008 gab es jedoch eine klare Tendenz, dass Umfragen, die Mobiltelefone in ihren Stichproben enthalten, einen viel größeren Vorsprung für Obama zeigten als Umfragen, die dies nicht taten. [40] [41]

Die möglichen Quellen für Verzerrungen sind: [42]

  1. Einige Haushalte nutzen nur Mobiltelefone und haben keinen Festnetzanschluss. Dies betrifft tendenziell Minderheiten und jüngere Wähler und tritt häufiger in Ballungsräumen auf. Männer nutzen häufiger nur Handys als Frauen.
  2. Einige Personen sind von Montag bis Freitag möglicherweise nicht über das Festnetz und möglicherweise nur über das Mobiltelefon erreichbar.
  3. Manche Leute verwenden ihre Festnetzanschlüsse nur für den Zugang zum Internet und beantworten Anrufe nur über ihr Mobiltelefon.

Einige Meinungsforschungsinstitute haben versucht, dieses Problem zu umgehen, indem sie eine "Handy-Ergänzung" hinzugefügt haben. Es gibt eine Reihe von Problemen bei der Einbeziehung von Mobiltelefonen in eine Telefonumfrage:

  1. Es ist schwierig, die Zusammenarbeit von Mobiltelefonbenutzern zu erreichen, da in vielen Teilen der USA den Benutzern sowohl für ausgehende als auch für eingehende Anrufe Gebühren berechnet werden. Das bedeutet, dass Meinungsforscher eine finanzielle Entschädigung anbieten mussten, um eine Kooperation zu gewinnen.
  2. Das US-Bundesgesetz verbietet die Verwendung von automatischen Wählgeräten zum Anrufen von Mobiltelefonen (Telephone Consumer Protection Act von 1991). Nummern müssen daher von Hand gewählt werden, was für Meinungsforscher zeitaufwändiger und teurer ist.

Parlamentswahlen in Großbritannien 1992 Bearbeiten

Ein oft zitiertes Beispiel dafür, dass Meinungsumfragen Fehlern erlagen, gab es bei den Parlamentswahlen im Vereinigten Königreich 1992. Obwohl die Wahlorganisationen unterschiedliche Methoden anwenden, zeigten praktisch alle Umfragen vor der Abstimmung und in geringerem Maße auch die am Wahltag durchgeführten Austrittsumfragen einen Vorsprung für die oppositionelle Labour-Partei, aber die tatsächliche Abstimmung brachte dem Urteil einen klaren Sieg Konservative Partei.

In ihren Überlegungen nach dieser Verlegenheit brachten die Meinungsforscher mehrere Ideen vor, um ihre Fehler zu erklären, darunter:

Late Swing Wähler, die ihre Meinung kurz vor der Abstimmung änderten, tendierten dazu, die Konservativen zu bevorzugen, daher war der Fehler nicht so groß, wie es zunächst den Anschein hatte. Non-Response-Bias Konservative Wähler nahmen seltener an Umfragen teil als in der Vergangenheit und waren damit unterrepräsentiert. Der schüchterne Tory-Faktor Die Konservativen hatten aufgrund wirtschaftlicher Schwierigkeiten und einer Reihe kleinerer Skandale eine anhaltende Phase der Unbeliebtheit erlitten, was zu einer Schweigespirale führte, in der einige konservative Unterstützer zögerten, ihre aufrichtigen Absichten gegenüber Meinungsforschern offenzulegen.

Die relative Bedeutung dieser Faktoren war und ist umstritten, aber seitdem haben die Meinungsforschungsinstitute ihre Methoden angepasst und in späteren Wahlkämpfen genauere Ergebnisse erzielt. [ Zitat benötigt ]

Eine umfassende Diskussion dieser Verzerrungen und wie sie verstanden und abgeschwächt werden sollten, ist in mehreren Quellen enthalten, darunter Dillman und Salant (1994). [43]

Ein weit verbreitetes Scheitern der Meinungsumfragen in den Vereinigten Staaten war die Vorhersage, dass Thomas Dewey Harry S. Truman bei den US-Präsidentschaftswahlen 1948 besiegen würde. Große Meinungsforschungsinstitute, darunter Gallup und Roper, deuteten auf einen Erdrutschsieg für Dewey hin. Auch bei den Präsidentschaftswahlen 1952, 1980, 1996, 2000 und 2016 kam es zu erheblichen Wahlfehlern. [44]

Im Vereinigten Königreich konnten die meisten Umfragen die Wahlsiege der Konservativen von 1970 und 1992 und den Sieg von Labour im Februar 1974 nicht vorhersagen eine klare konservative Mehrheit. Auf der anderen Seite scheint 2017 das Gegenteil eingetreten zu sein. Die meisten Umfragen sagten eine zunehmende konservative Mehrheit voraus, obwohl die Wahl in Wirklichkeit zu einem nicht besetzten Parlament mit einer konservativen Mehrheit führte. Einige Umfragen haben dieses Ergebnis jedoch richtig vorhergesagt.

In Neuseeland sagten die Umfragen im Vorfeld der Parlamentswahlen 1993 einen komfortablen Sieg der regierenden National Party voraus. Die vorläufigen Ergebnisse in der Wahlnacht zeigten jedoch, dass ein Parlament im Parlament nicht besetzt war, bei dem es um einen Sitz fehlte, was dazu führte, dass Premierminister Jim Bolger im nationalen Fernsehen ausrief „verdammt die Meinungsforscher“. [45] [46] Die offizielle Zählung sah, dass National Waitaki abholte, um eine Einsitz-Mehrheit zu halten und die Regierung zu reformieren.

Social Media ist heute ein beliebtes Medium für die Kandidaten, um zu werben und die öffentliche Reaktion auf die Kampagnen abzuschätzen. Soziale Medien können auch als Indikator für die Wählermeinung zur Umfrage verwendet werden. Einige Forschungsstudien haben gezeigt, dass Vorhersagen, die mithilfe von Social-Media-Signalen gemacht werden, mit traditionellen Meinungsumfragen übereinstimmen können. [8] [9]

In Bezug auf die US-Präsidentschaftswahlen 2016 war die Auswirkung von falschen Geschichten, die in den sozialen Medien verbreitet wurden, eine große Sorge. Es gibt Belege dafür, dass Social Media eine große Rolle bei der Bereitstellung von Nachrichten spielt: 62 Prozent der US-Erwachsenen erhalten Nachrichten über Social Media. [47] Diese Tatsache macht das Thema Fake News in den sozialen Medien relevanter. Andere Beweise zeigen, dass die beliebtesten Fake-News-Geschichten auf Facebook weiter verbreitet wurden als die beliebtesten Mainstream-Nachrichten . Aufgrund dieser Tatsachen sind einige zu dem Schluss gekommen, dass Donald Trump die Wahl ohne diese Geschichten möglicherweise nicht gegen Hillary Clinton gewonnen hätte. [48]

Auswirkungen auf die Wähler Bearbeiten

Durch die Bereitstellung von Informationen über Wahlabsichten können Meinungsumfragen manchmal das Verhalten der Wähler beeinflussen, und in seinem Buch Der zerbrochene Kompass, behauptet Peter Hitchens, Meinungsumfragen seien eigentlich ein Instrument zur Beeinflussung der öffentlichen Meinung. [49] Die verschiedenen Theorien darüber, wie dies geschieht, können in zwei Gruppen eingeteilt werden: Mitläufer/Underdog-Effekte und strategische ("taktische") Abstimmung.

Ein Mitläufereffekt tritt auf, wenn die Umfrage die Wähler dazu auffordert, den Kandidaten zu unterstützen, der in der Umfrage als Sieger hervorgeht. Die Idee, dass Wähler für solche Effekte anfällig sind, ist alt und stammt zumindest aus dem Jahr 1884. William Safire berichtete, dass der Begriff erstmals in einem politischen Cartoon in der Zeitschrift verwendet wurde Puck in diesem Jahr. [50] Es ist auch trotz fehlender empirischer Bestätigung bis ins späte 20. Jahrhundert beständig geblieben. George Gallup hat vergeblich versucht, diese Theorie seiner Zeit durch die Präsentation empirischer Forschung zu diskreditieren. Eine aktuelle Metastudie der wissenschaftlichen Forschung zu diesem Thema zeigt, dass der Bandwagon-Effekt ab den 1980er Jahren von Forschern häufiger gefunden wird. [51]

Das Gegenteil des Mitläufereffekts ist der Underdog-Effekt. Es wird oft in den Medien erwähnt. Dies geschieht, wenn Menschen aus Sympathie für die Partei stimmen, die die Wahlen als "verlieren" empfunden hat. Es gibt weniger empirische Belege für die Existenz dieses Effekts als für die Existenz des Mitläufereffekts. [51]

Die zweite Kategorie von Theorien darüber, wie sich Umfragen direkt auf die Stimmabgabe auswirken, wird als strategische oder taktische Stimmabgabe bezeichnet. Diese Theorie basiert auf der Idee, dass die Wähler die Wahl als Mittel zur Wahl einer Regierung betrachten. So werden sie manchmal nicht den Kandidaten wählen, den sie aufgrund von Ideologie oder Sympathie bevorzugen, sondern einen anderen, weniger bevorzugten Kandidaten aus strategischen Erwägungen. Ein Beispiel ist bei den Parlamentswahlen im Vereinigten Königreich 1997 zu finden. Da er damals Kabinettsminister war, galt Michael Portillos Wahlkreis Enfield Southgate als sicherer Sitz, aber Meinungsumfragen zeigten, dass der Labour-Kandidat Stephen Twigg stetig an Unterstützung gewinnt, was möglicherweise unentschlossene Wähler oder Anhänger anderer Parteien dazu veranlasst hat, Twigg der Reihe nach zu unterstützen Portillo zu entfernen. Ein weiteres Beispiel ist der Bumerang-Effekt, bei dem die wahrscheinlichen Unterstützer des Kandidaten, der nachweislich gewinnt, das Gefühl haben, dass die Chancen gering sind und dass ihre Stimme nicht erforderlich ist, wodurch ein anderer Kandidat gewinnt.

Außerdem Mark Pickup in Cameron Anderson und Laura Stephensons Wahlverhalten in Kanada, skizziert drei zusätzliche „verhaltensbezogene“ Antworten, die Wähler zeigen können, wenn sie mit Umfragedaten konfrontiert werden. Der erste ist als "Cue-Take"-Effekt bekannt, der besagt, dass Umfragedaten als "Proxy" für Informationen über die Kandidaten oder Parteien verwendet werden. Cue Takeing basiert "auf dem psychologischen Phänomen, Heuristiken zu verwenden, um eine komplexe Entscheidung zu vereinfachen" (243). [52]

Die zweite, zuerst von Petty und Cacioppo (1996) beschriebene, ist als Theorie der "kognitiven Reaktion" bekannt. Diese Theorie besagt, dass die Reaktion eines Wählers auf eine Umfrage möglicherweise nicht mit seiner ursprünglichen Vorstellung von der Wahlrealität übereinstimmt. Als Reaktion darauf wird der Wähler wahrscheinlich eine "mentale Liste" erstellen, in der er Gründe für den Verlust oder den Gewinn einer Partei in den Umfragen erstellt. Dies kann deren Meinung zum Kandidaten verstärken oder ändern und damit das Wahlverhalten beeinflussen. Drittens ist die letzte Möglichkeit eine "Verhaltensreaktion", die einer kognitiven Reaktion ähnlich ist. Der einzige wesentliche Unterschied besteht darin, dass ein Wähler nach neuen Informationen sucht, um seine "mentale Liste" zu erstellen und so besser über die Wahl informiert zu werden. Dies kann sich dann auf das Wahlverhalten auswirken.

Diese Effekte zeigen, wie Meinungsumfragen die politischen Entscheidungen der Wähler direkt beeinflussen können. Aber auch andere Effekte können direkt oder indirekt auf alle politischen Parteien erhoben und analysiert werden. Auch die Form des medialen Framings und der parteiideologische Wandel müssen berücksichtigt werden. Meinungsumfragen sind in einigen Fällen ein Maß für kognitive Verzerrungen, die in ihren verschiedenen Anwendungen unterschiedlich berücksichtigt und angemessen behandelt werden.

Wirkung auf Politiker Bearbeiten

Ab den 1980er Jahren begannen die Verfolgung von Umfragen und verwandte Technologien einen bemerkenswerten Einfluss auf die politischen Führer der USA zu haben. [53] Laut Douglas Bailey, einem Republikaner, der 1976 den Präsidentschaftswahlkampf von Gerald Ford mit geleitet hatte: "Es ist nicht mehr notwendig, dass ein politischer Kandidat errät, was ein Publikum denkt. Er kann es mit einer nächtlichen Umfrage herausfinden Es ist nicht mehr wahrscheinlich, dass politische Führer die Führung übernehmen werden. Stattdessen werden sie folgen." [53]

Einige Rechtsordnungen auf der ganzen Welt beschränken die Veröffentlichung der Ergebnisse von Meinungsumfragen, insbesondere während der Zeit um eine Wahl, um zu verhindern, dass möglicherweise fehlerhafte Ergebnisse die Entscheidungen der Wähler beeinflussen. In Kanada ist es beispielsweise verboten, die Ergebnisse von Meinungsumfragen, die bestimmte politische Parteien oder Kandidaten identifizieren würden, in den letzten drei Tagen vor Abschluss einer Wahl zu veröffentlichen. [54]

Die meisten westlichen demokratischen Nationen unterstützen jedoch nicht das vollständige Verbot der Veröffentlichung von Meinungsumfragen vor den Wahlen, die meisten von ihnen haben keine Regulierung und einige verbieten es nur in den letzten Tagen oder Stunden bis zum Abschluss der entsprechenden Umfrage. [55] Eine Umfrage der kanadischen Royal Commission on Electoral Reform ergab, dass sich der Zeitraum für das Verbot der Veröffentlichung der Umfrageergebnisse in den verschiedenen Ländern stark unterscheidet. Von den 20 untersuchten Ländern verbieten 3 die Veröffentlichung während des gesamten Kampagnenzeitraums, während andere sie für einen kürzeren Zeitraum, wie den Wahlzeitraum oder die letzten 48 Stunden vor Abschluss einer Wahl, verbieten. [54] In Indien hat die Wahlkommission es in den 48 Stunden vor Beginn der Wahlen verboten.


Wahl 2016: Umfragen zum Austritt

Die Daten für 2016 wurden von Edison Research für den National Election Pool, einem Konsortium von ABC News, The Associated Press, CBSNews, CNN, Fox News und NBC News, gesammelt. Die Wählerbefragung basiert auf Fragebögen, die von 24.537 Wählern ausgefüllt wurden, die am Wahltag 350 Wahlplätze in den Vereinigten Staaten verließen, einschließlich 4.398 Telefoninterviews mit früheren und abwesenden Wählern.

In den Jahren 2012, 2008 und 2004 wurde die Exit-Umfrage von Edison/Mitofsky 1996 und 2000 von Voter News Services, 1992 von Voter Research and Surveys und in früheren Jahren von The New York Times und CBS News durchgeführt.

Direkte Vergleiche von Jahr zu Jahr sollten Unterschiede in der Fragestellung berücksichtigen. Rasse und Geschlecht wurden von Interviewern in Umfragen vor 1984 bestimmt. Unabhängige oder fremde Kandidaten werden nicht gezeigt.

Die Bevölkerungsskalierung ist repräsentativ für die Anzahl der Wähler in jeder Kategorie.

* Veränderung wird in Prozentpunkten angezeigt. Wenn vergleichbare Daten verfügbar sind, kombiniert diese Kennzahl die Veränderung der Unterstützung der Republikaner und die Veränderung der Unterstützung der Demokraten gegenüber den letzten Wahlen.


F&A: Politische Umfragen und die Wahlen 2016

Die Wähler gaben ihre Stimmzettel am 8. November 2016 in einer Feuerwache in Alhambra, Kalifornien, ab. (Ringo Chiu/AFP/Getty Images)

Das Ergebnis der Präsidentschaftswahl 2016 überraschte viele Menschen – nicht zuletzt die vielen politischen Meinungsforscher und Analysten, die darüber berichten. Die American Association for Public Opinion Research (AAPOR), die landesweit führende Organisation von Umfrageforschern, hat heute einen lang erwarteten Bericht veröffentlicht, der die Umfrageergebnisse während der langen Vorwahlen und Parlamentswahlen des letzten Jahres untersucht.

Courtney Kennedy, Direktorin der Umfrageforschung am Pew Research Center

Courtney Kennedy, Direktorin für Umfrageforschung am Pew Research Center, leitete die AAPOR-Arbeitsgruppe, die den Bericht erstellte. Wir haben uns kürzlich mit Kennedy zusammengesetzt, um seine Ergebnisse und Empfehlungen zu besprechen. Das Gespräch wurde aus Gründen der Klarheit und Prägnanz komprimiert und bearbeitet.

Seit Donald Trumps Sieg über Hillary Clinton im vergangenen Jahr gab es viel Kritik an der Leistung und Vertrauenswürdigkeit von Umfragen. War das der Anstoß für diesen Bericht?

Tatsächlich wurde dieses Komitee bereits im Mai 2016 gegründet, Monate bevor einer von uns die leiseste Ahnung hatte, dass das letzte Jahr ein besonders ungewöhnliches Jahr für Wahlen werden würde. Die ursprüngliche Absicht war ziemlich einfach: die Leistung von Umfragen sowohl in der Vorwahlperiode als auch bei den Parlamentswahlen zu bewerten, um ihre Leistung im Vergleich zu den vergangenen Jahren zu vergleichen und, soweit die Daten dies stützen, zu beurteilen, ob bestimmte Arten von Umfragen – online vs. telefonisch, live vs. automatisiert – besser oder schlechter als andere.

Aber ab Mitternacht oder so am 8. November war klar, dass sich die Handlungsbedarfe des Komitees geändert hatten. Wir konnten nicht nur diesen sehr technischen Bericht „Was war die durchschnittliche Abweichung“ erstellen. Darüber hinaus mussten wir uns eine weitere Frage stellen: „Warum schienen die Umfragen die Unterstützung für Donald Trump systematisch zu unterschätzen?“ Es kursierten bereits eine Reihe von Hypothesen – wie der sogenannte „schüchterne Trump“-Effekt (Trump-Anhänger sind weniger bereit als andere, ihre Unterstützung einem Interviewer offenzulegen), differentielle Nicht-Antworten (Trump-Anhänger sind weniger wahrscheinlich als andere, sich zu beteiligen) in Umfragen), solche Dinge – und wir fühlten uns verpflichtet, dieses zusätzliche Stück zu übernehmen.

Der Bericht stellt fest, dass, während die nationalen Umfragen im Allgemeinen der tatsächlichen landesweiten Volksabstimmung (die Clinton mit 2,1 Prozentpunkten gegenüber Trump gewann) ziemlich nahe kamen, die Umfrageergebnisse auf Bundesstaatsebene – wo tatsächlich Präsidentschaftswahlen entschieden werden – jedoch sehr gut waren fleckiger. Welche Gründe haben Sie dafür gefunden?

Wir fanden Beweise für mehrere mögliche Ursachen. Ein Faktor, von dem ich denke, dass er jeden beeinflusst hat, der in den Schlachtfeldstaaten an den Wahlen teilgenommen hat, ist die legitime späte Änderung der Wählerpräferenz in der letzten Woche vor dem Wahltag. Die Daten dazu haben ihre Grenzen, aber die beste Quelle ist die Exit-Umfrage des National Election Pool, bei der die Frage gestellt wird, wann die Wähler sich entschieden haben, wen sie im Präsidentschaftsrennen wählen sollen. Das zeigte mehrere etwa 20-Punkte-Schwingungen zugunsten von Trump unter den Wählern, die sich in der letzten Woche entschieden hatten. Das hat man auf nationaler Ebene nicht wirklich gesehen, aber in Pennsylvania, Michigan, Wisconsin und sogar Florida sah man eine dramatische Bewegung.

Das ist für Meinungsforscher eine Art gute Nachricht / schlechte Nachricht. Die gute Nachricht ist, wenn Sie Personen zu einem bestimmten Zeitpunkt interviewt hätten und sie ihre Meinung einige Tage später geändert hätten, hätte die Umfrage dies nicht erkannt. Das ist kein Fehler in der Umfrage, außer vielleicht mit dem Feldzeitraum, in dem sich der Meinungsforscher für die Datenerhebung entschieden hat. Aber es gibt im Grunde nichts, was unbedingt falsch war, wenn der größte Teil des Fehlers nur ehrliche Meinungsänderungen waren.

Was haben Sie sonst noch auf Landesebene gefunden?

Ein weiteres interessantes Ergebnis betraf das Bildungsniveau der Umfrageteilnehmer. Eine Reihe von Studien hat gezeigt, dass Personen mit einem höheren formalen Bildungsniveau im Allgemeinen eher an Umfragen teilnehmen – ein sehr belastbares Ergebnis. Orte wie das Pew Research Center und andere wissen das seit Jahren, und wir gehen darauf mit unserer statistischen Gewichtung ein – das heißt, wir fragen Menschen nach ihrem Bildungsniveau und richten unsere Umfragedaten so aus, dass sie mit der US-Bevölkerung in Bezug auf Bildung übereinstimmen. Und ich denke, viele von uns gingen davon aus, dass dies in der Branche gängige Praxis ist – dass es, grob gesagt, jeder so macht. Und das haben wir nicht gefunden. Auf Landesebene wurden die Umfragen in den meisten Fällen nicht an die Bildung angepasst.

Bei manchen Wahlen, wie 2012, würde das jetzt keine Rolle mehr spielen, denn die sehr gering und die sehr gut gebildeten haben ungefähr gleich gestimmt. Aber 2016 war drastisch anders – Sie hatten einen ziemlich starken linearen Zusammenhang zwischen Bildung und Präsidentschaftswahl. Und das bedeutete, dass Sie, wenn Sie zu viele College-Absolventen in Ihrer Umfrage hatten, was praktisch alle von uns tun, und Sie nicht angemessen gewichtet haben, mit ziemlicher Sicherheit die Unterstützung für Clinton überschätzen würden.

Gab es mögliche Faktoren, für die Sie keine Beweise gefunden haben?

Jawohl. Nehmen Sie die Hypothese auf, dass es einen Teil der Trump-Unterstützerbasis gibt, der nicht an Umfragen teilnimmt. Wenn das stimmt, ist das ein riesiges Problem für Unternehmen wie unseres, und wir müssen es untersuchen und verstehen, wenn wir es jemals beheben wollen. Aber wir haben nach Beweisen dafür gesucht und sie nicht gefunden.

Wenn es stimmt, dass uns ein Teil der Trump-Unterstützungsbasis fehlt, würden wir erwarten, dass Menschen in ländlicheren, tiefroten Teilen des Landes – ohne große Gewichtung, nur mit Blick auf die Rohdaten – zu finden sind unterrepräsentiert. Und wir fanden nicht, dass sie, wenn überhaupt, leicht überrepräsentiert waren. Wir haben eine Reihe von Dingen mit einem kritischen Auge gemacht, um nach solchen Problemen zu suchen, und sie nicht gefunden. Und das hat mich wirklich beruhigt, dass es im Grunde nicht so ist, dass der Prozess der Durchführung von Umfragen letztes Jahr unterbrochen wurde.

Was, wenn überhaupt, kann der Berufsstand tun, um die Probleme anzugehen, die das Komitee bei den staatlichen und lokalen Umfragen gefunden hat, insbesondere angesichts der Tatsache, dass so viele Zeitungen und Fernsehsender, die sie in der Vergangenheit gesponsert haben, es sich nicht mehr leisten können, dies auf gleichem Niveau zu tun?

Es gibt viele Beweise dafür, dass die Ressourcen, die Nachrichtenorganisationen für Umfragen zur Verfügung stehen, im Laufe der Zeit abzunehmen scheinen, und das hat meiner Meinung nach zwei Gründe: Es gibt weniger Nachrichtenorganisationen, die Umfragen durchführen, und diejenigen, die dies tun – insbesondere lokale Nachrichtenorganisationen – sind mit sehr kostengünstiger Methodik. Der Bericht zeigt, dass es wichtige Designunterschiede zwischen den nationalen Umfragen gibt, die in der Regel ziemlich gut ausgestattet sind, im Vergleich zu den staatlichen Umfragen, die mit stärker automatisierten Methoden mit weniger Ressourcen viel schneller durchgeführt werden. Bei staatlichen Umfragen ist die Wahrscheinlichkeit halb so hoch wie bei nationalen Umfragen, dass Live-Interviewer verwendet werden, und sie haben etwa halb so häufig eine Berücksichtigung der Bildung in ihrer Gewichtung, die bekanntermaßen wichtig ist. Es gibt also diese strukturellen Dinge, die den Leistungsunterschied zwischen diesen staatlichen Umfragen und den nationalen Umfragen noch verstärkt zu haben scheinen. Wir wissen, dass sie es im Durchschnitt anders machen, und zwar auf eine Weise, die bei dieser Wahl zu größeren Fehlern geführt hat. Es stimmt auch, dass Sie im Laufe der Zeit einfach feststellen, dass die Umfragen auf Bundesstaatsebene mehr Fehler aufweisen.

Ich könnte mir also vorstellen, dass ein Berufsverband wie AAPOR untersuchen könnte, ob dies entweder durch berufliche Bildung oder sogar durch den Versuch, die Finanzierung strengerer staatlicher Umfragen zu organisieren, die kurz vor dem Wahltag durchgeführt werden, um Menschen zu fangen, die ändern ihre Meinung zu spät. Dies würde offensichtlich von Forschern erfolgen, die sehr ausgeklügelte, hochmoderne Gewichtungsprotokolle verwenden, damit Sie solche Bildungspanne nicht haben. Es ist unklar, ob das das Problem vollständig beheben würde, aber dann würden Sie zumindest qualitativ hochwertigere Umfragen in diese Umfragen einfließen lassen, die im Durchschnitt ziemlich billig durchgeführt werden.

Ein weiterer Teil des Wahlzyklus 2016 war die Bedeutung der Datenanalyseoperationen und Nachrichtenseiten, die Umfragen aggregierten und sie nicht nur dazu nutzten, das Endergebnis vorherzusagen, sondern auch um sehr präzise klingende Wahrscheinlichkeiten anzugeben, die Clinton oder Trump würde gewinnen. Wie angemessen oder sinnvoll ist es, Umfragen als Vorhersageinstrumente zu verwenden?

Umfragen sind nicht darauf ausgelegt, eine Genauigkeit in der Größenordnung von “so-und-so hat eine Gewinnchance von XX % zu erzielen.” Tatsächlich gab es im Ausschuss zu diesem Thema ziemlich unterschiedliche Meinungen: Einige neigten dazu, zu sein aggressiver bei der Betonung dieser Unterscheidung zwischen den Prädiktoren und den Meinungsforschern andere weniger.

Aber es gibt einen Unterschied. Umfragen und Prognosen sind wirklich zwei verschiedene Unternehmen. Eine gut gemachte öffentliche Meinungsumfrage kann Ihnen sagen, welche Meinung Sie während des Interviews hatten, aber das sagt wirklich nicht genau über das zukünftige Verhalten aus. Es wurde bereits gesagt, aber es muss wiederholt werden: Eine Umfrage ist eine Momentaufnahme, keine Möglichkeit, vorherzusagen, was passieren wird. Wie wir in dem Bericht sagen, scheint mehr Vorsicht und Demut angebracht zu sein, wenn jemand Behauptungen über den wahrscheinlichen Ausgang einer Wahl macht, die sich teilweise oder vollständig auf Umfragedaten stützen.

Umfragen können hilfreich sein, um wichtige Fragen zu beantworten, was Wähler motiviert, warum Menschen wählen oder nicht wählen, wie sie über die diskutierten Richtlinien denken, wie sie über die Kandidaten selbst denken. All diese Fragen verdienen ernsthafte Antworten und dafür sind Umfragen wirklich am besten geeignet.

Kann man Umfragen also trotz der Ereignisse des letzten Jahres noch vertrauen?

Ich glaube, sie können. Zunächst sei darauf hingewiesen, dass die Leistung von Wahlumfragen kein guter Indikator für die Qualität von Umfragen im Allgemeinen ist. Wahlumfragen unterscheiden sich in einigen wesentlichen Punkten von anderen Umfragetypen: Sie müssen nicht nur eine repräsentative Stichprobe der Bevölkerung erfassen, sondern auch korrekt modellieren, wer aus dieser Stichprobe tatsächlich wählen wird. Das ist eine sehr schwierige Aufgabe, die Nicht-Wahl-Umfragen einfach nicht haben.

Es ist wichtig, die Vorstellung zu zerstreuen, dass Umfragen im Großen und Ganzen gebrochen sind – unsere Untersuchung hat ergeben, dass dies nicht der Fall ist. Gleichzeitig sollten wir nicht schönreden, was passiert ist. Es gab Fehler, und die Umfragebranche hat einen Rufschaden erlitten. Aber die Umfrage-Community und die Umfragenutzer sollten sich mit der Tatsache trösten, dass wir ziemlich viel darüber herausgefunden haben, was schief gelaufen ist und warum, und wir alle aus diesen Fehlern lernen können. Einige Dinge lagen außerhalb der Kontrolle der Meinungsforscher, nämlich die späte Verschiebung der Wählerpräferenz, andere Dinge standen unter ihrer Kontrolle und sind korrigierbar. Das Bildungsungleichgewicht zum Beispiel ist sehr behebbar.

Wir als Forscher sollten über die ganze Geschichte der Umfragen im Jahr 2016 sprechen – die Unterschiede zwischen den nationalen Umfragen und den staatlichen Umfragen, die Tatsache, dass wir die Hauptfaktoren identifiziert haben, die zu den Fehlern geführt haben – auf offene, nicht defensive Weise, um zerstreuen Sie die “-Umfrage ist gebrochen”-Erzählung. Dieses Narrativ tut unserer Demokratie keinen Gefallen. Denn Umfragen, so unvollkommen sie auch sind, bleiben das beste verfügbare Werkzeug zur Messung der Einstellungen von alle Amerikaner. Und wenn es gut gemacht ist, kann es immer noch sehr nützliche Daten produzieren. Unabhängig davon, welche Partei an der Macht ist, ist es wichtig, unabhängige, objektive Forscher zu haben, die messen, wie die Öffentlichkeit über wichtige Themen der Zeit denkt.


Woher wissen wir, dass Trump in Schwierigkeiten ist? Schauen Sie sich die Umfragen von 2016 aus der Woche vor der Wahl an

Der demokratische Präsidentschaftskandidat und ehemalige Vizepräsident Joe Biden (links) und Präsident Donald Trump nehmen am 22. Oktober 2020 an der letzten Präsidentschaftsdebatte an der Belmont University in Nashville, Tennessee, teil.

JIm Bourg / AFP / Getty Images

Dieser Artikel ist der sechste einer siebenteiligen Serie. Jeden Dienstag bis zum Wahltag berichtet SFGATE darüber, wie sich die Umfragedurchschnitte der aktuellen Präsidentschaftswahlen 2020 mit den Umfragedurchschnitten zur gleichen Zeit bei den Präsidentschaftswahlen 2016 vergleichen lassen. Nach der Wahl wird SFGATE prüfen, ob die Umfragen im Jahr 2020 mehr oder weniger genau waren als die Umfragen von 2016.

Eine Woche vor den Präsidentschaftswahlen 2016 war Hillary Clintons starke nationale Führung nach der Ankündigung des ehemaligen FBI-Direktors James Comey, dass das Büro seine Untersuchung in Clintons E-Mails wieder aufnimmt, praktisch verpufft vor dem Wahltag.

Clintons nationaler Vorsprung war bei FiveThirtyEight auf 3,5% und bei RealClearPolitics &mdash auf 1,7% geschrumpft, sehr nahe an ihrem endgültigen nationalen Stimmenvorsprung von +2,1%. Ich sage es zum 1.000sten Mal seit Beginn dieser Serie: Nationale Umfragen waren 2016 ziemlich genau. Sie waren nicht das Problem.

Im Jahr 2020 ist Joe Bidens nationaler Vorsprung in der letzten Woche geschrumpft, aber er schrumpft nicht nur langsamer als Clintons verdampfter Donald Trump muss gegen Biden viel mehr Boden gutmachen als er gegen Clinton. Nachdem Biden landesweit kurzzeitig zweistellig geführt hatte, ist er auf 9,5% bei FiveThirtyEight und 7,8% bei RealClearPolitics gesunken, was immer noch eine viel, viel stärkere Position ist, als Hillary Clinton eine Woche vor Schluss hatte.

Nehmen wir für diese Übung an, dass die letzte nationale Volksabstimmung wie im Jahr 2016 irgendwo zwischen FiveThirtyEight und dem Durchschnitt von RealClearPolitics sieben Tage vor dem Wahltag ausfällt. Das bedeutet einen Wahlsieg von Biden von etwa 8% oder so. Während Trump definitiv das Wahlkollegium gewinnen kann, ohne die Volksabstimmung zu gewinnen, wie er es im Jahr 2016 getan hat, ist es sehr, höchst unwahrscheinlich, wenn nicht unmöglich, für ihn das Wahlkollegium zu gewinnen, während er die Volksabstimmung um 8 % verliert.

Als Trump 2016 die Volksabstimmung mit 2,1 Prozent verlor, erkämpfte er in Michigan, Wisconsin und Pennsylvania einen Sieg des Electoral College mit einem Vorsprung von weniger als 80.000 Stimmen. Während der Präsident sicherlich einen Vorteil im Wahlkollegium hat, der es ihm ermöglicht, die Volksabstimmung deutlich zu verlieren, ist er sicherlich nicht stark genug, um einen nationalen Verlust von acht Punkten zu verkraften.

Selbst wenn man sich staatliche Umfragen ansieht, ist klar, dass Biden einen stärkeren Vorsprung hat als Clinton in Michigan, Arizona, Florida und North Carolina. Bidens Vorsprung ist ähnlich wie der von Clinton in Wisconsin und Pennsylvania, aber das kann zumindest teilweise der Tatsache zugeschrieben werden, dass keiner der Bundesstaaten in den letzten Wochen des Rennens 2016 stark befragt wurde, da die beiden Staaten für die Demokraten als einigermaßen sichere Staaten galten.

Natürlich ist das Rennen noch nicht vorbei, und wenn sich Bidens nationaler Vorsprung in der letzten Woche weiter verkleinert, kann etwas nicht ausgeschlossen werden, nachdem Präsident Trump letzte Woche eine viel stärkere Debattenleistung gezeigt hat als in der ersten Debatte &ndash es könnte sicherlich wieder konkurrenzfähig sein, wenn man von einem nationalen Umfragefehler ausgeht.

Aber bis heute sieht es so aus, als würde der Präsident hoffen müssen, dass die Umfragen falscher sind als im Jahr 2016, was angesichts der Tatsache, dass die Meinungsforscher in den letzten vier Jahren erhebliche Anpassungen vorgenommen haben, kein guter Standort ist und die Leute vergessen oft, dass die Umfragen von 2012 eigentlich zu pro-Mitt Romney waren.

Nationale Umfragen

FiveThirtyEight Durchschnitt eine Woche vor dem Wahltag 2016: Hillary Clinton 45,0 %, Donald Trump 41,5 % (Clinton +3,5 %, war Clinton +6.1% letzte Woche)

FiveThirtyEight Durchschnitt eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 52,3%, Donald Trump 42,8% (Biden +9,5 %, war Biden +10,7% letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag 2016: Hillary Clinton 47,0 %, Donald Trump 45,3 % (Clinton +1,7%, war Clinton +5,5 % letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 50,8%, Donald Trump 43,0% (Biden +7,8 %, war Biden +8,9 % letzte Woche)

Tatsächliche nationale Volksabstimmung im Jahr 2016: Hillary Clinton 48,2%, Donald Trump 46,1% (Clinton +2,1%)

Pennsylvania

FiveThirtyEight prognostizierter Stimmenanteil eine Woche vor dem Wahltag im Jahr 2016: Hillary Clinton 49,4 %, Donald Trump 44,9 % (Clinton +4,5 %, war Clinton +6,5 % letzte Woche)

FiveThirtyEight Durchschnitt eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 50,2%, Donald Trump 45,1% (Biden +5,1 %, war Biden +6,7 % letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag 2016: Hillary Clinton 47,9 %, Donald Trump 42,8 % (Clinton +5,1 %, war Clinton +4,3% letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 49,8 %, Donald Trump 45,0 % (Biden +4,8 %, war Biden +4,4 % letzte Woche)

Tatsächliche Pennsylvania-Ergebnisse im Jahr 2016: Donald Trump 48,2%, Hillary Clinton 47,5% (Trumpf +0,7%)

FiveThirtyEight prognostizierter Stimmenanteil eine Woche vor dem Wahltag im Jahr 2016: Hillary Clinton 49,3 %, Donald Trump 44,9 % (Clinton +4,4 %, war Clinton +7,1% letzte Woche)

FiveThirtyEight Durchschnitt eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 51,4%, Donald Trump 44,3% (Biden +7,1%, war Biden +7,3% letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag 2016: Hillary Clinton 46,7%, Donald Trump 41,3% (Clinton +5,4 %, war Clinton +6,5 % letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 49,8 %, Donald Trump 44,3 % (Biden +5,5 %, war Biden +6,0% letzte Woche)

Tatsächliche Wisconsin-Ergebnisse im Jahr 2016: Donald Trump 47,2%, Hillary Clinton 46,5% (Trumpf +0,7%)

FiveThirtyEight prognostizierter Stimmenanteil eine Woche vor dem Wahltag im Jahr 2016: Hillary Clinton 48,8 %, Donald Trump 44,1 % (Clinton +4,7 %, war Clinton +7,8 % letzte Woche)

FiveThirtyEight Durchschnitt eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 50,9 %, Donald Trump 42,5 % (Biden +8,4%, war Biden +8,0% letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag 2016: Hillary Clinton 46,7%, Donald Trump 40,3% (Clinton +6.4%, war Clinton +9,5 % letzte Woche)

RealClearPolitics durchschnittlich eine Woche vor dem Wahltag im Jahr 2020: Joe Biden 50,6%, Donald Trump 41,6% (Biden +9,0 %, war Biden +6,8% letzte Woche)


Die Wissenschaft des Irrtums: Wie Umfragen die Wahlen 2016 verpfuschten

Am Vorabend der Wahlen 2016 gab die 538-Website von Nate Silver Clinton eine 71-prozentige Chance, die Präsidentschaft zu gewinnen. Andere Websites, die die fortschrittlichsten verfügbaren Aggregations- und analytischen Modellierungstechniken verwendeten, hatten ihre Chancen sogar noch höher: Die New York Times hatte ihre Gewinnchancen bei 84 %, das Princeton Election Consortium hatte sie bei 95 bis 99 % und ABC News hatte das Clinton . genannt war eine Sperre für 274 Wahlstimmen – genug, um zu gewinnen – unmittelbar bevor die Abstimmung tatsächlich stattfand. Aber in einer atemberaubenden Wendung der Ereignisse übertraf Trump bei weitem, was alle von staatlichen und nationalen Umfragen erwartet hatten, und gewann fast alle Tossup-Staaten sowie eine Reihe von Staaten, von denen prognostiziert wurde, dass sie Clinton favorisieren, und er ist der neue gewählte Präsident. Hier ist die Wissenschaft, wie das passiert ist.

Die endgültigen Vorhersagen vor den Wahlen von Larry Sabato / University of Virginia Center for Politics. . [+] Bildnachweis: Screenshot von 270towin unter http://www.270towin.com/maps/crystal-ball-electoral-college-ratings.

Wir glauben gerne, dass wir mit genügend Daten jedes Problem wissenschaftlich behandeln können. Dies mag im Prinzip auf Abstimmungsvorhersagen zutreffen, und 2012 scheint ein gutes Beispiel zu sein: Wo Nate Silvers 538 die Ergebnisse jedes einzelnen Bundesstaates richtig vorhergesagt hat: alle 50. Diesmal gab es viele verschiedene hochwertige und große -Datenumfragen, mindestens so viele wie 2012. Und vor allem ist die Wissenschaft dahinter einfach. Wenn Sie wissen möchten, wie eine Stichprobe von beispielsweise einer Million Menschen abstimmen wird, müssen Sie nicht alle eine Million bitten, das Ergebnis vorherzusagen. Alles, was Sie tun müssen, ist eine Umfrage genug Menschen, damit Sie das Ergebnis sicher angeben können. Sie könnten sich also entscheiden, 100, 500, 2.000 oder sogar 10.000 Menschen zu befragen und feststellen, dass 52 % Clinton in jeder dieser vier Umfragen unterstützen. Was sie Ihnen sagen, ist jedoch sehr unterschiedlich:

  • 100 Personen: 52 % ± 10 %, mit 95 % (2-Sigma) Vertrauen.
  • 500 Personen: 52 % ± 4,5 % mit 95 % Vertrauen.
  • 2.000 Personen: 52 % ± 2,2 % mit 95 % Vertrauen.
  • 10.000 Personen: 52 % ± 1,0 % mit 95 % Vertrauen.

Solche Fehler werden in Wissenschaftskreisen als statistische Fehler bezeichnet. Wenn Sie mehr Leute befragen, gehen Ihre Fehler zurück, und desto größer ist die Wahrscheinlichkeit, dass die von Ihnen befragte Stichprobe genau das widerspiegelt, was die Wähler tatsächlich tun werden.

Eine Visualisierung, wie Ihre statistische Unsicherheit mit zunehmender Stichprobengröße sinkt. Bild . [+] Kredit: Fadethree in der englischen Wikipedia.

Wenn Sie eine wirklich zufällige Stichprobe zukünftiger Wähler haben, ist dies die einzige Art von Fehler, die von Bedeutung ist. Aber wenn Sie dies nicht tun, gibt es eine andere Art von Fehler, die Polling nie erkennen wird, und es ist eine viel heimtückischere Art von Fehler: systematische Fehler. Ein systematischer Fehler ist eine Unsicherheit oder Ungenauigkeit, die sich nicht verbessert oder verschwindet, wenn Sie mehr Daten erheben, sondern ein Fehler in der Art und Weise, wie Sie Ihre Daten sammeln.

  • Vielleicht spiegeln die von Ihnen befragten Personen nicht die größere Wählerschaft wider. Wenn Sie eine Stichprobe von Leuten aus Staten Island fragen, wie sie wählen werden, unterscheidet sich das von der Art und Weise, wie die Leute in Manhattan – oder Syracuse – wählen werden.
  • Vielleicht werden die Leute, die Sie befragt haben, nicht in den erwarteten Proportionen wählen. Wenn Sie eine Stichprobe mit 40 % Weißen, 20 % Schwarzen, 30 % Hispanics/Latinos und 10 % Amerikanern mit asiatischer Abstammung befragen, aber Ihre tatsächliche Wahlbeteiligung bei 50 % Weißen liegt, sind Ihre Umfrageergebnisse von Natur aus ungenau. [Diese Fehlerquelle gilt für alle demografischen Merkmale wie Alter, Einkommen oder Umgebung (z. B. städtisch/vorort/ländlich).]
  • Oder vielleicht ist die Abfragemethode von Natur aus unzuverlässig. Wenn 95 % der Leute, die sagen, sie würden Clinton wählen, dies tatsächlich tun, aber 4 % für Dritte und 1 % für Trump stimmen, während 100 % derer, die sagen, sie würden Trump wählen, dies tatsächlich tun, dann übersetzt das in einen Pro-Trump-Swing von +3%.

Das Ablesen der „200“-mL-Linie auf der linken Seite mag vernünftig erscheinen, wäre aber eine fehlerhafte Messung. . [+] Systematische Fehler wie diese verbessern sich nicht oder verschwinden mit mehr Daten. Bildnachweis: MJCdetroit in der englischsprachigen Wikipedia unter c.c.a.-s.a.-3.0.

All dies soll nicht heißen, dass an den durchgeführten Umfragen oder an der Idee der Umfrage im Allgemeinen etwas nicht stimmt. Wenn Sie wissen möchten, was die Leute denken, ist es immer noch wahr, dass Sie es am besten herausfinden, wenn Sie sie fragen. Dies garantiert jedoch nicht, dass die Antworten, die Sie erhalten, nicht voreingenommen oder fehlerhaft sind. Das ist wahr sogar von Exit Polling, was nicht unbedingt die Stimmabgabe der Wähler widerspiegelt. So hätte ein vernünftiger Mensch wie Arthur Henning 1948 schreiben können:

Dewey und Warren haben gestern bei den Präsidentschaftswahlen einen durchschlagenden Sieg errungen. Die frühen Rückkehr zeigten, dass das republikanische Ticket Truman und Barkley ziemlich konstant in den westlichen und südlichen Staaten anführte [. ] vollständige Angaben würden zeigen, dass Dewey die Präsidentschaft mit überwältigender Mehrheit der Wählerstimmen gewonnen hat.

und wir haben alle erfahren, wie das ausgegangen ist.

Truman hält nach den Wahlen von 1948 eine Ausgabe der berüchtigten Chicago Daily Tribune hoch. Bild . [+] Kredit: flickr-Benutzer A Meyers 91 des Frank Cancellare-Originals, über https://www.flickr.com/photos/[email protected]/12894913705 unter cc-by-2.0.

Ich würde nicht ganz so weit gehen wie Alex Berezow vom American Council on Science and Health, der sagt, dass Wahlprognosen und Gewinnchancen völliger Unsinn sind, obwohl er einige gute Argumente vorbringt. Aber ich werde sagen, dass es Unsinn ist, so zu tun, als ob diese systematischen Fehler nicht real wären. Tatsächlich hat diese Wahl ganz nachdrücklich gezeigt, dass keines der Umfragemodelle da draußen angemessen kontrolliert hat. Solange Sie Ihre systematischen Fehler nicht verstehen und quantifizieren – und das können Sie nicht, wenn Sie nicht verstehen, wie verzerrt Ihre Umfragen sein könnten – werden Wahlprognosen unter dem GIGO-Problem leiden: Müll rein, Müll raus.

Und trotz aller Umfrageergebnisse hat Donald Trump die Wahlen 2016 gewonnen und wird der nächste sein. [+] Präsident der Vereinigten Staaten. Bildnachweis: Andrew Harrer/Bloomberg.

Vermutlich waren die Erfolge des Jahres 2012 ein Zufall, bei dem sich entweder die systematischen Fehler gegenseitig aufhoben oder die Projektionsmodelle zufällig auf der Nase lagen. Das Jahr 2016 hat sich nicht auf diese Weise verändert, was darauf hindeutet, dass es noch einen langen Weg vor uns hat, bis wir eine zuverlässige und robuste Methode zur Vorhersage von Wahlergebnissen basierend auf Umfragen haben. Vielleicht stellt es eine Lernmöglichkeit und eine Chance für Umfragen dar und wie sie interpretiert werden verbessern. Aber wenn Analysten nichts ändern oder die falschen Lehren aus ihren Ungenauigkeiten ziehen, wird es unwahrscheinlich sein, dass die Prognosen jemals wieder die Erfolge von 2012 erzielen werden.


Theorien darüber, warum Umfragen die Unterstützung für Trump unterschätzten

Es wurde eine Reihe von Theorien aufgestellt, warum viele Umfragen im Jahr 2016 verpasst wurden. 1

NONRESPONSE BIAS UND DEFIZIENTE GEWICHTUNG

Die meisten Vorwahlumfragen haben einstellige Rücklaufquoten oder weisen eine Opt-in-Stichprobe auf, für die keine Rücklaufquote berechnet werden kann ( Callegaro und DiSogra 2008 AAPOR 2016). Während der Zusammenhang zwischen niedrigen Rücklaufquoten und Bias nicht besonders stark ist (z. B. Merkle und Edelman 2002 Groves und Peytcheva 2008 Pew Research Center 2012, 2017a), bergen solch niedrige Raten ein erhöhtes Verzerrungsrisiko (z. B. Burden 2000). Besonders hervorzuheben sind Erwachsene mit geringerer Parteistärke (z. B. Keeter et al. 2006), niedrigerem Bildungsniveau (Battaglia, Frankel und Link 2008 Chang und Krosnick 2009 Link et al. 2008 Pew Research Center 2012, 2017a) und Anti- Regierungsansichten ( US Census Bureau 2015) nehmen seltener an Umfragen teil. Angesichts der Anti-Elite-Themen der Trump-Kampagne haben Trump-Wähler möglicherweise weniger wahrscheinlich als andere Wähler Umfrageanfragen angenommen. Wenn die Umfrageantwort mit der Präsidentschaftsabstimmung korreliert und ein Faktor bei der Gewichtung nicht berücksichtigt wurde, könnte ein mangelhaftes Gewichtungsprotokoll eine Erklärung für die Abstimmungsfehler sein.

SPÄTE ENTSCHEIDUNG

Die Vorstellung, dass näher am Wahltag durchgeführte Vorwahlumfragen das Wahlergebnis eher vorhersagen als ähnlich strenge Umfragen weiter draußen, ist seit einiger Zeit gut dokumentiert (z. B. Crespi 1988 Traugott 2001 Erikson und Wlezien 2012). Die Auswirkungen von späten Änderungen der Wählerentscheidungen können bei Wahlen mit großen wahlkampfbezogenen Ereignissen in unmittelbarer Nähe des Wahltages besonders groß sein ( AAPOR 2009). Sowohl Trump als auch Clinton hatten historisch schlechte Bewertungen der Günstigkeit (Collins 2016 Yourish 2016). Einige Wähler sind mit ihren Optionen unzufrieden und haben möglicherweise bis zur letzten Woche oder so gewartet, bevor sie sich entschieden haben. Darüber hinaus werden späte Entscheider, die weniger politisch verankert sind, tendenziell stärker von Wahlkampfereignissen beeinflusst als frühere Wähler (Fournier et al. 2004).

FALSCH ANGEGEBENE WAHLMODELLE

Ein genaues Modell der wahrscheinlichen Wähler zu konstruieren ist selbst für die erfahrensten Meinungsforscher eine große Herausforderung (Erikson, Panagopoulos und Wlezien 2004). Wenn die Wahlbeteiligungsmuster von den jüngsten Wahlen abweichen, können historische Daten nicht hilfreich oder sogar irreführend sein. Die Wahlbeteiligung im Jahr 2016 unterschied sich von der im Jahr 2012 in einer Weise, die Trump begünstigte und Clinton benachteiligte. Auf nationaler Ebene sank die Wahlbeteiligung unter Afroamerikanern, der Gruppe, die Clinton am stärksten unterstützte, um sieben Prozentpunkte, während sich die Wahlbeteiligung unter Hispanics und nicht-hispanischen Weißen wenig änderte, wie aus dem Voting and Registration Supplement der Current Population Survey (CPS) hervorgeht (File 2017). Darüber hinaus zeigt eine Analyse von Fraga und Kollegen (2017), dass der Rückgang der Afroamerikanerbeteiligung in Staaten wie Wisconsin und Michigan am stärksten war, die den Wahlausgang bestimmten. Wenn Meinungsforscher ihre wahrscheinlichen Wählermodelle auf der Annahme basieren würden, dass die Wahlbeteiligungsmuster 2016 denen von 2012 ähneln würden, hätte dies zu einer Unterschätzung der Unterstützung für Republikaner, einschließlich Trump, führen können. Eine solche Modell-Fehlspezifikation könnte durch Schiefe in der nationalen Abgangsumfrage von 2012 (eine beliebte Quelle für Wahlbeteiligungsdaten) verschärft worden sein, die die Wahlbeteiligung unter jungen und nicht-weißen Wählern übertrieben (McDonald 2007 Cohn 2016).

DAS SCHÜCHTER TRUMP HYPOTHESE (MELDEFEHLER)

Die Kontroverse um Trumps Kandidatur ließ die Möglichkeit aufkommen, dass einige Trump-Wähler möglicherweise nicht bereit waren, ihre Unterstützung für ihn in Umfragen offenzulegen. Wenn ein beträchtlicher Teil der Trump-Wähler seine Unterstützung für ihn zögerte, könnte dies die systematische Unterschätzung der Trump-Unterstützung in Umfragen erklären (z. B. Enns, Lagodny und Schuldt 2017). Die Besorgnis über die Möglichkeit einer systematischen Falschmeldung von Wahlabsichten für oder gegen einen umstrittenen Kandidaten reicht Jahrzehnte zurück. Studien, die sich mit diesem Thema befassten, konzentrierten sich tendenziell auf Wahlen, bei denen entweder die Rasse der Kandidaten (Citrin, Green und Sears 1990, Finkel, Guterbock und Borg 1991, Traugott und Price 1992 Hopkins 2009) oder das Geschlecht (Hopkins 2009 Stout und Kline 2011) ein Potenzial hatte Faktor beim Abfragefehler. Bei den Präsidentschaftswahlen 2016 standen sowohl Rasse als auch Geschlecht im Vordergrund. Clinton war die erste weibliche Präsidentschaftskandidatin einer großen Partei, und obwohl beide Kandidaten weiß waren, rückten Trumps Bilanz in Bezug auf rassistisch aufgeladene Themen (z Kampagne. Eine kürzlich durchgeführte Studie legt jedoch nahe, dass das Risiko für Umfragen von Befragten, die ihre Wahlentscheidung absichtlich falsch angeben, erheblich zurückgegangen ist oder ganz verschwunden ist (Hopkins 2009).


Hillary Clinton positive Bewertung bei neuem Tief

WASHINGTON, D.C. – Das Image von Hillary Clinton hat sich seit Juni verschlechtert und ist jetzt das schlechteste, das Gallup bisher für sie gemessen hat. Ihr positives Rating ist seit Juni um fünf Prozentpunkte auf einen neuen Tiefststand von 36 % gefallen, während ihr ungünstiges Rating einen neuen Höchststand von 61 % erreicht hat.

Clintons vorherige niedrige positive Bewertung lag Ende August/Anfang September 2016 während des Präsidentschaftswahlkampfs bei 38 %. Sie verzeichnete im April 1992, als sie noch viel weniger bekannt war, eine 38% positive Bewertung (mit einer negativen Bewertung von 40%).

Die aktuellen Ergebnisse basieren auf einer Gallup-Umfrage vom 4. bis 11. Dezember. Clintons positive Bewertung hat sich in den 25 Jahren, in denen Gallup die Meinungen über sie gemessen hat, stark verändert. Ihre persönliche Bestleistung war eine positive Bewertung von 67 % in einer Umfrage im Dezember 1998, kurz nachdem das Repräsentantenhaus für die Amtsenthebung ihres Mannes, des damaligen Präsidenten Bill Clinton, gestimmt hatte. Auch während ihrer Zeit als Außenministerin zwischen 2009 und 2013 hatte sie Mitte der 60er Jahre positive Bewertungen.

Zu Zeiten, in denen sie eine offener politische Rolle übernahm – bei Reformversuchen im Gesundheitswesen im Jahr 1994, in ihren Jahren als US-Senatorin und während ihrer Präsidentschaftswahlen 2007-2008 und 2015-2016, litten ihre Einschaltquoten. Ihre positiven Bewertungen lagen bei fast 50 %, als sie im Frühjahr 2015 ihre zweite Bewerbung um die Präsidentschaft ankündigte, fielen jedoch im Sommer 2015 aufgrund von Kontroversen über die Nutzung eines privaten E-Mail-Servers während ihrer Amtszeit als Außenministerin. Während des gesamten Jahres 2016 lagen ihre positiven Bewertungen im Allgemeinen bei rund 40%, unter den schlechtesten, die jemals für Präsidentschaftskandidaten gemessen wurden, aber positiver als die Bewertungen von Donald Trump.

Seit der Niederlage gegen Trump haben sich Clintons positive Bewertungen nicht verbessert, im Gegensatz zu dem, was anderen kürzlich verlorenen Präsidentschaftskandidaten passiert ist. Tatsächlich hat sich ihr Image in den letzten Monaten verschlechtert, als demokratische Führer, politische Beobachter und Clinton selbst versuchten zu erklären, wie sie eine Wahl verloren hat, von der sie erwartet wurde, dass sie sie gewinnt. Unterdessen wirbelt Clinton weiter umstritten, da die Frage nach der Fairness des Nominierungsprozesses der Demokraten 2016 und ihrem Umgang mit Russland während ihrer Amtszeit als Außenministerin weiter in Frage gestellt wird. Es gab auch erneute Diskussionen über Bill und Hillary Clintons Umgang mit früheren Anklagen wegen sexueller Belästigung gegen Bill Clinton angesichts der erhöhten öffentlichen Besorgnis über das Verhalten am Arbeitsplatz.

Demokraten-Bild von Hillary Clinton Stable in den letzten sechs Monaten

In den letzten sechs Monaten hat das Image von Hillary Clinton bei den Republikanern und Unabhängigen, aber nicht bei den Demokraten abgenommen.

Juni 2017 Dezember 2017 Ändern
% % pkt. Pkt.
Nationale Erwachsene 41 36 -5
Demokraten 79 78 -1
Unabhängige 33 27 -6
Republikaner 11 5 -6
Gallup

Aus längerer Sicht hat sich die Gunst von Hillary Clinton unter den Demokraten nicht auf dem Niveau der Wahlen 2016 gehalten. Sie hatte sowohl zu Beginn (basierend auf einer Umfrage vom Mai 2015) als auch am Ende (basierend auf einer Umfrage vom November 2016) ihrer Präsidentschaftskampagne 2016 87 % positive Bewertungen unter den Demokraten.

Die Kampagne und ihre Folgen forderten den größten Tribut von den Ansichten der Unabhängigen über Clinton. Sie begann mit einer positiven Bewertung von 51 % in dieser Gruppe, die im November 2016 auf 33 % sank und jetzt bei 27 % liegt.

Bill Clintons Image am schlechtesten seit 2001

Auch das Image von Bill Clinton hat sich im vergangenen Jahr verschlechtert, mit seiner aktuellen 45% positiven Bewertung um fünf Punkte, seit Gallup im November 2016 das letzte Mal die Meinungen der Amerikaner über ihn gemessen hat. Angesichts seiner 52% negativen Bewertung haben jetzt mehr US-Erwachsene ein negativer als eine positive Meinung des ehemaligen Präsidenten.

Seine aktuelle Bewertung ist die niedrigste seit März 2001, als sie 39% nach seinem steinigen Ausscheiden aus dem Weißen Haus erreichte, der eine Reihe umstrittener Begnadigungen sowie die Annahme von Geschenken für das Weiße Haus durch die Clintons beinhaltete, die jedoch später zurückkehrten. Zu dieser Zeit hatten 59% der Amerikaner eine ungünstige Meinung über Bill Clinton, seinen höchsten in Gallups Trend. Er hatte positive Bewertungen von weniger als 39 %, aber diese wurden zu Beginn seines Präsidentschaftswahlkampfs 1992 gemessen, als ein erheblicher Anteil der Amerikaner mit Clinton nicht vertraut genug war, um eine Meinung zu ihm abzugeben.

Bill Clintons Image erholte sich in den Jahren nach seinem Ausscheiden aus dem Weißen Haus, wie es für die meisten Ex-Präsidenten typisch ist. Im August 2012 hatten 69 % der Amerikaner eine positive Meinung von ihm, die höchste, die Gallup für ihn gemessen hat. Danach begannen seine Einschaltquoten zu sinken, insbesondere nachdem er sich aktiv für die Präsidentschaftskampagne seiner Frau eingesetzt hatte.

Im Gegensatz zu Hillary Clinton ist die positive Bewertung von Bill Clinton unter seinen Demokraten niedriger als bei Gallups vorheriger Bewertung. Derzeit haben 76 % der Demokraten eine positive Meinung über ihn, gegenüber 81 % im Jahr 2016. Die positive Einstellung der Unabhängigen ist noch weiter zurückgegangen – sieben Punkte – während die Ansichten der Republikaner stabil sind.

November 2016 Dezember 2017 Ändern
% % pkt. Pkt.
Nationale Erwachsene 50 45 -5
Demokraten 81 76 -5
Unabhängige 48 41 -7
Republikaner 17 16 -1
Gallup

Auswirkungen

Viele politische Experten und wahrscheinlich auch die Clintons selbst dachten, Bill und Hillary Clinton würden 2017 im Weißen Haus residieren. Aber Hillary Clintons überraschende Niederlage bei den Wahlen 2016 beendete ihre Karriere als gewählte Beamte. Das Jahr ohne Politik hat die Amerikaner nicht dazu veranlasst, beides in einem positiveren Licht zu sehen, das Gegenteil ist eingetreten: Bill Clintons Bewertungen sind die schlechtesten seit 16 Jahren und Hillary Clintons die schlechtesten, die Gallup bisher gemessen hat.

Anstatt positiv auf ihre mehr als 25 Jahre im öffentlichen Dienst zu blicken, war das vergangene Jahr geprägt von Zweifeln an der Clinton-Wahlkampfstrategie von 2016 und anhaltenden Anschuldigungen über unethisches oder illegales Verhalten von Hillary Clinton während ihrer Zeit im öffentlichen Dienst und als Präsidentschaftskandidat. Darüber hinaus hat der Fokus auf sexuelle Belästigung in diesem Jahr einige, darunter Demokraten, dazu veranlasst, die Art und Weise, wie die Anhänger von Bill Clinton auf frühere Anschuldigungen reagierten, er habe Frauen misshandelt, in Frage gestellt.

In der Vergangenheit verbesserten sich sowohl die Bewertungen von Bill als auch Hillary Clinton, wenn sie weniger offen politische Rollen hatten – sie als First Lady und Außenministerin und er als ehemaliger Präsident und philanthropischer Führer. Für Bill Clinton dauerte es jedoch mehr als zwei Jahre, bis sich sein Image nach seinem umstrittenen Ausscheiden aus dem Weißen Haus im Jahr 2001 wieder erholte. Wenn sich ihre Bewertungen verbessern sollen, kann es also länger dauern, bis die politischen Wunden aus der Kampagne 2016 gebrochen sind heilen.

Umfragemethoden

Die Ergebnisse dieser Gallup-Umfrage basieren auf Telefoninterviews, die vom 4. bis 11. Dezember 2017 mit einer Zufallsstichprobe von 1.049 Erwachsenen ab 18 Jahren in allen 50 US-Bundesstaaten und im District of Columbia durchgeführt wurden. Für Ergebnisse, die auf der Gesamtstichprobe der nationalen Erwachsenen basieren, beträgt die Stichprobenfehlerspanne ±4 Prozentpunkte bei einem Konfidenzniveau von 95 %. Alle gemeldeten Spannen des Stichprobenfehlers beinhalten berechnete Designeffekte für die Gewichtung.

Jede Stichprobe von nationalen Erwachsenen umfasst eine Mindestquote von 70 % der Befragten mit Mobiltelefonen und 30 % der Befragten aus dem Festnetz, mit zusätzlichen Mindestquoten nach Zeitzone innerhalb der Region. Festnetz- und Mobiltelefonnummern werden mit Zufallsziffernwahlverfahren ausgewählt.

Erfahren Sie mehr über die Funktionsweise der Gallup Poll Social Series.

Gallup-News-Benachrichtigungen
Erhalten Sie die neuesten datengesteuerten Nachrichten direkt in Ihren Posteingang.


Schau das Video: PREZIDENTSKÉ VOLBY???. žijeme ve lži NWO.


Bemerkungen:

  1. Gasho

    Ich entschuldige mich, aber meiner Meinung nach geben Sie den Fehler zu. Ich kann meine Position verteidigen.

  2. Iden

    GROSSE ANBETUNG FÜR DIE SCHÖPFER

  3. Laine

    Ich gratuliere, dass Sie einfach mit der brillanten Idee besucht wurden

  4. Farran

    Haben Sie sich schnell eine so unvergleichliche Antwort ausgedacht?



Eine Nachricht schreiben