Kvaliteten af meningsmålingerne ved kommunalvalget #2

Hvor præcise var meningsmålingerne ved kommunalvalget? For at besvare dette spørgsmål må vi først forholde os til, hvilke meningsmålinger vi ønsker at se på. Skal vi eksempelvis belyse, om nationale meningsmålinger indfanger de nationale partiers opbakning lokalt? Eller skal vi se på, om de lokale meningsmålinger hver især rammer de lokale valg præcist?

Et landsresultat for kommunalvalget er på mange måder en kunstig konstruktion, da der som bekendt er tale om 98 unikke valg, hvor alle partier ikke stiller op i alle 98 kommuner – og lokale partier og lister stiller op i forskellige kommuner. Dertil gør valgforbund og andre forhold ligeledes, at vælgerne lokalt ikke nødvendigvis støtter det parti, de støtter nationalt. Et landsresultat er dermed primært af interesse for de nationale medier, der ønsker at diskutere, hvem af partierne i Folketinget der var vindere og tabere af kommunalvalget.

Udfordring forbundet med at kigge på meningsmålingerne ved kommunalvalget er, at i de fleste kommuner har vi ingen meningsmålinger. I de kommuner, hvor der bliver foretaget meningsmålinger, har vi ofte kun én meningsmåling. Kun i meget få kommuner får vi mere end én måling (eksempelvis København og Bornholm). Udfordringen med meningsmålingerne ved kommunalvalget er dermed ikke de meningsmåliner, vi har, men de målinger vi ikke har.

I den bedste af alle verdener foretog vi et tocifret antal meningsmålinger i hver af de 98 kommuner (hvilket ville give os rundt regnet 1000 meningsmålinger). Dette er selvsagt urealistisk, men jeg fremhæver det alligevel her for at pointere, hvad et fornuftigt udgangspunkt ville være, hvis vi skulle give meningsmålingerne en fair chance for at sige noget om alle lokale valg. Vi er således ikke interesseret i at se på, hvordan de mange kommunalvalgsmålinger klarede sig, men hvordan de kommunalvalgsmålinger, der trods alt blev foretaget, har klaret sig.

Hvordan klarede de lokale meningsmålinger sig?

Der har mig bekendt været et begrænset fokus på, hvordan de lokale målinger har klaret sig. Fagbladet Journalisten præsenterede en lang række tal dagen efter kommunalvalget, men der er ikke tale om et egentligt overblik (den seneste meningsmåling fra Bornholm er eksempelvis ikke at finde i deres “overblik”). Derfor er det fint at kigge mere systematisk på, hvordan de respektive målinger helt præcist klarede sig.

Til at gøre dette har jeg taget udgangspunkt i mit datasæt med kommunalvalgsmålinger, hvor jeg afgrænsede målingerne til kommunalvalgkampens sidste måned, dvs. målinger foretaget i perioden fra 16. oktober til 16. november 2021. Skæringsdatoen 16. oktober kan virke arbitrær, men der er tre forhold at tage i betragtning. For det første vil det være unfair at inkludere de meningsmålinger, der blev foretaget for et års tid siden. Meningsmålinger er et øjebliksbillede og ikke et forsøg på at forudsige et valgresultat langt ude i fremtiden. For det andet, og som jeg vil vise nedenfor, tyder intet på, at det er afgørende om en måling er foretaget i dagene op til eller ugerne op til valget. Det er således ikke tilfældet, at målinger foretaget tættere på 16. oktober er mindre pålidelige end dem foretaget tættere på 16. november. For det tredje er der relativt få meningsmålinger. Havde der været mange flere meningsmålinger kunne vi få mere ud af systematisk at belyse, hvordan de har klaret sig over tid.

For hver lokal meningsmåling der blev foretaget i kommunalvalgkampens sidste måned, har jeg udregnet den gennemsnitlige fejl i hver meningsmåling. Det vil sige at jeg for hvert estimat i en meningsmåling har udregnet forskellen mellem estimatet i meningsmålingen og valgresultatet – og så taget gennemsnittet af disse. Jo større forskelle der var mellem resultaterne i en meningsmåling og valgresultatet, desto større er den gennemsnitlige fejl. Hvis en meningsmåling ramte 100% præcist for alle partier i en måling, ville den gennemsnitlige fejl være 0.

Den mest præcise meningsmåling blev foretaget af Gallup i København den 8. november. Den gennemsnitlige fejl var her 0,78. Denne måling ramte især rigtigt ved partier som Venstre, Liberal Alliance, Socialdemokratiet og Konservative, men havde svært ved at ramme SF (målingen gav partiet 2,3 procentpoint flere stemmer, end de fik ved valget).

Den mindst præcise meningsmåling blev foretaget af Jysk Analyse på Bornholm en uge før kommunalvalget. Den gennemsnitlige fejl i denne meningsmåling var 1,74. Her ramte målingen forbi skiven ved flere partier, eksempelvis Venstre (5,8 procentpoint større opbakning i målingen), Konservative (4,8 procentpoint lavere opbakning i målingen) og Bornholmerlisten (3,9 lavere opbakning i målingen). Jeg har svært ved at forestille mig, at vælgerne har rykket sig så meget i ugen op til valget, hvorfor jeg gerne vil stå på mål for den påstand, at Jysk Analyse foretog en dårlig meningsmåling.

En anden måling der ikke klarede sig godt var Gallups måling på Frederiksberg. Denne måling undervurdere opbakningen til Enhedslisten, Radikale Venstre og Socialdemokratiet med henholdsvis 3,3, 2,6 og 2,6 procentpoint. Det tyder med andre ord på, at Gallup havde svært ved at ramme venstreorienterede vælgere på Frederiksberg. Disse vælgere er sandsynligvis yngre vælgere og mere tilbøjelige til at være tilflyttere.

Det er interessant at den mindst præcise meningsmåling og den mest præcise meningsmåling begge er foretaget af Gallup i hovedstadsområdet i samme periode. Dette kan tyde på, at der er specifikke udfordringer forbundet med hver kommune, man ønsker at foretage en meningsmåling i. Vi kan derfor ikke nødvendigvis konkludere, at et analyseinstitut, der har klaret sig rigtig godt i én kommune også vil klare sig godt i en helt anden kommune.

Nedenstående tabel viser den gennemsnitlige fejl, altså den gennemsnitlige forskel mellem valgresultatet og meningsmålingen, i målingerne foretaget senest en måned inden kommunalvalget.

Gennemsnitlige fejl i meningsmålingerne
Målinger foretaget senest en måned inden kommunalvalget
kommune institut n dato fejl
Bornholm Jysk Analyse 1031 11. nov 1,74
Frederiksberg Gallup 751 9. nov 1,73
Fredericia Jysk Analyse 1040 21. okt 1,55
Vejle Jysk Analyse 1009 4. nov 1,41
København Epinion 1024 19. okt 1,40
Hedensted Jysk Analyse 1005 26. okt 1,38
Horsens Jysk Analyse 1010 31. okt 1,23
Odense Jysk Analyse 1028 9. nov 1,11
Fredericia Voxmeter 500 31. okt 0,98
Viborg Jysk Analyse 1010 4. nov 0,95
København Gallup 1073 8. nov 0,78

Nogle meningsmålinger klarede sig bedre end andre, men vi kan konkludere, at meningsmålingerne – overordnet betragtet – klarede sig ganske fint. De var ikke perfekte (den bedste lokale måling kunne ikke slå den bedste måling fra folketingsvalget i 2019), men de var på ingen måde i nærheden af at være en katastrofe.

Desuden var den lokale dækning generelt af meningsmålingerne god. De fleste artikler formidlede metodiske informationer, herunder hvornår meningsmålingen blev foretaget samt den statistiske usikkerhed, og i de tilfælde hvor den slags information ikke blev formidlet, var journalisterne generelt gode til at udlevere den slags information, når jeg spurgte dem.

Kvaliteten af meningsmålingerne ved kommunalvalget var dermed ganske fin. Når det er sagt, er det relevant at forholde sig til, om de lokale meningsmålinger er bedre end eventuelle alternativer. Hvis de lokale målinger ikke er bedre end eventuelle alternativer, er der ingen grund til at foretage dem og bruge spalteplads på at formidle dem.

Den nationale valgvind

Hvis vi ønsker at sige noget om partierens opbakning lokalt, kan vi kigge på hvordan nationale meningsmålinger, kombineret med lokale forhold, kan give deres bud på opbakningen til partierne på kommunalt niveau. Ideen er således at vi kan se hvordan den nationale valgvind påvirker de forskellige partier.

Martin Vinæs Larsen og Kasper Møller Hansen har et kapitel i bogen om kommunalvalget 2017, der bærer titlen ‘Om den landspolitiske valgvind i 2017 – og hvorfor Dansk Folkeparti klarede sig dårligere end forventet’. Som titlen på kapitlet antyder var deres valgvindsprognose i 2017 ubrugelig til at sige noget om, hvordan Dansk Folkeparti ville klare sig. De viser flere interessante ting i kapitlet, herunder hvordan sammenhængen mellem national og lokal opbakning for de politiske partier er svagere i mindre kommuner.

Dette skaber et godt udgangspunkt for at sige noget om, hvordan de nationale partier ville klare sig ved kommunalvalget i 2021. De offentliggjorde således deres valgvindsprognose for 2021, altså estimater på hvor stor opbakning man burde forvente at se for de forskellige partier i de 98 kommuner.

I nedenstående figur har jeg taget de estimater, hvor vi har data fra lokale meningsmålinger og data fra valgvindsprognosen. Jo tættere en observation er på den stiplede linje i figuren, desto tættere var estimatet på valgresultatet. Det vil sige at når eksempelvis en lokal måling ligger på den stiplede linje, ramte målingen et partis opbakning helt præcist.

Vi kan se at de lokale målinger generelt klarede sig bedre end valgvindsprognosen (de blå observationer ligger tættere på den stiplede linje end de røde observationer). Når en lokal måling og valgvindsprognosen var uenige om, hvor stor opbakningen ville være til et parti ved kommunalvalget, havde den lokale måling oftere ret. Der er således eksempler på ekstreme forskelle mellem valgvindsprognosen og valgresultatet, der ville være ekstra iøjnefaldende at se i en lokal meningsmåling.

Fordelen ved de lokale målinger er ikke blot, at de er mere præcise, men at vi også her har data for de lokale partier. Valgvindsprognosen kan selvsagt ikke sige noget om, hvordan det vil gå for Bornholmerlisten. Når det er sagt er det også på sin plads at nævne, at valgvindsprognosen har andre fordele. For det første forsøger valgvindsprognosen ikke at sige noget om ét parti lokalt (selvom vi har data herpå), men noget generelt om tendenserne i kommunerne. Det kan de lokale meningsmålinger ikke sige så meget om. For det andet er det – som anført ovenfor – kun udvalgte kommuner, der foretages meningsmålinger i. Hvis vi gerne vil sige noget fornuftigt om hvad vi kan forvente i landets 98 kommuner, giver valgvindsprognosen klart det bedste bud.

Formålet med ovenstående figur er således ikke at diskreditere valgvindsprognosen, men blot pointere, at i de få tilfælde hvor vi har data fra både en lokal måling og valgvindsprognosen, giver det mening – gennemsnitligt betragtet – at have større tiltro til den lokale måling.

Hvad med exitpolls?

Et andet alternativ til meningsmålingerne er exitpolls. Ved kommunalvalget foretog studerende og gymnasieelever exitpolls i specifikke kommuner, herunder Aarhus, Ringkøbing-Skjern, Hørsholm, Mariagerfjord og Skive. Jeg har ikke lavet en systematisk analyse af hvor præcise disse exitpolls var, men mit indtryk er, at de generelt klarede sig fint.

I den bedste af alle verdener foretog vi meningsmålinger og exitpolls i de samme kommuner, så vi kunne sammenligne de to. Mit gæt er, at exitpolls vil og bør være mere præcise, men jeg vil stadig argumentere for, at meningsmålinger er mere interessante. Jeg vil sågar gå så langt som til at sige, at exitpolls er overflødige i en kommunalvalgskontekst. Meningsmålinger foretages i perioden op til et kommunalvalg, hvor valgkampen stadig er aktuel. Når der kun er tale om få timer fra valgstederne lukker til vi har gode bud på, hvor stor opbakningen er til de respektive partier i de forskellige kommuner, er det begrænset, hvad vi kan bruge exitpolls til.

Når vi ligeledes ikke har gode indikatorer for, om de rammer præcist (gerne ved at have flere exitpolls foretaget af forskellige aktører/analyseinstitutter), kan de skabe mere støj og spekulation på valgaftenen end egentlige indsigter. Det er fint at der bliver foretaget exitpolls, men det ville i min optik ikke udgøre det store tab, hvis de slet ikke blev foretaget.

Hvad med regionsrådsvalget?

Vi taler primært om kommunalvalget, men der var tale om et kommunal- og regionsrådsvalg. Der blev mig bekendt kun foretaget én meningsmåling i forbindelse med regionsrådsvalget. Den blev foretaget af Gallup. Denne måling klarede sig overordnet godt, men overvurderede opbakningen til Nye Borgerlige og undervurderede især opbakningen til Venstre. Meningsmålingen gav Venstre 18% af stemmerne, men de endte som bekendt med at få 23,02% af stemmerne.

Hvad kan meningsmålingerne sige?

Meningsmålingerne kan sige noget om, hvilke partier vælgerne vil stemme på – men ikke hvorfor, vælgerne stemmer på de forskellige partier. Det samme kan man desuden sige om valgresultatet. Det er derfor interessant at se politiske kommentatorer og eksperter forsøge at give udtryk for, at de kan gøre sig kloge betragtninger herom. Jens Ringberg sagde eksempelvis til DR, at der blandt andet var tale om en Pape-effekt ved kommunalvalget: “Man taler om Pape-effekten og en særlig kommunal valgvind, der kommer fra de nationale målinger og skyller hen over kommunerne. Det er sådan set også det, der er sket her til aften.” Vi kan dog på ingen måde bruge de nationale meningsmålinger til at sige, at der er tale om en Pape-effekt. Vi kan end ikke sige, at de Konservatives nuværende opbakning i de nationale meningsmålinger kan tilskrives en Pape-effekt (se også mit indlæg fra 2017 med en lignende pointe).

Kommunalvalget er også blevet kaldt for det “første grønne kommunalvalg” med udgangspunkt i en meningsmåling foretaget af Electica. Jeg kunne finde meningsmålingen omtalt hos Klimabevægelsen i Danmark, men der står desværre intet om, hvorvidt de har finansieret den pågældende meningsmåling. Meningsmålingen bruges til at konkludere, at “Debatten om klimaet og den grønne dagsorden har haft en afgørende indflydelse på udfaldet af KV21”, men det kan den pågældende meningsmåling ikke bruges til at konkludere.

En stor udfordring med meningsmålingerne er således ikke hvad de viser, men hvad folk tror de viser. Dette er en pointe faste læsere for længst vil være bekendt med. Problemet med meningsmålingerne er ofte ikke meningsmålingerne selv, men hvordan journalister, politiske kommentatorer, politikere og ordinære borgere tolker og bruger meningsmålinger. Kommunalvalget er dermed ikke undtaget for, at meningsmålingerne også her skal stå på mål for udsagn, de ikke kan bakke op om.

Hvad kan vi vente os af KV25?

Der er nu fire år til næste kommunalvalg. Hvis dækningen af meningsmålingerne ved næste kommunalvalg vil være som i 2021, vil jeg være glad. Dækningen har været fin, og det var ikke et kommunalvalg, hvor meningsmålingerne var i centrum eller generelt klarede sig dårligt.

Det vil være fortrinligt at se mere arbejde i forhold til at belyse kommunalvalget fra et nationalt perspektiv. Et fornuftigt udgangspunkt er, at selvom der er tale om 98 lokale valg, så finder de sted i den samme nationale kontekst. Det giver derfor kun god mening at analysere og diskutere nationale tendenser med respekt for lokale forhold i de respektive kommuner. En analytisk udfordring vil være at udvikle redskaber, der bedre kan indfange variation på tværs af de forskellige kommuner i, hvad der er udslagsgivende for, hvilke partier vælgerne stemmer på lokalt. En mulighed kunne være en MRP model, der vha. én stor national måling, data fra tidligere valg (eksempelvis kommunalvalgsundersøgelserne), lokale data og maskinlæring kan indfange de kontekstuelle forhold, der bedst indfanger partiernes opbakning lokalt.

Som en afsluttende bemærkning kan det tilføjes, at det ville være at foretrække, hvis de respektive analyseinstitutter, der foretager lokale meningsmålinger, bliver bedre til at offentliggøre dem på deres hjemmesider. Jeg gjorde hvad jeg kunne for at indsamle de lokale målinger og gøre dem tilgængelige for alle, men det kan ikke udelukkes, at jeg har overset specifikke målinger. Mit håb er, at det vil være nemmere i 2025 at få data fra de forskellige analyseinstitutter.

Kommunalvalgsmålingerne rammer ikke lige så præcist som folketingsvalgsmålingerne, men kvaliteten af meningsmålingerne ved kommunalvalget var overordnet betragtet god. Jeg ser derfor ingen grund til at afskrive deres anvendelighed og relevans ved dette eller fremtidige kommunalvalg.

Brixtofte-skandalens effekt på den offentlige opinion

For snart tyve år siden, onsdag den 6. februar 2002, kunne B.T. rapportere, at Farum-borgmester Peter Brixtofte, der også var medlem af Folketinget for Venstre, havde haft et ekstremt forbrug af luksusgoder, herunder et forbrug af meget dyr rødvin. Hele gildet var som bekendt betalt af skatteborgerne.

Påvirker politiske skandaler af den karakter borgernes opfattelse af politikerne? En lang række af studier har undersøgt, hvad der blandt andet påvirker borgernes opfattelse af korruption (for en god introduktion til denne litteratur, se Blais et al. 2015), men der er relativt få analyser, der belyser, hvordan politiske skandaler påvirker sådanne generelle opfattelser – især i en dansk kontekst (og altså ikke kun om borgernes holdninger til de skandaleramte politikere ændrer sig).

I dette indlæg anvender jeg et kvasi-eksperimentelt forskningsdesign med data fra Valgundersøgelsen 2001, indsamlet i dagene omkring Brixtofte-skandalen, til at undersøge, hvordan danskernes holdninger blev påvirket – eller ikke påvirket – af skandalen. Disse data blev indsamlet i den periode, hvor Peter Brixtofte ramte forsiden på B.T. og skandalen brød ud i lys lue i hvad der må siges at være den største kommunalpolitiske skandale i dansk politik.

Politiske skandaler, med deres fokus på kontroverser og fejltagelser, tager en stor del af mediernes opmærksomhed, når de finder sted (Fogarty 2013, Nyhan 2015, Puglisi og Snyder 2011). Politiske skandaler giver således ofte borgerne utvetydig information omkring, hvad politikere har gjort forkert. Derfor er det også forventeligt, at borgere er mere tilbøjelige til at opfatte politikerne som værende mere korrupte og have mindre tillid til poltikerne ovenpå Brixtofte-skandalen.

Det er vigtigt at forstå hvordan og hvorfor sådanne skandaler påvirker borgernes opfattelse af politikerne, især i forhold til opfattelser af korruption blandt og tilliden til politikerne (Bowler og Karp 2004, Maier 2011). Den akademiske litteratur, der studerer hvordan borgerne reagerer på skandaler, har blandt andet undersøgt skandalers betydning for borgernes opfattelser af politikernes personlighedstræk (Funk 1996), tilliden til politikerne (Bhatti et al. 2013) og den generelle støtte til politikerne (Alford et al. 1994, Stoker 1993). Fælles for mange af disse studier er, at de kigger på de politikere, der er direkte involveret i politiske skandaler og ikke vælgerens opfattelse af politikerne i almindelighed.

Et generelt fund i litteraturen er, at skandaler har negative effekter på den offentlige opinion. Kumlin og Esaiasson (2012) viser i et komparativt studie at borgernes tilfredshed med demokratiet falder, når politiske skandaler finder sted. Bowler og Karp (2004) finder at borgere, der oplever en politisk skandale, har lavere tillid til politikerne og politiske institutioner. Solé-Ollé og Sorribas-Navarro (2018) undersøgte hvordan korruptionsskandaler påvirkede holdningerne til politikerne i Spanien og fandt, at sådanne skandaler påvirkede både borgernes tillid til politikerne såvel som deres opfattelse af hvor korrupte politikerne er. Ares og Hernández (2017) fandt eksempelvis at en korruptionsskandale i Spanien påvirkede borgerens tillid til politikerne.

Brixtofte-skandalen

For en fantastisk gennemgang af skandalen, der er både lærerig og underholdende, og med en udførlig beskrivelse af forløbet, kan jeg varmt anbefale Morten Pihl og Jakob Priess-Sørensens bog Brixtofte – Historien om en afsløring fra 2002. En gennemgang af forløbet gives også i dokumentarserien Brixtofte – helt, skurk, far.

Nedenstående forside fra B.T. fra den 6. februar 2002 viser, at Peter Brixtofte havde drukket for 150.000,- på ét døgn. Der var i dækningen i de efterfølgende uger talrige eksempler på borgmesterens magtmisbrug, og disse beskyldninger om magtmisbrug tog kun til i styrke i løbet af de efterfølgende uger og måneder.

Den konkrete skandale er ideel til at undersøge effekten af politiske skandaler på den offentlige opinion af mindst tre grunde. For det første tillader skandalen at operere med en klar sondring mellem før og efter skandalen rammer forsiderne. For mange andre politiske skandaler sker denne udvikling gradvist, hvor det ikke altid er klart, hvornår en politiker eller parti går fra at være i modvind til at være i en egentlig skandale. I dette tilfælde er det klart, at der ikke var en skandale 5. februar og at der var en skandale 6. februar. Som de to journalister Pihl and Priess-Sørensen nævner i deres bog om skandalen, arbejdede de på historien i flere månder, og det var vigtigt for dem at offentligheden først fik nys om skandalen, når de havde tilstrækkeligt med materiale til at køre historien.

For det andet er der tale om en skandale, hvor der ikke var nogen tvivl omkring, hvorvidt der egentlig var tale om forkert adfærd. I mange politiske skandaler er der ikke enighed om, hvorvidt der er tale om en skandale i første instans. Når medierne kunne rapportere at Trump havde gjort noget, der var på kant med loven, var mange klar til at sige, at det var en skandale, hvorimod andre kunne sige, at der ikke var tale om en skandale. Brixtofte-skandalen var ikke alene en skandale fra dag 1, men også en skandale, hvor der ikke var tvivl omkring det faktum, at der var tale om forkert adfærd i form af magtmisbrug.

For det tredje fik skandalen meget omtale i medierne, som ikke var isoleret til et eller få medier. Dette er afgørende da tidligere forskning har vist, hvordan karakteristika ved en skandale kan påvirke, hvor meget opmærksomhed de får i medierne (Puglisi og Snyder 2011). I dette tilfælde fik skandalen opmærksomhed blandt alle aviser såvel som omfattende dækning på nationalt TV og radio, og der var ingen tegn på, at nogle medier ignorerede skandalen – eller såede tvivl om, hvorvidt der var tale om en skandale.

Der var i perioden op til 6. februar 2002 ingen fokus på en stor skandale med Peter Brixtofte i centrum. En sådan dækning ville være problematisk, da det ville indikere at “kontrolgruppen” ikke var en kontrolgruppe, hvilket i værste fald ville give forkerte estimater i analyserne. Nedenstående figur viser antallet af artikler før og efter 6. februar 2002, der nævner ord, der kan være forbundet med et fokus på en skandale. Disse tal er indsamlet via Infomedia. I det første panel ser vi antallet af artikler, der nævner kommunen (“Farum”), borgmesteren (“Brixtofte”) og borgmesterens parti (“Venstre”). Det andet panel viser antallet af artikler, der nævner borgmesteren og “skandale”. Det tredje panel viser antallet af artikler, der foruden at nævne borgmesteren og skandale også nævner “Venstre”.

Der er et begrænset fokus på borgmesteren i medierne fra 15. december 2001 til 6. februar 2002. Der var kun 37 artikler i denne periode. Antallet af artikler der inkluderede Brixtofte og skandale var minimal, og ingen af disse artikler indikerede en politisk skandale a la det man ser fra 6. februar og frem. Tværtimod ser vi et stort fokus på borgmesteren og skandale efter den 6. februar. Dette gør, at vi dermed kan sammenligne borgernes holdninger lige før og efter skandalen til at belyse, hvilken effekt skandalen havde på den offentlige opinion. Jo mere borgerens holdninger er identiske før og efter skandalen, desto mindre indflydelse vil skandalen have haft.

Metode og data

Skandalen fandt sted midt i dataindsamlingen til Valgundersøgelsen 2001. Folketingsvalget i 2001 fandt sted 20. november, men grundet en forsinkelse blev det meste af dataindsamlingen foretaget i 2002. Dataindsamlingen blev foretaget af Gallup i form af CAPI-interviews. Det første interview blev foretaget 15. december 2001. Kun 35 interviews (1,7%) blev foretaget i 2001, og de resterende blev foretaget i perioden fra 1. januar til 14. marts 2002. Dette giver os en unik mulighed til at konstruere to grupper, der er sammenlignelige med en væsentlig undtagelse: deres eksponering til Brixtofte-skandalen. Den ene gruppe består af de respondenter, der deltog i Valgundersøgelsen før 6. februar 2002, hvor den anden gruppe består af de respondenter, der deltog efter 6. februar. 952 respondenter (47,86%) deltog i undersøgelsen før skandalen, og 1.037 respondenter (52,14%) deltog efter skandalen.

Til at måle respondenternes opfattelse af, hvor korrupte politikerne er, har de besvaret følgende spørgsmål: “Hvor udbredt tror De korruption som f.eks. bestikkelse er iblandt politikere i Danmark?”. Svarmulighederne er “Meget udbredt”, “Ret udbredt”, “Ikke særlig udbredt” og “Det sker næsten aldrig”. Jeg har kodet denne variabel, så højere værdier betyder, at respondenten mener, at korruption er mere udbredt blandt politikerne i Danmark. Til at måle borgernes tillid til politikerne, anvender jeg følgende spørgsmål: “Hvor stor tillid har De til danske politikere i almindelighed? Har De meget stor tillid, ret stor tillid, ret lille tillid, eller meget lille tillid?”. Her er svarmulighederne de fire nævnte muligheder.

Fordelen ved dette forskningsdesign er, at det tager udgangspunkt i en “virkelig” skandale og ikke opdigtede scenarier, der kan være en udfordring for den eksterne validitet (Maier 2011). Som Bhatti et al. (2013: 408f) korrekt har pointeret: “the nature of scandals (one-time events that affect all voters simultaneously) render them difficult to study using conventional observational methods (for example, cross-sectional surveys)” (for en lignende pointe, se Blais et al. 2015). Min tilgang her giver således mulighed for rent faktisk at bruge tværsnitsdata til at generere to tilnærmelsesvist identitiske grupper, hvoraf kun den ene er påvirket af den politiske skandale. Med andre ord giver Valgundersøgelsen 2001 en ganske unik mulighed for at undersøge effekten af politiske skandaler på den offentlige opinion.

Nedenstående figur viser hvornår respondenterne deltog i valgundersøgelsen. Den røde stiplede linje angiver den 6. februar 2002, hvor B.T. bragte den første forsidehistorie med Peter Brixtofte.

Brixtofte-skandalen påvirkede danskernes opfattelser

Til at analysere effekten af Brixtofte-skandalen på den offentlige opinion, i.e. borgerens tillid til politikerne og deres opfattelse af korruption blandt samme, estimerer jeg fire regressionsmodeller. Mere specifikt estimerer jeg to regressioner til hver afhængig variabel, en uden kontrolvariable og en med kontrolvariable. De inkluderede kontrolvariable er køn, alder, uddannelse, indkomst, om man er gift, hvor stor en by man bor i og om man stemte på et rødt eller blåt parti ved folketingsvalget den 20. november 2001.

Nedenstående figur viser resultaterne fra de fire regressionsmodeller. Konkret viser figuren effektestimaterne med 95% konfidensintervaller. Her kan vi se, at borgernes tillid til politikerne ikke ændrede sig ovenpå skandalen, men at de omvendt var mere tilbøjelige til at opfatte politikerne som korrupte.

Resultaterne bekræfter at politiske skandaler kan påvirke borgernes generelle opfattelse af, hvor korrupte politikerne er (Bowler og Karp 2004). Det er således ikke kun de involverede politikere, der bliver påvirket af en skandale. Når det er sagt viser analyserne også, at det ikke er på alle dimensioner, at borgerne ændrer deres holdninger. Konkret var vælgerne ikke mere tilbøjelige til at have mindre tillid til politikerne generelt blot fordi én borgmester var involveret i en skandale.

Nogle af studierne angivet ovenfor viser, at politiske skandaler kan påvirke både borgernes tillid til politikerne og deres opfattelse af korruption blandt samme. Der er dog også eksempler på studier, der ikke finder sådanne effekter. Maier (2011) viste eksempelvis i et eksperiment, at borgernes tillid til politikerne, deres tilfredshed med demokratiet og opfatelse af korruption blandt politikerne ikke var påvirket af eksponeringen til en politisk skandale. Dette kan således indikere, at vi skal være påpasselige med at generalisere fra én skandale til politiske skandaler generelt.

Begrænsninger

Der er mindst tre nævneværdige begrænsninger ved ovenstående analyse.

  1. Nutidige skandaler. Meget har ændret sig på 20 år, og der er ingen garanti for, at en lignende skandale i dag ville have tilsvarende effekter. Den måde hvorpå politiske begivenheder dækkes på i dag afviger signifikant fra, hvordan Brixtofte-skandalen blev dækket. Det er svært at sige, hvordan skandalen ville have været dækket, hvis Facebook og Twitter fandtes i 2002.
  2. Forskellige skandaler. Som angivet ovenfor, skal vi være påpasselige med at konkludere for meget på baggrund af én skandale med bestemte karakteristika. Ikke alle politiske skandaler er ens, og forskellige typer af skandaler (Basinger 2013) såvel som karakteristika ved de involverede politikere (Berinsky et al. 2011, Smith et al. 2005) kan have betydning for, om og hvordan borgerne reagerer på en politisk skandale.
  3. Partipolitik. Der var ingen partipolitiske konflikter omkring skandalen, da den stod på. Venstre gjorde det entydigt klart på det nationale niveau, da skandalen tog fart, at der var tale om et lokalpolitisk anliggende. Hvis partiet havde ageret anderledes, er det også muligt, at vi havde set andre effekter. Tidligere forskning har eksempelvis vist, at hvordan politikerne diskuterer en skandale påvirker effekten af selvsamme (Woessner 2005).

Konklusion

Politiske skandaler kan påvirke den offentlige opinion. Analyserne præsenteret ovenfor indikerer, at Brixtofte-skandalen øgede danskernes opfattelse af korruption blandt politikerne generelt, men ikke havde nogen betydning for borgernes tillid til politikerne.

Det er en sag der primært har historisk interesse, men ikke desto mindre en utroligt interessant case, der stadig refereres til den dag i dag. Den gode nyhed er, at skandalen – i hvert fald på kort sigt – ikke rykkede ved vælgernes generelle tillid til politikerne.

Meningsmålinger og demokratisk indflydelse

Det er relativt begrænset hvor stor indflydelse din stemme har ved et folketingsvalg. Det er af samme grund teorier omkring rationel vælgeradfærd konkluderer, at det – i langt de fleste tilfælde – ikke er rationelt at stemme.

Heldigvis er der mange måder at øge sin politiske indflydelse i Danmark anno 2021. Foruden det at stemme ved forskellige valg kan man skrive læserbreve, deltage i vælgermøder, melde sig ind i et politisk parti, donere penge til partier og andre organisationer, kontakte politikere, deltage i underskriftsindsamlinger, like og kommentere på sociale medier og så videre.

Hvis man som ordinær borger – uden mange penge på lommen – vil øge sin indflydelse, vil jeg argumentere for, at den bedste strategi er at deltage i meningsmålinger. Grunden til dette er, at de politiske partier i dag får foretaget meningsmålinger for at finde ud af, hvilke politiske tiltag der er opbakning til i befolkningen. Især når det vedrører større politiske tiltag og reformer, der kan være kontroversielle.

Det er især regeringspartier, eller partier med ønsket om at få regeringsmagten på et tidspunkt, der laver denne slags meningsmålinger. Og det er især med henblik på at vide, hvad vælgere omkring midten synes. Det vil ikke være nogen overraskelse, at folk der stemmer på Enhedslisten er modstandere af en lavere dagpengesats, eller at folk der stemmer på Dansk Folkeparti er tilhængere af yderligere asylstramninger. Stemmer du omvendt på eksempelvis Socialdemokratiet eller Venstre, kan du have relativt stor indflydelse i en meningsmåling, der kan være med til at forme de politiske partiers politik. Især hvis du ikke er loyal partisoldat.

Ligeledes vil du have større indflydelse i en meningsmåling, hvis du repræsenterer en sociodemografisk gruppe, der normalt ikke deltager i meningsmålinger. Jo mere atypisk det er, at din sociodemografiske gruppe vil deltage i en meningsmålinger, desto større vægt vil der blive givet til dit svar (under forudsætning af, at den er repræsentativ for, hvad andre fra din sociodemografiske gruppe, vil mene).

Min pointe er således den simple, at din “stemme” i en meningsmåling vil betyde relativt meget, især hvis man sammenligner det med andre typer af demokratisk deltagelse. Så hvis du vil øge din politiske indflydelse, bør du deltage i meningsmålinger.

25 interesting facts #12

276. People overestimate their own IQ by around 30 IQ points and their partner’s IQ by almost 40 IQ points (Gignac and Zajenkowski 2019)

277. Democratic satisfaction drops significantly when early elections are called by prime ministers or presidents (Morgan-Jones and Loveless 2021)

278. Smoke alarms for children are more effective if they have an maternal voice alarm instead of a tone alarm (Smith et al. 2018)

279. The emotional arcs of stories are dominated by six basic shapes (Reagan et al. 2016)

280. People have a strong counterfactual curiosity (FitzGibbon et al. 2021)

281. In the United States, while conservatives report greater needs for certainty than liberals, these needs are not a major source of political bias (Guay and Johnston 2021)

282. Taxi drivers take longer routes on metered airport routes than Uber drivers, especially for nonlocal passengers (Liu et al. 2021)

283. Employees who are financially dependent on tips are more likely to experience customer sexual harassment (Kundro et al. 2021)

284. Nudging people to compare pigs to dogs make them less permissible of eating animals (Horne et al. 2021)

285. Honey bees understand the concept of zero (Howard et al. 2018)

286. There was European presence in the Americas in 1021 (Kuitems et al. 2021)

287. In the United States, the introduction and marketing of OxyContin explain a substantial share of overdose deaths (Alpert et al. 2021)

288. The Prohibition in Chicago consolidated the organizational elites and increased gender inequality in organized crime (Smith 2020)

289. Sleep inspires insightful behaviour and creativity (Cai et al. 2009; Wagner et al. 2004)

290. Hosting refugees does not increase the likelihood of new conflict, prolong existing conflict, or raise the number of violent events or casualties (Zhou and Shaver 2021)

291. On Wikipedia, biographies about women are more frequently considered non-notable and nominated for deletion compared to men’s biographies (Tripodi 2021)

292. The very wealthy have been constructing luxury basements across certain parts of London, totaling an estimated excavated depth of 25,461 meters since 2008 (Burrows et al. 2021)

293. Based on the movies, James Bond would be in danger because of tropical diseases and diarrhoea due to poor hygeine (Graumans et al. 2021)

294. There is greater than 99% consensus on human caused climate change in the peer-reviewed scientific literature (Lynas et al. 2021)

295. Dogs can display jealous behaviour (Bastos et al. 2021)

296. There is no evidence for systematic voter fraud in the 2020 US presidential election (Eggers et al. 2021)

297. The ability to name unrelated words is a strong measure of creativity (Olson et al. 2021)

298. Spontaneous face touching is an ubiquitous behavior that occurs in people up to 800 times a day (Spille et al. 2021)

299. There is no consistent effect of testosterone on economic risk-taking (Stanton et al. 2021)

300. Nuclear power’s contribution to climate change mitigation is and will be very limited (Muellner et al. 2021)


Previous posts: #11 #10 #9 #8 #7 #6 #5 #4 #3 #2 #1

The political implications of climate change

What are the political implications of climate change? I have been looking into a few studies lately on the implications of climate change for societies. In brief, there is substantial evidence that climate change matter for economic development, political instability, climate migrants, public health, conflict, etc. Nerini et al. (2019) provide a great overview on how climate change can impact the achievement of the different Sustainable Development Goals (for each of the targets in the 17 SDGs):

They find that climate change can undermine the achievement of at least 16 out of the 17 SDGs. In other words, it is clear that climate change is not unrelated to other challenges faced by societies today (I wrote about this in relation to COVID-19 earlier this year). For topics such as poverty, gender equality, and economic inequality, climate change is important.

A lot of the studies I have found look at how climate change shape economic outcomes. In the table below I show some of these studies with information on their climate focus as well as the key result. The core finding is that changes related to climate change (extreme weather events, temperature increase) matter for economic outcomes.

Study Climate focus Result
Coronese et al. (2019) Extreme natural disasters (floods, extreem temperatures, droughts, storms, wildfires, and landslides) Increase in economic damages (GDP)
Dell et al. (2012) Average temperature Decrease in economic growth
Estrada et al. (2017) Global temperature Increase in economic costs (% GDP)
Hsiang et al. (2017) Global mean temperature Increase in economic market and nonmarket damage
Kotz et al. (2021) Increase in day-to-day temperature variability Reduction in regional growth rates
Pretis et al. (2019) Global mean surface temperature Decrease in economic growth

The studies are particularly interested in economic growth rates and economic damages caused by temperature changes.

Similarly, there are studies demonstrating how climate change matters for (political) conflicts. In the table below I provide an overview of some key studies in the field.

Study Climate focus Result
Burkhardt et al. (2019) Air pollution exposure Increase in violent crimes
De Juan and Wegenast (2020) Average annual temperature Decrease in food riot occurrence
Harp and Karnauskas (2020) Surface air temperature Increase in violent crimes
Hsiang et al. (2013) Warmer temperatures and more extreme rainfall Increase in human conflict (interpersonal violence, political instability etc.)
Jun and Sethi (2021) Extreme weather events Increase in military conflicts
Schleussner et al. (2016) Climate-related disasters Increase in risk for armed conflict

These studies tend to focus on temperature and extreme weather events as well, but with at least one study looking at air pollution exposure. Given the different measures available in the different studies, I would be interested in knowing how many of these studies replicate if they used different measures.

What I find most interesting is not the evidence I have found, but rather what I have not found. Of course, I might have missed some relevant studies beyond economic outcomes and (violent) conflict, but I was expecting to see a lot more political science research on the impact of climate change. How will climate change – and not just the framing of climate change or the amount of rain on Election Day – matter for politics?

As climate change is not affecting countries in a homogeneous manner, there should be a lot of options to study the political implications of climate change. However, again, what are the political implications of climate change? We don’t really know. That being said, I do expect that we will see a lot more research on this topic in the coming years. To be continued…

Hvornår kommer folketingsvalget? #2

I et tidligere indlæg argumenterede jeg for, at der var grund til at forvente, at folketingsvalget kunne finde sted samme dag som kommunalvalget. Mit kvalificerede gæt var således, at folketingsvalget ville finde sted 16. november 2021. Vi kan nu konstarere, at jeg tog fejl. Det er ikke første – og helt sikkert ikke sidste – gang, at jeg tager fejl.

Jeg skriver dette indlæg af de samme grunde som jeg aldrig vil kunne blive politisk kommentator, nemlig at jeg finder det lige så relevant at fremhæve, når jeg tager fejl – som når jeg rammer plet. Faktisk finder jeg det mere interessant at bruge tid på at dissekere, hvorfor og hvornår jeg tager fejl.

Man behøves ikke have læst flere bøger af Philip E. Tetlock for at vide, at selv politiske kommentatorer ofte tager fejl. I 2015 viste jeg, at mange politiske kommentatorer tog fejl i forhold til, hvornår folketingsvalget ville blive udskrevet. Det er derfor ikke den store overraskelse, at jeg heller ikke ramte plet i mit kvalificerede gæt denne gang. Det relevante spørgsmål der står tilbage, er, hvorfor vi ikke ser et folketingsvalg nu.

De fleste meningsmålinger er fine for Socialdemokratiet, men partiet ligger ikke trygt på den gode side af de 30% som de gjorde, da jeg skrev mit indlæg. Meget kan ske i en valgkamp og det er ingen selvfølge, at partiet vil stå stærkere på den anden side af et valg. Der har været artikler på det seneste om, at rød blok ikke længere har et stabilt flertal (se eksempelvis dækningen af meningsmålingerne fra Voxmeter og Megafon).

Dertil skal det tilføjes, at der også har været nogle meningsmålinger på kommunalt niveau, der nok heller ikke er gået Socialdemokratiets opmærksomhed forbi, herunder målinger i København, Fredericia, Silkeborg, Bornholm, Hedensted og Horsens, der alle viser en tilbagegang til Socialdemokratiet (omend i varierende størrelse).

Jeg burde i højere grad have taget højde for, at det ikke kræver de store vælgervandringer før et komfortabelt flertal til rød blok kan reduceres til et meget tæt valg. Min generelle opfattelse er, at meningsmålingerne ikke viser store ændringer over kort tid, men det er ikke usandsynligt at et parti kan rykke sig signifikant over en periode på et halvt år. Med det in mente er det intet chok, at målingerne nu viser noget andet end de gjorde, da jeg skrev mit indlæg.

Det kontrafaktiske spørgsmål er her, om Socialdemokratiet ville have udskrevet valg, hvis meningsmålingerne var bedre. Det kan vi i sagens natur ikke vide, men jeg vil stadig argumentere for, at sandsynligheden for at vi ville have set et folketingsvalg snart, alt andet lige, ville være større hvis meningsmålingerne havde givet Socialdemokratiet og især rød blok et solidt forspring.

En anden mulighed er, at det aldrig har været en seriøs overvejelse i regeringstoppen at udskrive valg i 2021, men at det blot har handlet om at signalere muligheden, især for at sikre, at oppositionspartierne har brugt energi på at være klar til et eventuelt efterårsvalg. Det kan vi forhåbentlig få nogle svar på i fremtiden, når den nuværende politiske situation ligger så langt tilbage i tid, at politiske biografier kan belyse, hvilke strategiske overvejelser, der har været på spil.

En tredje mulighed – som dog potentielt hænger sammen med partiets opbakning i meningsmålingerne – er usikkerheden omkring de politiske sager, der har været i løbet af de seneste måneder. Dette være sig eksempelvis sygeplejerskernes strejke og minksagen, der har stået højere på Socialdemokratiets dagsorden end tankerne om at udskrive valg. Ligehedes har flere ministre ikke nødvendigvis vist sig fra deres bedste side i år, herunder blandt andet Astrid Krag, Jeppe Kofod og Trine Bramsen, hvorfor det kan give god mening ikke at udskrive valg i kølvandet på dette.

Med andre ord burde jeg også have taget højde for, at den politiske dagsorden ikke nødvendigvis ville være domineret af corona (som den trods alt var i begyndelsen af i år), men tværtimod mere nuanceret.

Dette besvarer selvfølgelig ikke, om Socialdemokratiet burde udskrive valg nu. Der er ingen garanti for, at opbakningen til regeringen og dets støttepartier vil være større i efteråret ’22 eller foråret ’23. Det må eftertiden vise.

Hvornår vil vi så se et folketingsvalg? Det har jeg ikke længere et kvalificeret bud på. Mine overvejelser herom er trivielle (jo bedre målinger til rød blok, desto større sandsynlighed for et valg), og jeg vil herfra lade de politiske kommentatorer om at sætte en præcis dato på, hvornår vi ser et valg.

Correlation and causation with Friends

There has been a lot of talk about the TV show Friends in 2021, especially related to the reunion of the cast. I have written about the show before (in Danish), and while it is not a show that I am going to watch again anytime soon, there are a few scenes that might be useful for teaching purposes.

Specifically, I used a few clips in the past when I was teaching students about how correlation does not imply causation. The first clip is about a conversation between Joey and Rachel on why their fridge broke down. The second clip is a conversation between most of the friends about what happens when Phoebe visits the dentist.

Of course, the examples are superficial and I have primarily used the two examples in my introdoctory teaching to let students discuss correlation and causality in the simplest of terms. My experience is that both examples work well.

Last, when teaching statistics, you might also consider using data related to Friends. Emil Hvitfeldt has released an R package with the entire transcript from the TV show Friends. The package is on CRAN. There is some good material on how to analyse the data in the TidyTuesday videos from David Robinson and TidyX. Noteworthy, this is not the only R package related to Friends. You also have the centralperk package that enables you to get random quotes from Friends.

If you would like to analyse data from other TV shows, you can also check out the entire transcript from The Office. For examples on how to analyse this data, I can highly recommend the blog posts by Eric Ekholm (part 1, part 2, part 3).

Updating the replication material for “Welfare Retrenchments and Government Support”

In 2017, I pushed the replication material for my article, ‘Welfare Retrenchments and Government Support’, to a GitHub repository. I had been working on the article for years and the code was not necessarily up to date. It worked perfectly, gave the exact estimates and was relatively easy to read. Accordingly, everything was good, life was simple and I felt confident that I would never have to look at the code again.

This turned out not to be the case. I recently got a mail from a student who was unable to get the exact estimates as reported in Table 1 in the paper, even when following my script and using the data I made publicly available. I went through the code and I noticed that I could not reproduce the exact estimates with my current R setup. Sure, the results were substantially identical but not the exact same – and the N was also different.

I looked into the issue and I could see that changes were made to the defaults of set.seed() in R 3.6.0. As I ran the original analyses in R 3.3.1, and I am now using R 4.1.0, this could explain why the matching procedure I rely on is not returning the exact matches. For that reason, I decided to make some updates to the replication material so there now is a dataset with the matched data. The script is doing the same as before, but it is not relying on the matched data obtained with the setup in R 3.3.1. This should make it a lot easier to get the exact same estimates as provided throughout the paper.

To increase the changes of long-term reproducibility, I should consider using packrat or a Docker container (I primarily use Docker for my Shiny dashboards). However, as the analyses are mostly a few OLS regressions, I believe this would be overkill and would not necessarily make it easier for most people to easily download the data and script and play around with the results. And I don’t mind making extra updates in the future if needed in order to reproduce the results with different setups.

Interestingly, I did all of these analyses before I doubled down on tidyverse and for that reason I decided to make a series of additional updates to the material, including:

  • More spaces to make the code easier to read. For example, instead of x=week, y=su it is now x = week, y = su.
  • The use of underscores (snake cases) instead of dots. For example, the object ess.matched is now ess_matched.
  • A significant reduction in the use of dollar signs (primarily by the use of mutate()).
  • The use of pivot_longer() instead of gather().
  • No double mention of the variable edulevel in the variable selection.
  • Removing the deprecated type.dots argument from rdplot().
  • The use of seq(0.01, 0.25, 0.01) instead of having 0.01, 0.02, 0.03, 0.04, etc. all the way to 0.25!
  • The use of map_df() instead of a for loop.

And a series of other minor changes that makes the code easier to read and use in 2021. I have made the updated material available in the GitHub repository. There is a revised R-script for the analysis, a dataset with the matched observations and a file with the session info on the current setup I used to reproduce the results.

I have started using the new native pipe operator in R (|>) instead of the tidyverse pipe (%>%), but I decided not to change this in the current version to make sure that the script is also working well using the version of R I used to conduct the analysis years ago. In other words, the 2021 script should work using both R 3.3.1 and R 4.1.0.

I also thought about using the essurvey package to get the data from the European Social Survey (we have an example on how to do that in the Quantitative Politics with R book), but I find it safer to only work with local copies of the data and not rely on this package being available in the future.

In a parallel universe a more productive version of myself would spend time and energy on more fruitful endeavors than updating the material for an article published years ago. However, I can highly recommend going through old material and see whether and if it still works. Some of the issues you might encounter will help you a lot in ensuring that the replication material you create for future projects are also more likely to stand the test of time.

Social science research during COVID-19 #2

I have been reading a few papers on conspiracy theories in relation to COVID-19 (primarily because I was asked to read a study on this topic for a journal). In parallel, I have been following the debates taking place between scientists on the origin of COVID-19. In this post, I will argue that there are some interesting discprecancies in how different researchers look at and talk about the origin of COVID-19.

More specifically, consider the lab leak theory on the origin of COVID-19. There are several social science studies that treat this as a conspiracy theory. A few examples are in place. More than a year ago, a study published in June 2020 mapped “retweets that attribute COVID-19 to a bioweapon or a lab in China” to examine the “geography behind a metonymic conspiracy theory”. Another study from September 2020, examined “a conspiracy theory that it [COVID-19] was human-engineered and leaked, deliberately or accidentally, from a research laboratory in Wuhan, China.” A third study from December 2020 looked at “popular conspiracy theories around a Chinese laboratory in Wuhan”. And a fourth study from June 2021 considered “the Wuhan laboratory and 5G theories as classic conspiracy theories”. Of course, this is not a comprehensive review but just to illustrate that there are multiple studies on conspiracy theories within the social sciences that treat the lab leak theory as a conspiracy (similar to that of the 5G conspiracy).

What is interesting about the study of the lab leak theory as a conspiracy theory? The fact that people outside the social sciences do not talk about the lab leak theory as a conspiracy theory. In May, a group of researchers wrote in Science that “We must take hypotheses about both natural and laboratory spillovers seriously until we have sufficient data.” For a good overview of the timeline and why a lot of people were quick to call the lab leak theory a conspiracy, see this feature published in BMJ. There is also a good explainer in Nature on what we know, including arguments for and against the lab leak theory. The head of the WHO has said that it was premature to rule out the lab leak theory. This is definitely not to say that the lab leak theory is the most promising theory, especially as there is more support for the theory that COVID-19 is the result of a natural spillover from humans to animals (see also this recent article).

I am not an epidemiologist. I know next to nothing about the outbreak of diseases. Well, for the sake of the argument I am about to make, let us say that I know nothing about the outbreak of diseases. The world is a complicated place, especially when we are faced with a new virus like COVID-19. I cannot say anything about what is true or false with any level of authority. I believe we know a lot about the virus (and by “we” I primarily mean the scientific community which I am by no means a part of), and there is still a lot we do not know.

However, in general, I believe it is limited what social science research conducted during the COVID-19 pandemic can say beyond what we can already infer from research into previous crises (including previous research on conspiracy theories). In other words, we do not need to begin from scratch if we are to understand human behaviour in relation to COVID-19. In fact, I believe it is deadly dangerous when social scientists prioritise speed over science when they want to act on an opportunity promptly. In my previous post on the topic, I wrote about how I found it problematic and unethical when a group of economists tried to convince Americans to worry less about COVID-19 in the beginning of 2020!

To give the researchers the benefits of the doubt, I am willing to assume that they are incompetent rather than malicious. We did not know a lot about COVID-19 in the beginning, and it is only fair to expect that we should not even consider the possibility of a lab leak as anything but a conspiracy theory promoted by Donald J. Trump and the like.

That being said, the problem is that such research is damaging. If people who are prone to believe in conspiracy theories can see that social scientists are treating theories like the lab leak theory as a conspiracy, why not expect the same for the real conspiracy theories like 5G? This is why it is paramount that researchers should be careful with how they categorise conspiracy theories, especially if they want to publish on such theories in the midst of a global pandemic.

New book: Reporting Public Opinion

I am happy to announce the publication of a new book, ‘Reporting Public Opinion: How the Media Turns Boring Polls into Biased News‘, co-authored with Zoltán Fazekas. The book is about how and why opinion polls are more likely to be about change in the news reporting. Specifically, journalists are more likely to pick opinion polls that show changes, even when such changes are within the margin of error, highlight such changes in the reporting – and the public, pundits and politicians are more likely to respond to and share such polls.

Here is the puzzle we address throughout the various chapters: how can most opinion polls show a lot of stability over short periods of time whereas the reporting of opinion polls are dominated by change?

Even for the most hardcore followers of politics, opinion polls are quite boring in and by themselves. In most cases they show nothing new. When we take the margin of error into account, a new opinion poll will most likely show that there is no statistically significant shift in the polls for any of the political parties of interest. And when there is a large change, it is most likely a statistical fluke we should be cautious about. I have over the years written countless posts about such opinion polls being covered in the Danish media.

The book is our attempt to provide a unified framework to better understand these dynamics in a systematic manner. In the first chapter of the book, we introduce the theoretical puzzle and outline the main limitation of existing studies on the topic, namely that studies on opinion polls tend to focus on one specific stage in the coverage, such as whether methodological details are present in the coverage or not. To fully understand how opinion polls are covered and consumed in contemporary democracies, we argue that we need to combine different literatures on opinion polls and examine how a strong preference for change can explain biases in how opinion polls travel through several stages from their initial collection to how they reach the public.

In the second chapter, we further develop a framework that focuses on the temporal dimension of how opinion polls are brought to the public via the media. This chapter serves as an introduction to the four stages that opinion polls have to go through in our framework. Specifically, we show how each stage – or activity – will lead to polls showing greater changes getting more attention. This is illustrated below:

Next, throughout Chapters 3, 4, and 5, we cover the stages of opinion polls in greater detail and show collectively how opinion polls are being turned into specific news stories. In Chapter 3, we focus on the selection of opinion polls. That is, we investigate what can explain whether journalists decide to cover an opinion poll or not. In Chapter 4, we target the content of the reporting of opinion polls, which covers the news articles dedicated to the opinion polls that journalists have decided to report on. In doing this, we show how the selection and reporting of opinion polls are shaped by a similar preference for change. Noteworthy, when introducing the idea of change, we dedicate extensive considerations to how we can best measure change and what the availability of these change measures means for the selection and reporting.

In Chapter 5, we analyse the next natural stage in the life of opinion polls: how do politicians, experts and the public respond to them and to the stories written about them. Essentially, we delve into the implications of how these opinion polls are selected and covered. Here, we show that both elites and the broader public have a strong preference to engage with (respond to or share) opinion polls that show greater changes or support a well-defined change narrative. Interestingly, we find that opinion polls showing greater changes are much more likely to go viral on Twitter.

In Chapter 6, we turn our attention to the alternatives of the reporting of opinion polls. Here, we discuss how no opinion polls at all, poll aggregators, social media, and vox pops can be seen as alternatives to opinion polls, and in particular what are their strengths and limitations. The ambition here is not to force the reader to decide whether opinion polls are good or bad, but rather to understand how alternatives to opinion polls can mitigate or amplify the biases introduced in the previous chapter.

Last, in Chapter 7, we conclude how the media might report on opinion polls by considering the trade-offs between what the polls often show and what journalists wish they showed. Specifically, we first set out to discuss the implications of the findings for how we understand the political coverage of opinion polls today and then discuss the most important questions to be answered in future work.

The book is the product of years of work on the topic of how opinion polls are reported in the media. However, while the topic should be of interest to most people with an interest in politics and opinion polls, this is an academic book and I should emphasise that it might be a tough read for a non-academic audience.

You can buy the book at Waterstones, Bookshop, Springer, Blackwell’s and Palgrave.