Del1 – Justering av temperaturer
I 1938 stasjonerte man ut det første værskipet i Nord-Atlanteren. Etter hvert økte antallet til 13 stykker. Men siden værskip er dyre i drift, reduserte man antallet – det norske værskipet «MS Polarfront» var det siste. Det ble tatt ut av drift 1. januar 2010. Værskipene ga gode observasjoner fra nordområdene. Nå har værtjenestene derfor begynt å måle gjennomsnittstemperaturer i nord ved å benytte temperaturen fra nærmeste landbaserte stasjon og «smøre den utover» som et gjennomsnitt i nord. En relativt høy temperatur registrert på en landbasert målestasjon kan på denne måten gi en høy temperatur langt ut i Nordishavet, selv om temperaturen der i virkeligheten er langt under den landbaserte. Dette kan være en av grunnene til at vi kan få en forestilling om at temperaturene har steget mye i Arktis.
Men her finnes andre måter å ordne temperaturstigning på, selv om den ikke er reell. Aktivisten James Hansen som spådde den galopperende havstigningen, selv om den nå glimrer med sitt fravær, har i sannhet også sagt mye om temperaturstigning. Siden spådommene hans ikke har slått til her heller, har han funnet seg en alternativ metode til å få disse til å gå i oppfyllelse. Mannen hadde en sentral posisjon i Global Historical Climatology Network (GHCN) – som samler og oppbevarer temperaturdata fra målestasjoner over hele verden. Dette er data som oppbevares og benyttes til analyser, værvarsling og klimaprognoser. Norsk Meteorologisk Institutt benytter seg også av disse dataene.
I den senere tid er man blitt oppmerksom på at disse dataene justeres ganske ofte. På fagspråket kalles det homogenisering. Med andre ord: temperaturer som er blitt målt en gang i tiden, blir nå forandret på (i et dataprogram). Ikke bare en gang men flere ganger, stadig vekk. Hansen var her sentral i å «justere» ned tidligere tiders målte temperaturer ganske kraftig, og i noen tilfeller «justerte» han opp temperaturer målt i den senere tid for å få dette til å stemme med skremselsscenarioene sine. Dette gjelder mange, og stadig flere måleserier, også norske.
Og hvordan og hvor mye blir temperaturmåleseriene endret? La oss ta et av de mest ekstreme eksemplene. Vi har ganske gode og kvalitetssikrede grunndata fra Vestmannaeyjar (Island) helt tilbake til 1884.
Hva gjelder dette aktuelle tilfellet, har han «justert» de første 43 årene flatt med -1,55 grader C. Så fikk han et problem med perioden 1927 til 1929, for da var de originalt målte temperaturene ekstra høye. Disse har han like godt kuttet ut i «justeringen» sin, slik at de ikke vises. Men det var også en varmeperiode fra 1939 til 1943.
Disse er «justert» slik:
1939: -1,63
1940: -1,80
1941: -1,80
1942: -1,34
Videre fremover til 1967 er «justeringen» bare på – 0,7 grader C, og siste del er uendret (i håp om at ingen skulle oppdage endringene?).
Slik ser disse temperaturgrafene ut, før og etter «homogenisering»:
Målestasjoner som er homogenisert på tilsvarende vis er mange og spredt over hele verden. Her har vi mange stasjoner på Island, Ostrov Dikson i Russland, flere steder i Australia (f.eks. Darwin), Durban Louis i Sør-Afrika, Antananarivo på Madagaskar, Pudahuel og Punta Arenas i Chile, Upernavik på Grønland og Blindern i Norge. Men det er mange flere.
Her er et annet eksempel som viser hvordan temperaturutviklingen i USA er manipulert tilsvarende:
Del 2 – Variasjoner av målestasjonsparametre.
Til tider har jeg fundert på hva som er hovedforskjellen på en meteorolog og en klimaforsker. Her finnes det selvsagt ikke et standardsvar. Men en ting er likevel nokså innlysende. Om en meteorolog begår faglige feil, får han/hun tilbakemelding ganske umiddelbart. Dette gjør at vedkommende må være skjerpet i forhold til faget.
Klimaforskere kommer ofte med prognoser om hva som skjer med værlaget (klimaet) fra 25 til 100 år frem i tiden. Om vedkommende forsker begår faglige feil, vil han/hun ventelig ikke få noen tilbakemelding før etter vedkommende er gått av med pensjon eller er avgått ved døden. Vedkommende vil med dette ikke bli gjort ansvarlig for feil/svakheter/omtrentligheter som er begått.
For meg ser det også ut til at en del av klimaforskerne er redde for å «skitne til hendene sine». Med det mener jeg at de heller benytter seg av datamaskiner, modeller og teoretiske utlegninger i stedet for å sette seg inn i hvordan måleutstyr virker, samt hvordan mulige feilkilder vil kunne virke inn på målingene. En dreven meteorolog har imidlertid som regel et praktisk innblikk i slike faktorer på en langt bedre måte enn den gjennomsnittlige klimaforskeren – ser det ut som.
Det er derfor ikke til å undres over at de som har tatt arbeidet med å gå gjennom kvaliteten av de meteorologiske bakkemålingsstasjonene i verden, er to drevne meteorologer: Joseph D’Aleo og Antony Watts.
Joseph D’Aleo har over 40 års erfaring som profesjonell meteorolog og var første direktør i den amerikanske kabel-TV-kanalen «TV Weather Channel». Han har også undervist som college professor i meteorologi i 6 år ved Lyndon State College.
Antony Watts er også amerikansk meteorolog, president i «IntelliWeather Inc» og redaktør av den verdenskjente klimabloggen «Watts Up With That».
Joseph D’Aleo og Antony Watts har gått gjennom jordas overflate-temperaturmålinger og sammenholdt det mot målestasjonenes kvalitet, plassering og antall til enhver tid. De konkluderer følgende:
- Instrumentelle temperaturdata fra pre-satellitt eraen (1850-1980) har vært systematisk tuklet med så mye at det ikke på en troverdig måte kan hevdes det har vært noen vesentlig «global oppvarming» i det 20. århundre.
- Alle overflate-temperatur-databaser viser tegn til forurensning fra urban oppvarmings-forurensning og etterjusteringer slik at de er upålitelige når det gjelder å bestemme langsiktige trender nøyaktige temperatur.
- Disse problemene har forskjøvet dataene i så stor grad at den observerte oppvarmingen viser seg å være overdrevet både regionalt og globalt.
- Globale temperaturdata er stilt i et dårlig lys (kompromittert) fordi mer enn tre fjerdedeler av de 6.000 stasjoner som en gang ble benyttet ikke lenger blir brukt i data-trendanalyser.
- Det har vært en betydelig økning i antallet manglende måneder der 40% av GHCN (Global Historical Climatology Network) stasjonene rapporterer at de mangler minst en måned. Dette medfører innfylling (av manglende data) som bidrar til usikkerhet og mulige feil.
- Forurensning i form av urbanisering, endringer i arealbruk, feil lokalisering, og mangelfullt kalibrerte instrumenter-oppgraderinger øker usikkerheten ytterligere.
- Mange fagfellevurderte artikler i de siste årene har vist overvurderingen av den observerte langterm-oppvarmingen på 30-50% fra urban-oppvarming og varmeforurensnig fra endring i arealbruk.
- En økning i andelen av kompromitterte stasjoner med interpolering fra tilliggende måledata kan gi oppvarmingen en skjevhet større enn 50% i det tyvende århundre.
- For havene er manglende data og usikkerhetene betydelig. Endringer i datasett innførte et (kunstig) oppvarmingssteg i 2009.
- Satellitt-temperaturovervåking har gitt et alternativ til bakkestasjoner når det gjelder å samle data for å overvåke den globale temperaturen i den lavere troposfæren (http://no.wikipedia.org/wiki/Troposfæren). Funnene der avviker i stigende grad fra bakke-stasjonsbaserte målinger på en måte som er forenlig med bevis for at bakkestasjonene viser for høye temperaturmålinger.
- Ytterligere justeringer er utført på dataene som dermed resulterer i en tydelig økende trend. I mange tilfeller er slike justeringer gjort ved å «kjøle ned» tidligere målte temperaturer.
- De historiske datakildene har blitt forandret for å skjule sykliske endringer som lett kan forklares med naturlige faktorer som multi-dekadiske hav- og sol-endringer.
- Grunnet nylig økende frekvens av utkutting av rurale stasjoner og favorisering av urbane flyplasser som primære temperaturdatakilder, er de globale temperatur-databaser påført alvorlige feil, og kan ikke lenger være representative for både urbane og rurale miljøer. De resulterende data er derfor problematiske når de brukes til å vurdere klimatrender og validere modellprognoser.
- En ekstern vurdering er avgjørende når det gjelder overflatetemperatur-registreringer utført av CRU, GISS og NCDC . Vurderingen bør gjøres av «et panel ledet av klimaforskere som ikke har egeninteresse i utfallet av evalueringene.»
CRU = Climatic Research Unit (CRU) er en del av «University of East Anglia» og er en av de ledende institusjonene som har ansvaret for studiet av naturlig og antropogent (menneskeskapt) klimaforandring.
GISS = Goddard Aeronautics and Space Administration (NASA).
NCDC = National Climatic Data Center.
- Om man skal stole på de globale dataene til IPCC og USA GCRP / CCSP (United States Global Change Research Program or USGCRP coordinates and integrates federal research on changes in the global environment and their implications for society.) bør man først ha en gjennomgang av disse dokumentene og vurdere den grunnleggende usikkerheten i prognoser og språket som benyttes til å definere policy.
Artikkelforfatterne konstaterte altså også homogeniseringen som nevnt i Del 1
Problemet som er sentralt i denne saken er at antall målestasjoner som blir benyttet til å regne ut den globale temperaturen (eventuelt temperaturanomalien) falt drastisk etter år 1990.Dette blir i artikkelen fremstilt slik:
I stor grad er stasjoner langt nord og i høyden blitt tatt ut av måleseriene. Det betyr i praksis at de «varmeste» stasjonene har mest å si etter år 1990.
Rapporten dokumenterer og illustrerer degraderingen av meteorologiske målestasjoner i verden generelt og USA spesielt.
Del 3 – Forskjeller på gamle og nye målestasjoner.
Den tyske meteorologen Klaus Hager fra Lechfeld hadde i 2015 praktisert meteorologi i 44 år og forelest ved Universitetet i Augsburg, Tyskland, i 10 år. Han betraktes som ekspert på meteorologisk instrumentering og målinger.
I et intervju med avisen Augsburger Allgemeine i januar 2015 kom det frem at de nye, elektroniske termometrene (som erstattet de gamle glasstermometrene) viste høyere temperaturer enn man hadde målt tidligere. Innføringen av slike elektroniske termometre i værstasjonene startet i vesten på 1990-tallet. Hager hadde benyttet gamle og nye termometre parallelt noen år og hadde dokumentert at de nye viste i snitt 0,9 grader C høyere temperatur enn de gamle.
Forklaringen på dette kan være at elektroniske termometre reagerer raskere enn gammeldagse termometre. Det betyr i praksis at om en bil eller fly (mange målestasjoner er plassert på flyplasser) beveger seg i nærheten, registreres dette umiddelbart – noe som ikke ville være tilfelle med de gamle termometrene. Derfor må man følge en metodikk for å etablere et måleresultat ved å ta gjennomsnittstemperaturen over en viss tid, f.eks 10 minutter, når temperaturen skal registreres med det nye utstyret. Dette blir ikke praktisert på samme måte rundt om i verden.
Den australske klimaforskeren Jennifer Marohasy har vært spesielt kritisk til hvordan Australias meteorologiske institutt har neglisjert retningslinjene for oppsett av slike elektroniske målinger. Det har gitt som utslag både for høye maksimums- og gjennomsnitts-temperaturer. I tillegg har utstyret vært satt opp slik ved noen stasjoner (kanskje mange) at temperaturer under -10 grader C ikke ble registrert.
Alt i alt gir dette oss en god grunn til å anta at målingene av størrelsen av økningen av den globale gjennomsnittstemperaturen er umulig å stole på.
Lenker.
Joseph D’Aleo & Anthony Watts: Policy-Driven Deception?
Link til avisintervju med den tyske meteorologen Klaus Hager
Fra UK Met Office – How we measure temperature
Link til klimaforskeren Jennifer Marohasys blogg
The Telegraph: How we are STILL being tricked with flawed data on global warming
The Telegraph: The fiddling with temperature data is the biggest science scandal ever
Fra redaksjonen. Profilert politikk og samfunn.