"Godhet utan vishet och utan
gränser är bara en annan
form av ondska."
(John Paterson)
"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(Okänd)
"Ormar äro älskliga varelser,
om man råkar tillhöra samma
giftgrupp"
(Artur Lundkvist)
"När försiktigheten finns överallt,
finns modet ingenstans."
(den belgiske kardinalen Mercier)
"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)
"Civiliserade är de kulturer
och individer som respekterar
andra."
(Hört på Axesskanalen)
"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)
"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)
I den mån matematiken är absolut sann så säger den inget om verkligheten och i den mån den säger något om verkligheten vet vi inte om den är absolut sann.
Albert Einstein
(Note: at the top of the page you can choose translation of this article to other languages, but don't expect the translation to be perfect "Välj språk" means "Choose language")
I den här artikeln tänker jag ta upp några konkreta svårigheter man kan ställas inför när man försöker skapa matematiska/fysikaliska modeller för komplexa fenomen som väder och klimat. Jag är inte själv någon expert på klimatområdet eller på meteorologi men har 40 poäng i oceanografi (plus att jag läst några 60-poängskurser). Jag har dessutom en bakgrund i matematik och fysik och numeriska beräkningar med datorer. Så i princip har jag kapacitet att förstå matematiken bakom de klimatsimuleringar som gjorts (till skillnad från minst 90 procent av de som högljutt uttalar sig om klimatet i media). Huvudekvationerna inom oceanografi och meteorologi är grundläggande desamma, varför mina kunskaper i oceanografi har en viss relevans i sammanhanget. Skillnaden är att luft (meteorologi), i motsats till vatten (oceanografi), komprimeras vid tryck (vatten kan förvisso också komprimeras men denna egenskap spelar försumbar roll utom i djuphavet).
(för en kortfattad förklaring av begreppet differentialekvation, klicka här!)
Det grundläggande problemet är att oceanografins och meteorologins grundekvationer är komplicerade differentialekvationer, vilka för det första inte kan lösas exakt, utan kräver numeriska lösningar med kraftfulla datorer, där man får mer och mer exakta lösningar (fler värdesiffror) ju längre datorerna får stå och tugga (dvs varje ytterligare värdesiffra kostar en massa pengar). För det andra är många av lösningarna ganska instabila (diskuteras nedan), vilket ställer till ytterligare problem.
Först lite matematik innan vi går vidare. Matematiska ekvationer kan lösas på två principiellt olika sätt:
1. Analytiskt. Genom att utifrån matematikens regler manipulera matematiska uttryck som t ex innehåller olika obekanta (x, y, z etc) kan man lösa ut de obekanta och får på så sätt exakta uttryck för dessa. Antingen uttryckt i andra obekanta (dvs man får en formel t ex x=3y3) eller i exakta numeriska världen (x=2,4, x=π2/4 etc). För många typer av ekvationer finns färdiga formler med lösningarna (man behöver således inte uppfinna hjulet på nytt). De lösningar man får här är exakta.
2. Numeriskt. Vissa ekvationer går inte att lösa eller är svåra att lösa analytiskt (exakt). Då kan man använda s k numeriska metoder. Oftast används datorer till detta. Beräkningarna går till så att man skriver om ekvationen i lämplig form och sedan gissar eller tar ett startvärde man mätt fram. Detta sätts in i uttrycket varvid man får ett nytt värde, som ligger närmare den exakta lösningen än vad startvärdet gör. Detta nya värde sätts återigen in i uttrycket och man får ännu ett nytt värde som sedan sätts in i uttrycket etc. Varje sådan beräkningsomgång kallas en iteration. För varje iteration kommer man närmare lösningen och det är bara att låta datorn stå och tugga så får man så många värdesiffror som man behöver (klicka här för ett enkelt exempel på numeriska beräkningar genom iteration).
Läsaren ombedes att hålla detta i minne vid genomläsningen av den följande texten.
Antag t ex att man vill förutsäga (simulera) temperaturutvecklingen för ett område (t ex Europa eller hela Jorden) 100 år framåt i tiden. Det handlar då om att lösa enorma system av differentialekvationer (ekvationer som innehåller derivator). En strategi är att man lägger ett "rutnät" (mesh) över det område man vill studera (se bilder nedan). Skärningspunkterna (vilka kallas noder) mellan de olika linjerna i meshen definierar mätpunkter. Sedan lägger man in ett startvärde för temperaturerna i området, t ex medeltemperaturerna i dessa punkter vid en viss tidpunkt man utgår således från att det gjorts tillförlitliga temperaturmätningar i området (helst vill man också ha temperaturuppgifter under lång tid tillbaka för att man skall kunna testa sin simulering genom att också gå bakåt i tiden och jämföra "kartan med verkligheten") och så startar man beräkningen. Starttiden sätter vi till noll, dvs t=0. Innan man startar anger man hur stora tidssteg man vill att simuleringen skall ta för varje beräkningsomgång, t ex 5 timmar. Vid beräkningarna arbetar man numeriskt (som förklarats under punkt 2 ovan). Datorerna står nu och tuggar och tuggar och efter ett viss antal iterationer (dvs efter en viss beräkningstid det kan handla om tiotusentals eller miljoner iterationer) får man resultatet med lämpligt antal värdesiffror. Det erhållna resultatet (de beräknade temperaturerna i de olika noderna 5 timmar efter starten av simuleringen, dvs vid t=5 timmar) sätts nu tillbaka in i simuleringen och efter en stunds räknande har man kommit ytterligare 5 timmar framåt i tiden (i simuleringen), dvs till t=10 (timmar). Beroende på den matematik som beskriver det man vill simulera och hur många värdesiffror man vill ha och hur kraftfull dator man har tillgång till, kan varje sådant beräkningssteg (tidssteg) ta längre eller kortare tid. Vill man simulera temperaturutvecklingen för lång tid framåt, kanske hundratals år eller mer, kan man frestas att ta större tidssteg per beräkningssteg (än 5 timmar). Problemet är att om man tar för stora tidssteg, kan detta leda till att man för varje tidssteg hamnar mer och mer fel (dvs får ett ackumulerande fel och får lösningar som divergerar bort från den korrekta lösningen). Simuleringen leder oss då helt vilse. Hur stora tidssteg man maximalt kan ta vid den här typen av beräkningar kan ofta förutsägas matematiskt. Men handlar det om väldigt komplicerade ekvationer kanske man inte ens kan avgöra den maximala storleken på tidsstegen utan man får pröva sig fram. Det kan hända att analysen eller tester visar att man måste göra väldigt små tidssteg (kanske miljondels sekunder) för att en viss simulering skall fungera. Skall man då simulera tusentals år framåt i tiden och det handlar om komplicerade beräkningar, kanske inte ens en superdator räcker till.
En vanlig (kanske den allra vanligaste) och mycket kraftfull numerisk metod som används i samband med lösandet av differentialekvationssystem är finita elementmetoden (den intresserade läsaren kan läsa om denna metod på Wikipedia). Många sofistikerade program för lösning av differentialekvationssystem bygger på finita elementmetoden. Vi talar då om programvara som kan kosta flera miljoner kronor i inköp. Finita elementmetoden är mycket beräkningstung, dvs kräver synnerligen kraftfulla datorer (vid komplicerade problem).
Differentialekvationssystemen i samband med beräkningar på väder, klimat, flygplansvingar etc blir synnerligen komplicerade och svåra och resurskrävande att lösa. En vanlig metod är att man omvandlar differentialekvationssystemet (där de obekanta utgörs av funktioner) till ett "vanligt" ekvationssystem av samma typ som man lärde sig lösa i skolan, dvs ett ekvationssystem där de obekanta är tal och inte funktioner (sådana ekvationssystem diskuteras i den följande texten). Ett exempel på detta är finita elementmetoden (se föregående stycke). I skolans värld handlade det om två eller tre obekanta (x, y, z). När det gäller väder och klimat kommer ekvationerna att innehålla tiotusentals eller miljoner obekanta och bestå av tiotusentals eller miljoner ekvationer. Och det är här som datorerna kommer till sin rätt, eftersom de både räknar oerhört snabbt och aldrig gör fel.
Bilden ovan visar ett mesh över ett område som skall studeras. Skärningspunkterna mellan linjerna kallas noder och utgör beräkningspunkterna (den storhet som studeras kan vara temperatur, lufttryck, mekaniska spänningar, strömningshastigheter etc, etc). Ju tätare noderna ligger, desto högre upplösning och desto bättre kunskap får man om det studerade området. Men ökad upplösning kostar pengar, eftersom det kräver mycket mer beräkningstid. Beräkningskostnaden är ungefär proportionell mot antalet noder.
Här ser vi kolven till en förbränningsmotor på vilken man lagt ett mesh. Vänstra bilden visar mesh vid en låupplöst beräkning, där vi har 7 488 noder. Högra bilden visar samma kolv med ett högupplöst mesh med 136 045 noder. Den större upplösningen har ca 18 gånger högre beräkningskostnad (136045/7488≈18). Det kan handla om att man vill beräkna temperaturerna eller de mekaniska spänningarna i kolvens olika delar. Sådana typer av beräkningar är givetvis A och O vid konstruktionsarbete. På flygplan studeras på detta sätt vingars hållfasthet och luftströmningen runt vingarna och de temperaturer och krafter som turbinblad utsätts för i jetmotorer etc, etc.
De mest kraftfulla superdatorerna idag kan utföra mer än 1015 (en miljon miljarder) flops (flyttalsoperationer per sekund)! Men inte ens detta räcker för att lösa vissa matematiska problem inom rimlig beräkningstid. Det finns t o m tämligen enkla problem som en superdator, trots sin enorma beräkningskraft, behöver miljontals år för att lösa. Ett sådant problem är således inte praktiskt beräkningsbart. Låt mig ge ett exempel:
Vi tar en enkel formulering av det klassiska handelsresandeproblemet (traveling salesman problem), enligt vilken en handelsresande skall besöka USA:s 50 delstatshuvudstäder. Han utgår från sin hemstad och skall efter avslutad resa återvända hem. Det finns många olika rutter han kan välja och vår handelsresande vill hitta den kortaste totala ressträckan (för att besöka alla 50 delstatshuvudstäderna). En dator som kan göra 1015 flops borde genom ren råräkning (dvs testa sig igenom samtliga resvägar) kunna lösa problemet snabbt. Kan man åtminstone tycka. Låt oss antaga att datorn kan testa 1012 alternativ per sekund. Datorn har tillgång till en tabell med avstånden mellan alla USA:s delstatshuvudstäder (en 50x50 matris) och hämtar dessa avstånd för varje möjlig resväg och adderar sedan delsträckorna och om den sist beräknade rutten är kortare än den föregående, behålls den nya rutten, annars behålls den föregående rutten.
När vår handelsresande (eller datorn) skall välja första benet av resrutten, finns 50 alternativ att välja mellan. Efter besöket i den första delstatshuvudstaden återstår 49 städer att välja mellan för nästa delsträcka. Och nästa gång 48 etc, etc. När sista staden skall väljas finns bara en möjlighet kvar (alla andra delstatshuvudstäder har ju redan besökts). Totala antalet möjligheter ges då, enligt kombinatorikens multiplikationsprincip, av 50⋅49⋅48⋅47...3⋅2⋅1. Detta kallas 50-fakultet och skrivs som 50! (utropstecknet betyder således i detta sammanhang fakultet).
Vi har med andra ord kommit fram till att det finns 50! (50-fakultet) olika möjliga rutter att välja mellan. 50!=3⋅1064, vilket är ett hiskligt stort tal (en trea med 64 nollor efter). Datorn måste gå igenom alla dessa för att hitta den kortaste rutten. Eftersom vi antagit att datorn hinner testa 1012 alternativ per sekund kommer följande samband att gälla:
Division med 1012 ger hur många sekunder beräkningen kommer att ta. Genom att sedan dela med 3600 får vi hur många timmar beräkningen tar och genom division med 24 får vi antalet dagar och genom att slutligen dela med 365,25 (ett år har 365,25 dagar, det är därför man måste lägga till en skottdag vart fjärde år) så får vi antalet år som beräkningen kommer att ta.
Resultatet anger hur många år det kommer att ta för superdatorn att gå igenom samtliga möjliga rutter för att hitta den kortaste. Tiden blir således ca 1045 år! Jag betvivlar att vår handelsresande orkar vänta så länge.
Universums ålder anses allmänt vara av storleksordningen 1010 år (13,8⋅109 år). 1045 år är således 1035 gånger universums ålder! Och redan 1035 är ett ofattbart stort tal. Totala antalet sandkorn i Sahara har t ex uppskattats till 1020. Dvs 1035 är antalet sandkorn i ca 1000 biljoner (1015) Saharaöknar! Det tar således 1000 biljoner gånger antalet sandkorn i Sahara gånger universums ålder för världens snabbaste dator (2019) att med råräkning lösa handelsresandeproblemet för 50 städer!!!
Att en superdator inte klarar av att genom råräkning (brute force) lösa ett så pass enkelt problem som handelsresandeproblemet torde förvåna många människor. I och för sig kan man lösa just detta problem approximativt med smartare metoder än ren råräkning (här hittar den intresserade läsaren en aktuell text om detta problem). Handelsresandeproblemet (i ovanstående formulering) utgör bara ett enkelt och för en lekman lättfattligt exempel på att även en superdator har begränsad räknekapacitet. Men det finns mängder av verkliga matematiska problem (och då bl a mer komplicerade formuleringar av handelsresandeproblemet), där även en superdator går bet, oavsett hur smarta metoder man väljer. Man säger att denna typ av problem är non-computable eller trans-computable (icke beräkningsbara).
Beträffande vad det rent konkret kostar att använda en superdator så betalar man normalt för core/hour (dvs processorkärna per timme). Denna kostnad är inte speciellt hög, ca 0,023 USD/h, dvs ca 20 öre i timmen. Om vi som exempel tar IBM Blue Gene/P (en av världens snabbaste superdatorer), så har denna 164 000 processorkärnor, dvs kostnaden för att använda datorns hela kapacitet blir då 0,023⋅164000=3772 USD/h (strax under 30 000 kr/tim). Generellt så tycks timkostnaden för de mer kraftfulla superdatorerna ligga mellan 2 000 och 4 000 USD. I allmänhet så har man inte tillgång till hela datorn utan använder bara en del av kapaciteten och betalar bara för detta.
Hur många processorkärnor som används vid en körning har ingen betydelse när det gäller beräkningskostnaden (däremot påverkas beräkningstiden). Antag att vi skall köra ett program på Blue Gene/P, som har 164 000 kärnor. Om datorn används av många samtidigt, kanske man får 164 kärnor sig tilldelad. Körningen av programmet tar då en viss tid, låt oss säga 15 minuter. Om körningen i stället sker när man är ensam användare på datorn (kanske mitt i natten), så har man eventuellt tillgång till alla 164 000 kärnorna. Körningen går då ca 1000 gånger snabbare (eftersom man använder 1000 gånger fler processorer), dvs tar bara 0,96 sekunder. Kostnaden för användaren blir i båda fallen exakt densamma (i det senare fallet betalar man för 1000 gånger fler processorkärnor under 1/1000 av tiden).
Vissa superdatorer sponsras av staten eller av något stort företag (som Amazon), En statligt ägd superdator kan tillhandahålla gratis tid för olika universitet etc. Många universitet köper ett visst antal timmar per år på något superdatorcenter och sedan får universitetets forskare dela på denna tid. På Amazons superdator kan i princip vem som helst (även privatpersoner) ansöka om gratis superdatortid. Här finns givetvis gränser för hur mycket tid man kan få och huruvida ansvariga för datorn tycker man har tillräckligt goda skäl för att få använda den. Vissa forskningscenter, som rutinmässigt sysslar med tunga beräkningar, som CERN i Genève, har egna superdatorer. Detta gäller också stora flygplanstillverkare som Airbus och Boeing.
När det gäller att lösa stora differentialekvationssystem och/eller omfattande simuleringar av klimat, luftströmningar runt vingprofiler etc, så handlar det inte om att använda några få processorkärnor på en superdator under några minuter. Nej då handlar det i allmänhet om att använda hela datorn under kanske flera dygn. Dvs den ekonomiska aspekten är mycket viktig i detta fall och kan göra att vissa beräkningar helt enkelt inte kan utföras, eller måste förenklas dramatiskt (vilket kan leda till att resultatet blir osäkert), eftersom budgeten är begränsad.
Vissa problem är principiellt icke-beräkningsbara, eftersom man helt enkelt inte känner till några lösningsmetoder. Andra problem går i princip att lösa men kräver så många beräkningar att de inte är praktiskt beräkningsbara (som handelsresandeproblemet genom råräkning). Det tar helt enkelt för lång tid. Allt eftersom datorer blir snabbare och snabbare kommer det givetvis att bli möjligt att lösa fler och fler problem av den senare kategorin. Men det finns problem, vilka kräver så oerhört många beräkningar att ingen dator, såvitt man kan se idag, någonsin kommer att ha kapacitet att lösa dessa på acceptabel tid. Man kan t ex göra en maxuppskattning av hur snabb en dator någonsin kan bli genom att tänka sig en dator som har tillgång till hela universums massenergi per sekund och sedan med hjälp av kvantmekaniken (Heisenbergs osäkerhetsrelation mellan energi och tid) uppskatta hur snabb en sådan dator skulle vara. Det spelar ingen roll hur listigt konstuerad en dator är, osäkerhetsrelationen kan man inte komma förbi, eftersom den sätter en fysikalisk gräns för hur många bitar (bits, dvs ettor och nollor) kretsarna kan läsa av per sekund (detta sätter således en gräns för dataflödet). Det är svårt att tro att mänskligheten någonsin skulle kunna få tillgång till en dator med denna kapacitet. Och även med en sådan dator finns problem, som i princip är lösbara, men som skulle ta biljoner gånger universums ålder att lösa.
För att återvända till temperatursimulering så gäller, som diskuterats ovan, att ju finare rutnät man väljer (större upplösning) för det område man studerar eller ju mindre tidssteg man tar i simuleringen, desto fler beräkningar krävs. Här talar vi således om både rums- och tidsupplösning. Väljer man för liten upplösning, dvs man har för grovt rutnät eller stegar fram i för stora tidssteg (för att spara beräkningstid), så finns risken att man missar finare strukturer i temperaturfördelningen eller i temperaturförändringarna. Detta kan påverka simuleringen långsiktigt (och till och med leda till att lösningen divergerar bort från den korrekta lösningen). Därmed löper man risk att kanske missa viktiga, ja kanske avgörande insikter om det system man studerar. Eller att man i värsta fall får totalt felaktiga lösningar. Och väljer man för hög upplösning kanske problemet inte blir beräkningsbart, eftersom det tar för lång tid att göra beräkningarna. Och/eller att beräkningarna kostar för mycket. I avsnittet "Ett praktiskt exempel" nedan ges ett exempel på tidsupplösningens stora betydelse för en lyckad simulering.
Generellt gäller (som påpekats under punkt 1 ovan) att vissa ekvationer (algebraiska och differentialekvationer) kan lösas exakt (ibland med hjälp av formler som redan är framtagna). Inte sällan är emellertid dessa lösningar så komplicerade att man i alla fall använder numeriska metoder. Även om numeriska metoder inte ger exakta lösningar, kan man ju ändå få så många decimaler som man vill ha (om man är beredd att betala för tillräckligt med datortid).
Den vanliga andragradsekvationen (typ x2-5x+11=0, dvs en ekvation som innehåller x2 som högsta potens) går lätt att lösa exakt (redan babylonierna kunde 2000 f Kr lösa den typen av ekvation). Även fullständiga tredje- och fjärdegradsekvationer (dvs med x3 respektive x4 som högsta potens och innehållande alla lägre potenser plus sifferterm) går att lösa exakt (dessa löstes under första halvan av 1500-talet). Men formlerna är så komplexa att man i alla fall ofta använder numeriska metoder. Den fullständiga femtegradsekvationen (med x5 som högsta potens) visade sig vara en betydligt svårare nöt att knäcka.En generell (allmän) femtegradsekvation ser ut på följande sätt:a5⋅x5+a4⋅x4+a3⋅x3+a2⋅x2+a1⋅x+a0=0 där a5, a4 etc är konstanter/tal (a5 kallas koefficienten för x5 etc och a0 kallas siffertermen). Man kan bevisa att en femtegradsekvation alltid har 5 lösningar, en fjärdegradsekvation alltid 4 lösningar, en tredjegradsekvation alltid 3 lösningar etc.Det dröjde ända till 1824, när den norske matematikern Niels Henrik Abel (tillsammans med italienaren Paolo Ruffini) bevisade att det är omöjligt att lösa en fullständig femtegradsekvation exakt (trots att varje femtegradsekvation har 5 exakta lösningar). Ingen kommer således att någonsin kunna lösa en generell femtegradsekvation exakt, eftersom matematiken helt enkelt inte tillåter detta. Beviset gäller inte bara femtegradsekvationen utan gäller för alla högre gradtal än fyra. Vissa, speciella femtegradsekvationer etc går dock att lösa exakt, men detta utgör undantag. Hur länge och hur skickligt man än manipulerar en allmän femtegradsekvation enligt algebrans alla lagar och tricks så kommer man aldrig någonsin att kunna lösa ut x. Däremot kan en femtegradsekvation (och sjättegradsekvation etc) lösas numeriskt med godtycklig noggrannhet.
Här är matematiken unik. När det gäller fysik, kemi etc går det inte att bevisa i någon absolut mening att någonting är omöjligt (vad man kan säga i detta fall är ungefär "utifrån vad vi vet just nu så verkar det ytterst osannolikt att detta skulle kunna vara möjligt"). Fysiken handlar om verkligheten och verkligheten är överordnad vetenskapen.
Verkligheten innehåller, till skillnad från matematikens abstrakta värld, jokrar, dvs okända, ännu oupptäckta fenomen. Det vi just nu tror vara fysikaliskt omöjligt kan i framtiden visa sig vara fullt möjligt, något som hänt oräkneliga gånger under vetenskapens utveckling. Matematiken å andra sidan utgör ett slutet logiskt system, vars definitioner och regler formulerats av människan. Här finns därför inga jokrar. Man kan jämföra matematiken med schack, vars definitioner och regler också formulerats av människan. Det går t ex att bevisa att om ena spelaren har kung och springare och den andra bara kung, är det omöjligt att göra schack-matt. När folk som inte studerat schack hamnar i den situationen, fortsätter den som har kung och springare att jaga den andres kung ända tills någon av dem till slut tröttnar och ger upp. När de som är kunniga i schackteori spelar och samma situation inträffar, slutar de omedelbart och är overens om att det blir remi (dvs oavgjort). Hur kan man då veta att man inte kan göra schack och matt med kung och springare mot en ensam kung? Jo, det går att bevisa logiskt. Och eftersom schack inte innehåller några jokrar vet vi att det är så (i verkliga krig kan en till synes totalt underlägsen part vinna, därför att där kommer det in helt andra aspekter verkligheten låter sig inte begränsas av människopåhittade regler). På samma sätt kan vi således veta att det rent allmänt är omöjligt att lösa fullständiga ekvationer av högre gradtal än 4.
Eftersom matematiken inte handlar om verkligheten, framstår matematikens oerhörda användbarhet när det gäller att beskriva den fysiska verkligheten som inget mindre än mirakulös. Detta är en gåta som sysselsatt många filosofer sedan tidernas begynnelse. Du kan läsa mer om detta intressanta ämne genom att klicka här).
Förr i världen gjordes vetenskapliga och tekniska beräkningar för hand med hjälp av räknestickor och logaritmtabeller och elektromekaniska räknemaskiner. Detta har idag ersatts av datorer och superdatorer. När man numeriskt (med datakraft) försöker lösa avancerade differentialekvationer, eller stora system av sådana ekvationer, omvandlar man ofta dessa till linjära ekvationssystem. Problemet är att sådana system kan innehålla miljoner och åter miljoner obekanta (läsaren kommer säkert ihåg ekvationssystem från skoltiden, där man kanske hade två obekanta, x och y). Antalet beräkningssteg (additioner, divisioner etc) som krävs (också kallat beräkningskostnaden) ökar dramatiskt när antalet obekanta ökar. Beräkningskostnaden för N obekanta vid s k Gausselimination (den metod för att lösa ekvationssystem som man fick lära sig i skolan) är proportionell mot N3 (det finns andra lösningsstrategier, vilka är något mer effektiva, med en beräkningskostnad som ligger strax under N3). Har jag en ekvation med 3 obekanta krävs således 27 (33) gånger så många beräkningssteg som för att lösa en ekvation med en obekant. Har jag 3 000 obekanta krävs 27 000 000 000 (30003) gånger så många beräkningssteg som för att lösa en ekvation med en obekant. Och har jag 3 miljoner obekanta blir beräkningskostnaden 2,7⋅1019 gånger större än i fallet en obekant. Om vi skulle försöka att för hand lösa ett ekvationssystem med 3 miljoner obekanta, och varje steg tar 30 sekunder, och lösandet av en ekvation med en obekant tar 30 s, skulle vi behöva hålla på och räkna i ca 2,5⋅1013 år (om man jobbar treskift, dvs 24 h/dygn), vilket är nästan 2 000 gånger universums uppskattade ålder.
Före superdatorernas tid fanns helt enkelt ingen möjlighet att praktiskt utföra sådana här beräkningar. Med hjälp av mekaniska eller elektromekaniska eller elektroniska additions- och multiplikationsmaskiner skulle processen kanske gå 100 gånger snabbare jämfört med ren handräkning (varje steg skulle då ta 0,3 s — förmodligen överoptimistiskt). Och skulle vi dessutom sätta en miljon matematiker på problemet så skulle vi ändå behöva vänta ca 257 000 år på lösningen. Dessutom skulle inte en miljon matematiker kunna samarbeta effektivt. Förmodligen skulle en avskräckande stor del av antalet producerade mantimmar gå åt till sammanträden och informationsutbyte mellan alla dessa matematiker för att undvika dubbelarbete och för datautbyte. Och sist men inte allra minst; sätt människor att räkna i tiotusentals år och förr eller senare (antagligen redan efter några dagar) kommer någon att göra det första räknefelet. Och eftersom numeriska beräkningar är helt beroende av att de beräkningar som dittills gjorts är korrekta, skulle alla efterföljande beräkningar bli mer och mer felaktiga, dvs hela företaget är dömt att misslyckas.
Ett ytterligare problem i sammanhanget är att vissa ekvationer inom naturvetenskapen är instabila (vilket bl a gäller de ekvationer som beskriver väder och klimat). Normalt gäller att om man förändrar ett värde i en formel, så förändras slutresultatet på motsvarande sätt. Dvs gör man små förändringar i de värden man sätter in i formeln så får man ganska små förändringar i resultatet. Instabila ekvationer kännetecknas av att små förändringar i input kan ge dramatiska förändringar i output. Eftersom väderdata och liknande mäts med begränsad noggrannhet, finns risken, när man sätter in dessa data i en formel, att felet i indata (mätosäkerheten) förstärks så mycket att resultatet blir mer eller mindre meningslöst. Här gäller det att hålla tungan rätt i mun.
Instabila ekvationer är nära kopplat till kaos och kaosteori (den senare är ett viktigt område inom den moderna matematiken). Kaotiska system kännetecknas av att små variationer kan fortplantas till enorma förändringar. Trots att de ekvationer som beskriver dessa system är deterministiska, dvs i princip ger exakta förutsägelser, så kan de ibland producera i praktiken helt oförutsägbara resultat.
Determinism innebär att verkan är exakt bestämd av orsaken. Dvs vet man utgångspunkten exakt så kan man räkna fram vad som kommer att hända exakt. I fallet kaotiska system är emellertid systemet så "känsligt" så att minsta förändring av indata dramatiskt kommer att förändra utdata (dvs förutsägelsen). Ungefär som att en liten sten som börjar rulla kan få en hel bergssida att rasa (på grund av att bergssidan var instabil). Detta brukar kallas lavineffekten. Stoppar man in exakta siffror i en ekvation, som beskriver ett kaotiskt system, får man ett exakt svar på vad som kommer att hända (vilket kännetecknar determinism). Kaotiska system är således teoretiskt deterministiska och därmed exakt förutsägbara, men i praktiken mer eller mindre omöjliga att förutsäga (eftersom vi aldrig har tillgång till exakta mätdata). Våra noggrannaste mätningar har runt 8 värdesiffror. Oftast har man betydligt mindre än så. Det betyder att man även i bästa fall har en avvikelse från det exakta värdet. Denna avvikelse kommer, även om den är liten, när den sätts in i ekvationer som beskriver kaotiska system, att dramatiskt förändra vad ekvationen förutsäger. Därför måste man vara mycket försiktig när man gör förutsägelser om katotiska system (som väder och klimat).
I samband med kaotiska system talar man ibland om den s k fjärilseffekten, dvs att en fjärils svaga vingslag, genom en kedjereaktion av orsak och verkan, kan ge upphov till en tropisk orkan som ödelägger hela städer (dvs en nästan omätbar förändring kan ge upphov till dramatiska förändringar). Eftersom de ekvationer som beskriver väder och oceaner ofta är instabila, är det notoriskt svårt att göra tillförlitliga simuleringar. Speciellt när det gäller förändringar över lång tid. Det är ju bara att titta på tillförlitligheten hos de femdygns- respektive tiodygnsprognoser som ges. Hur mycket svårare måste det då inte vara att förutsäga klimatet 100 eller 1000 år framåt i tiden! För att inte säga omöjligt.
Teorin för de s k fraktalerna är nära släkt med kaosteorin. Den intresserade läsaren kan läsa en sammanfattning av fraktaler i denna korta artikel.
Det finns de som menar att klimatet inte utgör ett kaotiskt system. FN:s klimatpanel IPCC erkände dock redan 2001 att väder- och klimatsystemen är kaotiska, dvs de erkände indirekt att långsiktiga väder- och klimatförutsägelser är omöjliga. Man skriver inledningsvis:
Klimatsystemet är ett kopplat, icke-linjärt, kaotiskt system [fetstil tillagt av Krister], och därför är inte långsiktiga förutsägelser av framtida klimattillstånd möjliga. Fokus måste snarare läggas på förutsägelser av sannolikhetsdistributioner för systemets framtida möjliga tillstånd genom att man genererar ensembler av lösningar till klimatmodellerna.
En utmärkt sammanfattning som jag helt instämmer i. Så här formulerar sig objektiva vetenskapsmän kunniga i matematik. Men sedan detta skrevs tycks IPCC alltmer ha glidit över till klimataktivism med en agenda. På nätet hittar man oändliga diskussiontrådar som menar sig visa att IPCC:s formulering ovan är missvisande (att följa en enda sådan tråd och läsa alla referenser etc skulle antagligen ta resten av mitt liv det kallas "argumentation genom utmattning"). Diskussionerna i dessa trådar innehåller väldigt mycket ord men alltför lite substans. Slutsatsen är oftast att klimatet, även om det kanske har vissa kaotiska aspekter, ändå kan förutsägas med tillfäcklig noggrannhet för att forma en meningsfull framtida klimatpolitik. Det gäller bara att använda statistiken på rätt sätt. Och det är ju precis det som är problemet med sådana här diskussioner. Intelligenta människor kan i princip bevisa vad som helst, eftersom de är duktiga på att argumentera. Problemet är att skicklig argumentation kan innebära (och tyvärr alltför ofta innebär) "konsten att vinna en diskussion fast man har fel". Intelligenta människors stora svaghet är att de ofta lurar sig själva (en egenskap jag döpt till "dummeligens" och skrivit en artikel om). Intelligens är inte samma sak som vishet! Intelligens utan vishet kan leda hur fel som helst. Och ju smartare man är desto mer fel riskerar det att bli.
IPCC:s formulering "genererar ensembler av lösningar till klimatmodellerna" leder till olika sätt att angripa problemet. En teknik är att man gör flera simuleringar utifrån en viss klimatmodell där man väljer olika, närliggande startvärden. Får man resultat som är något så när samstämmiga så utgår man från att den modell som använts är ganska stabil och ger acceptabla förutsägelser. Man kan också använda många olika modeller och starta med samma ingångsvärden (se bilden nedan). Om då flera modeller ger ungefär samma förutsägelser, väljer man någon typ av medelvärde för dessa (det finns många olika typer av medelvärden; aritmetiska, geometriska och viktade medelvärden samt typvärde, medianvärde etc). En gammal elev jag träffade för några år sedan arbetade som meteorolog och berättade att han bl a gjorde långsiktiga snöprognoser för skidorter med den tekniken.
Förutsättningen för att dessa tekniker skall fungera är att modellerna något så när väl avspeglar verkligheten. Huruvida så är fallet är en öppen fråga.
Det här påminner om det man inom matematiken lite skämtsamt kallar gsg-metoden (gsg = "går det så går det"). Denna metod används ibland när man löser differentialekvationer. Man gissar (utifrån sin matematiska erfarenhet) en lösning som man sätter in i ekvationen och kanske justerar några konstanter. Eftersom lösningen satisfierar ekvationen vet man att den är korrekt (en svaghet med gsg-metoden är svårigheten att veta om man hittat alla existerande lösningar en ekvation kan ju ofta ha flera lösningar och även om man hittat en lösning så kan det ju finnas fler). Gsg-metoden fungerar emellertid inte när det gäller klimatvetenskap. Här har vi ingen ekvation som fullständigt beskriver det system vi vill simulera, och som vi kan stoppa in vår lösning i och därigenom verifiera den. I sådana här sammanhang smyger det sig lätt (och omedvetet) in mänskliga bedömningar som riskerar att kontaminera våra lösningar. Statistik kan missbrukas och innebära att man (medvetet eller omedvetet) använder statistiken för att komma fram till det önskade resultatet (detta kallas confirmation bias och är ett välkänt psykologiskt fenomen, som bl a lett till ett antal svåra flygolyckor). Det är i och för sig sant att klimatprognoser, som redan i sig innefattar statistiska filter, blir mindre kaoskänsliga än väderprognoser. De snabba statistiska fluktuationerna i vädret jämnar så att säga ut sig och blir mer stabila långsiktigt (dvs när man studerar klimatet). Och tar man sedan globala medelvärden blir systemet ytterligare mer stabilt. Ungefär som att de kvantmekaniska fluktuationerna hos atomära objekt tar ut varandra i makroskopiska kroppar, vilket leder till att kvantmekanikens statistiska förutsägelser övergår i den klassiska fysikens deterministiska lagar. Problemet är att eftersom vi inte har någon heltäckande, korrekt klimatmodell, är det omöjligt att avgöra hur stor inverkan klimatets kaotiska natur har på våra klimatförutsägelser och i vad mån klimatet är mindre kaotiskt än vädret. Att vi inte har någon fullständig och komplett klimatmodell innebär dessutom att även om klimatet inte vore kaotiskt, så gör bristerna i våra modeller att våra klimatprognoser i alla fall kommer att vara mycket osäkra. Och vi kan inte ens beräkna hur osäkra de är, eftersom vi inte vet hur alla parametrar samverkar. Allt detta motiverar jag i mina texter. Så att klimatmodellerna är osäkra, ja där viker jag inte en tum.
På grund av problemets komplexitet tvingas man, som sagt, ofta att göra mer eller mindre grova förenklingar vid simuleringar. Dels att ha låg upplösning (dvs glest mellan beräkningspunkterna) dels göra stora tidshopp (för att komma långt framåt i tiden 10-tals eller 100-tals år eller mer genom ett litet antal tidssteg). Alltför grova förenklingar kan emellertid leda till att man hamnar helt fel. Och alltför detaljerade beräkningar gör å andra sidan att beräkningskostnaden blir för hög (datortiden som krävs blir orealistiskt lång och kostar dessutom alldeles för mycket pengar).
Bilden visar graferna för 20 olika klimatförutsägelser av den globala medeltemperaturen fram till år 2100. Inom fysiken kan man göra noggranna feluppskattningar, eftersom man har exakta matematiska samband mellan de olika parametrarna och dessutom känner mätnogrannheten hos de instrument som används. Så är inte fallet inom klimatforskningen (eftersom vi inte har full kunskap om klimat"maskineriet"). Bästa metoden för att få en uppfattning av noggrannheten i våra förutsägelser, är att i detta fall använda flera olika klimatmodeller (ju fler desto bättre) och kanske också utgå från olika startvärden (om t ex, i en viss modell, närliggande startvärden ger väldigt olika förutsägelser, tyder detta på att modellen är instabil). Om flera modeller ger ungefär samma förutsägelser, ses detta som ett tecken på att dessa modeller är relativt säkra (så gör man ofta när det gäller väderprognoser). Allt detta har beskrivits i den föregående texten. Genom att se hur modellerna spretar iväg åt olika håll när man går framåt i tiden, menar man sig få en uppfattning av hur stora osäkerheter våra förutsägelser har (det är inte säkert att den slutsats man drar stämmer, men i brist på bättre metoder har man inget annat val). Den kraftiga, svarta grafen fram till 2012 visar den verkliga, uppmätta globala medeltemperaturen. Vi ser hur de olika modellerna går isär allt mer ju längre framåt i tiden man går, vilket antyder att förutsägelserna blir allt mer osäkra.
RCP står för "Representative Concentration Pathway" (representativt koncentrationsscenario). RCP 2.6 - RCP 8.5 anger 4 olika scenarion när det gäller koncentration av CO2 i atmosfären, som IPCC ställde upp 2014. RCP 8.5 (BAU2) är det värsta (vilket utgår från ihållande väldigt höga utsläpp orsakade av en femfaldig ökning av kolanvändning utan några försök att begränsa utsläppen). Detta var ett "worst case" scenario med 3% sannolikhet att inträffa. Idag framstår detta alternativ som ytterst osannolikt. BAU står för "Business As Usual" (Som om ingenting hänt), dvs vad som kommer att hända om vi fortsätter att släppa ut koldioxid i samma takt som idag (eller till och med ökar utsläppen) utan att vidtaga några motåtgärder.
Observera att två av graferna ovan är utmärkta med BAU2, vilket är fel. Den undre grafen av dessa två är BAU1.
I bilden har inte hänsyn tagits till att varje modell i sig har ett växande fel när man går framåt i tiden (beroende på osäkerheter i indata och själva de matematiska beräkningarna). Efter 100 år kanske detta fel vuxit till flera grader eller ännu mer (vilket måste adderas till osäkerheten mellan de olika modellerna som visas i bilden). F ö ser vi ovan att några av modellerna t o m förutsäger att temperaturen börjar sjunka runt 2050. Observera att det inte är 100% säkert att majoriteten (av modellerna) har rätt.
Som påpekats ovan så innehåller alltid indata (baserade på mätningar) mätfel, dvs osäkerheter. Det är helt enkelt omöjligt att göra exakta mätningar. Vid en simulering fortplantas dessa osäkerheter i indata vid varje iteration. Vid instabila ekvationer (vilket vi har vid klimatsimuleringar) kommer mätfelen att förstoras vid varje beräkningssteg. Dvs osäkerheten i våra beräkningar växer ju längre beräkningarna fortsätter. Vid simuleringar som sträcker sig långt fram i tiden riskerar denna osäkerhet därför att växa tills de förutsägelser som görs blir i princip helt meningslösa (typ: om 50 år kommer jordens medeltemperatur att ligga mellan -30°C och +87°C). Till detta tillkommer, vilket tydligt illustreras i figuren ovan, att olika modeller ger mer eller mindre varierande förutsägelser (som inte har något att göra med problem i samband med mätningar och matematiska beräkningar utan som beror på att modellerna skiljer sig åt). Alltså måste man vara synnerligen skeptisk till långsiktiga klimatprognoser.
De flesta större trafikplan idag är utrustade med ett tröghetsnavigeringssystem kallat INS (Inertial Navigation System). Detta system bygger på tre accelerometrar, vilka mäter flygplanets acceleration i ost/västlig led, i nord/sydlig led och vertikalt (en vanlig smartphone har minst en accelerometer som används bl a för telefonens stegräkningsfunktion). När man integrerar den mätta accelerationen får man farten i alla tre dimensionerna och när man integrerar farten får man förflyttningen. Allt detta görs givetvis automatiskt av INS. Normalt har trafikplan 2 eller 3 INS för att ha redundans. Fördelen med INS är att systemet är helt oberoende av system utanför flygplanet (t ex satelliter), dvs det kan inte störas. När planet är parkerat vid gaten matar piloterna in den exakta positionen i INS. Sedan håller denna reda på planets position. Det finns dock ett problem, accelerometrarna är inte exakta, varför varje beräkning innehåller ett litet fel. Vid beräkning av nästa position smyger det in sig ungefär samma fel igen, vilket ackumuleras till det första felet etc, etc, dvs osäkerheten i positionen ökar hela tiden. Detta kallas avdrift, vilken på en modern INS är ca 0,6 nautiska mil/timme (1 nautisk mil/nm = 1852 m). Efter 10 timmars flygning (typ Zürich-São Paolo) är således osäkerheten i positionen 6 nm lika med ca 11 km. För att undvika problemet med avdrift uppdateras hela tiden INS från GPS och från radiofyrar. Man inser att vi här har ett liknande problem som vid iterativa beräkningar enligt föregående stycke. Till skillnad från INS kan vi vid iterativa beräkningar inte korrigera beräkningarna för det växande felet utan detta fortsätter att växa så länge som iterationerna fortsätter. Vilket utgör ett stort problem som sällan redovisas när man presenterar klimatprognoser.
I IPCC:s senaste rapport (2021) förekommer följande graf (SPM1b):
Den svarta kurvan visar observerade temperaturavvikelser från att antaget standardvärde (spelar här ingen roll hur detta definieras). Sedan har vi ytterligare två grafer. Den undre visar simulerade värden utifrån antagandet att temperaturökningen enbart beror på naturliga orsaker (vulkaner och varierande solinstrålning). Här har således inte inkluderats mänsklig påverkan. I den övre grafen har man i simuleringen tagit med både naturliga faktorer (sol och vulkaner) och mänsklig påverkan. Runt dessa två grafer finns områden i ungefär samma färg som respektive text. Dessa visar resultatet av ett stort antal olika simuleringar (precis som i föregående figur) medan graferna utgör medelvärdet av dessa simuleringar.
I grafen ovan redovisar IPCC två klimatsimuleringar (eller snarare två ensambler simuleringar). Den ena utgår från enbart naturlig påverkan av klimatet medan man i den andra också inkluderat antropogena faktorer (mänsklig påverkan). Den tjocka, svarta grafen visar observerade värden (den kurvan är givetvis korrekt, eftersom den bygger på direkta mätningar). Vi ser att den observerade temperaturen stämmer mycket bättre med tesen att mänskliga utsläpp orsakar den globala uppvärmingen än att temperaturökningen är en naturlig klimatförändring. Vilket också blir IPCC:s slutsats (nu bygger de givetvis sin slutsats på fler indicier än just graferna ovan, men alla dessa indicier dras med samma grundläggande problem, de står och faller med våra klimatmodellers relevans). Problemet är att simuleringarna i figuren har alla de osäkerheter som diskuteras i mina klimatartiklar (speciellt i del 4). Dvs figuren visar, att under förutsättning att våra klimatteorier stämmer, dvs vi har tillräcklig kunskap om vilka faktorer som påverkar klimatet, och att dessutom våra simuleringar avspeglar denna kunskap tillräckligt noggrant, så visar figuren på ett övertygande sätt att det är människan som orsakar den observerade temperaturökningen. Men om så inte är fallet, dvs om det finns ytterligare faktorer som påverkar koldioxidhalten i atmosfären, eller att det finns ytterligare faktorer, förutom koldioxid, som på ett signifikant sätt påverkar klimatet (andra växthusgaser, molnighet etc), eller om simuleringarna ger bedrägliga resultat på grund av de matematiska svårigheter som diskuteras i föreliggande artikel, ja då säger inte graferna någonting. Dvs slutsatsen utifrån graferna står och faller med huruvida våra klimatmodeller, simuleringar och beräkningar är tillräckligt korrekta för att ge meningsfulla förutsägelser. Vilket jag menar än så länge är en öppen fråga. Och detta är en av de saker jag behandlar i min artikelserie. Läsaren kan ju hålla ovanstående figur i minnet vid läsandet av nästa artikel i denna serie (del 4). Där framgår t ex att vår kunskap om hur mycket koldioxid som vulkaner släpper ut i atmosfären varje år är synnerligen ofullständig. Och att det finns andra stora aktörer involverade i atmosfärens koldioxidbalans (bl a stora bergmassiv som veckas eller vittrar vid bergveckning binds enorma mängder koldioxid i bergarterna och vid vittring frigörs i stället stora kvantiteter koldioxid).
På en institution där jag arbetade, studerade en forskargrupp proteinsyntesen med hjälp av grundläggande kvantfysik. Man försökte bygga kvantmekaniska modeller för hur enstaka molekyler interagerar och sedan med hjälp av dessa beskriva hur proteinsyntesen går till på den atomära nivån. Detta gav upphov till oerhört komplexa ekvationer, vilka tog lång tid att lösa med datorkraft. Nu kommer jag inte ihåg några exakta siffror, men låt oss säga att varje sådan beräkning (ett tidssteg framåt) tog 4 minuter superdatortid. För att beräkningarna skulle konvergera mot en lösning kunde man bara ta små tidssteg, typ en nanosekund (10-9 s). Eftersom proteinsyntesen tar ca 60 s (på ett ungefär) var man tvungen att stega fram i nanosekundsteg under en hel minut (60 s). Om varje beräkningssteg tog 4 minuter, blir beräkningstiden för att beskriva en hel proteinsyntes utifrån kvantmekanikens lagar 4⋅60⋅109 s=7605 år. Dvs problemet var i praktiken olösligt. För att praktiskt kunna lösa uppgiften tvingades man därför att förenkla problemet.
En aminosyra består av ca 20 atomer och ett relativt enkelt protein innehåller ca 500 aminosyror, dvs ett enkelt protein består av ca 10 000 atomer (grovt räknat). Atomerna växelverkar med varandra parvis (ungefär som att planeterna i solsystemet växelverkar gravitationellt med solen och med varandra Jorden växelverkar med Solen, Månen, Mars, Venus etc och varje annan planet växelverkar med solen plus varje annan planet och måne). I fallet atomer handlar det inte om gravitation utan om elektrisk växelverkan, men principen är densamma. När vi studerar proteinet i det atomära perspektivet måste vi därför ta hänsyn till alla dessa parvisa växelverkningar.
Det finns 10000⋅(10000-1)/2 ≈ 50 000 000, dvs ca 50 miljoner olika sätt, som 10 000 atomer kan växelverka parvis med varandra (samma formel gäller också om vi på en fest har n personer som alla skall skåla/växelverka personligt, dvs två och två, med varandra). Detta leder till oerhört komplicerade ekvationssystem med tiotals miljoner obekanta. Sådana ekvationer kräver mycket datorkraft för att lösas. Alltså måste man införa approximationer och förenklingar, t ex att man enbart tar hänsyn till hur de mest närliggande atomerna exakt växelverkar med varandra och sedan representerar växelverkan med övriga atomer genom någon typ av medelvärdesfält.
Dessa och liknande förenklingar gör att problem av denna typ kan lösas med rimlig beräkningstid. Problemet med sådana förenklingar är att man kanske inte längre vet hur väl den erhållna lösningen avspeglar verkligheten. Risken finns att simuleringen i detta fall kanske säger mer om själva simuleringen (och dess brister) än vad den säger något om proteinsyntesen. Ovanstående exempel gällande proteinsyntes utgör ett exempel hämtat ur mitt åldrande minne. Det kan hända att de siffror jag anger ovan inte stämmer så bra, men det spelar ingen som helst roll, eftersom jag försöker visa på principer. Principiellt är mitt resonemang helt korrekt och belyser de svårigheter som uppstår när man försöker simulera komplexa fenomen (som väder och klimat).
En ytterligare svårighet är att det inte finns ordentliga, systematiska temperaturmätningar (vindmätningar, lufttrycksmätningar etc) i global skala längre tillbaka i tiden än mitten av 1800-talet (eller snarare 1880-talet). Skall man seriöst undersöka jordens temperaturvariationer etc, måste man givetvis titta på hur temperaturer etc har varierat under jordens tidigare historia. Helst vill man gå miljoner eller t o m miljarder år bakåt i tiden. Kanske har vi haft stora temperaturvariationer långt innan människan utgjorde en faktor på jorden (detta diskuteras i del 4)?
Finns det då någon metod med vars hjälp vi kan uppskatta temperaturer under jordens tidigare historia? Ja, det finns ett flertal sådana. En är att man jämför halten av olika syreisotoper (och även andra ämnens isotoper) i skalen efter vissa typer av plankton eller i iskärnor (borrkärnor) tagna från glaciärer.
En vattenmolekyl består av två väteatomer och en syreatom. I vatten förekommer två olika, stabila (dvs som inte sönderfaller radioaktivt) syreisotoper; syre-16 (normalt syre), som är den vanligaste, och syre-18 (som innehåller två neutroner ytterligare i kärnan antalet neutroner påverkar atomernas vikt, men inte deras egenskaper). De vattenmolekyler som innehåller syre-16 är således lättare än de som innehåller syre-18 och avdunstar lättare. Den vattenånga som med vindarna transporteras mot polerna innehåller därför en större proportion syre-16 än det vatten den bildades ur. Under transporten kyls vattenångan av när lufttemperaturen avtar och blir så småningom nederbörd under resans gång. De tyngre vattenmolekylerna (med syre-18) faller lättare ut som regn eller snö. Den vattenånga som så småningom når polerna och faller ned där som nederbörd (och blir en del av isen) kommer därför att innehålla avsevärt mindre proportion syre-18 än vad det ursprungliga havsvattnet gjorde. Båda mekanismerna som anges ovan (avdunstning och nederbörd) bidrar till detta. Under perioder med lägre temperaturer sträcker sig den kalla polarregionen längre ut mot ekvatorn och mer syre-18 hinner falla ut som nederbörd innan vattenångan når polarområdet. Dvs ett kallare klimat ger ett större förhållande syre-16/syre-18 i polarisarna än vad ett varmare klimat gör. Under varmare perioder smälter isen och det syre-16 (och givetvis också det syre-18) som är bundet där återförs till havsvattnet.
Vatten innehåller också två olika väteisotoper; vanligt väte och deuterium. Det vanliga vätet har en atomkärna bestående av en proton och inget mer, medan deuteriumkärnan består av en proton och en neutron (det finns även en ytterligare väteisotop, tritium, som har två neutroner i kärnan, men den kan bortses från, eftersom den är så ovanlig). De vattenmolekyler som innehåller deuterium kallas tungt vatten. Ungefär samma sak gäller här som beskrivits i föregående stycke när det gäller syreisotoperna. Båda metoderna används och ger ungefär samma resultat.
Genom att med känsliga masspektrometrar mäta proportionerna syre-16/syre-18 i isproppar (ju längre ned man går i isproppen desto längre bakåt i tiden kommer man) och i skal efter plankton (tiden får man här genom att titta på hur djupt i sedimentlagren dessa plankton ligger), kan man därför uppskatta temperaturer långt bakåt i tiden. Man har tagit fram en standard för världshavet (VSMOW Vienna Standard Mean Ocean Water), med vilken mätresultaten jämförs (VSMOW är helt enkelt ett isotopmässigt standardiserat havsvatten som åstadkommits genom att man blandat havsvatten från olika delar av världshavet i vissa, teoretiskt beräknade proportioner).
En osäkerhet här är givetvis dateringarna av ispropparnas olika lager och de olika sedimentlagren (studier av lager ger relativa och inte absoluta dateringar). När det gäller iskärnor kan man räkna årslager, eftersom man ofta (men inte alltid) kan skilja mellan den is som avlagras sommartid respektive vintertid. Ju längre bakåt i tiden man kommer desto svårare blir det emellertid att urskilja de olika lagren i isen, eftersom skikten trycks ihop mer och mer ju djupare de ligger. I detta fall kan ispropparna ibland dateras radiometriskt med uran. De längsta iskärnorna har man tagit fram i Antarktis och dessa kan vara upp till 3 km långa (bakom detta ligger ett oerhört arbete av stora forskarteam). På så sätt har man kommit ca 750 000 år bakåt i tiden. För att komma ännu längre tillbaka tittar man på avlagrade planktonskal i sedimenten på havsbotten och i sedimentära bergarter. Här måste man vid dateringar ibland (i avsaknad av bättre information) göra antaganden som bygger på gissningar (t ex att sedimenteringen skett med konstant hastighet). Ju längre bakåt i tiden man går, desto osäkrare blir givetvis dateringarna.
En ytterligare metod, som kompletterar de andra är att man tittar på årsringar hos träd (även döda och fossila träd kan användas). Varmare och kallare klimat avspeglas i tjockare eller smalare årsringar. Genom att undersöka vilka organismer som förekommer i fossil från olika lager kan man också få en uppfattning om temperatur och klimat när lagret bildades (förekomsten av palmer talar t ex för ett varmt klimat).
Problemet är att man ofta får olika resultat beroende på vilka isotoper och vilka metoder som används. Resultatet skiljer sig också mellan olika prover. Detta är fullständigt normalt. För att försöka få en uppfattning av temperaturen gör man därför statistisk analys av de olika resultaten. Man tilldelar sedan de olika metoderna olika vikt när man beräknar temperaturmedelvärdet. Dessa viktningar innehåller ett mått av godtycklighet och det finns en risk att man (medvetet eller omedvetet) viktar så att man får precis det resultat man vill ha (t ex den s k "hockeyklubb-grafen" där jordens medeltemperatur är i stort sett konstant för att sedan öka linjärt i och med att industrialiseringen tar fart om jag skall vara ärlig så känns denna graf väldigt konstruerad). Här krävs mycket självkritik för att resultatet skall hålla hög vetenskaplig standard. Och inte bara självkritik utan att också andra forskare både vill och får granska de olika resultaten kritiskt. Och att man presenterar sina rådata. Det sistnämnda har det tyvärr brustit mycket i när det gäller klimatforskningen, vilket kommer att diskuteras i nästa artikel i denna serie.
Denna temperaturgraf är framtagen med hjälp av iskärnor från en glacial forskningsstation (Crete) på centrala Grönland. Den visar hur den globala årliga medeltemperaturen varierat under de senaste 10 000 åren. De flesta temperaturgrafer visar temperaturdifferenser relativt en definierad standardtemperatur men den här grafen visar absoluta temperaturer. (Källa: Daansgaard 1984, Avery 2009)
"Extent of Thermometer Record" anger den period (från ca 1880) under vilken man gjort direkta temperaturmätningar (med hjälp av termometrar). Denna period utgör således ett kort "ögonblick" i vår planets historia.
Grafen ovan visar temperaturuppskattningar genom analys av iskärnor (den danske geofysikern Villi Daansgaard, som gjorde den ursprungliga versionen av grafen ovan, var i början av 1950-talet pionjär när det gällde att analysera forna tiders klimat genom syreisotopmätningar på glaciäris). Denna graf är intressant på många sätt, eftersom den bl a visar att temperaturen hela tiden varierar och att dagens höga temperaturer inte på något sätt är exceptionella. Vi ser att från för 8000 år sedan och framåt är varma perioder (röda områden) betydligt vanligare än kalla (blå områden).
Det är uppenbart att de angivna temperaturerna i grafen ovan inte gäller lokalt för den plats iskärnan är hämtad från. Att så är fallet framgår av att från för 8000 år sedan och fram till idag så varierar temperaturen i grafen ovan mellan ca 14°C och drygt 16°C. Detta kan knappast gälla Grönland. T ex så är den årliga medeltemperaturen idag i Nuuk (sydvästra Grönland) -1,4°C. De temperaturer man får fram genom att mäta syreisotopproportioner i iskärnor etc, och som presenterar i grafen, är i själva verket den globala årsmedeltemperaturen för vår planet. Hur går då detta till? Hur kopplas dessa syreistotophalter till den globala årsmedeltempeaturen?
Ja, rent konkret så mäter man, som beskrivits ovan, isotopproportionerna (syre- och väteisotoper) från iskärnor och planktonskal och jämför resultatet med motsvarande isotopproportioner hos VSMOW (standardhavsvatten se ovan). Forskarna har under många år mätt dessa isotopproportioner i prover hämtade från nutida snöfall i polarområdena och har sedan kunnat kalibrera dessa mätningar mot den samtidigt mätta globala årsmedeltemperaturen. Genom denna kalibrering har man fått ett samband mellan isotopproportionerna i snön (som så småningom kommer att bli till is) och den globala årsmedeltemperaturen (inom det mätta temperaturområdet, vilket är väldigt begränsat) och menar sig därmed kunna mäta Jordens globala årsmedeltemperaturer hundratusentals eller miljontals år bakåt i tiden (där temperaturerna ligger långt utanför det område som metoden kalibrerats för dvs man gör vågade extrapolationer utanför det temperaturområde där man vet att metoden fungerar). Här finns därför osäkerheter. T ex så kan forntida vind- och vädersystem ha varit annorlunda mot idag, varför vattenångans väg mot polarområdena kan ha varit annorlunda och tagit längre eller kortare tid. Något som skulle kunna leda till helt andra samband mellan isotopproportioner och global medeltemperatur än vad kalibreringskurvorna anger. Något säger väl dessa mätningar men frågan är hur väl de stämmer. Här är vi utlämnade åt mer eller mindre intelligenta gissningar. Några säkra svar finns definitivt inte.
Förutom iskärnor har vi, som nämnts ovan, sediment efter plankton, där man också kan mäta på samma syre- och väteisotoper. Där blir dateringarna ännu mer osäkra (eftersom vi inte har några spår av sommar/vintersäsonger). Och även där kommer de temperaturdata man får fram att påverkas av komplicerade transportprocesser, eftersom proportionerna mellan syre-16/syre-18 etc uppkommer på liknande sätt som vid mätningar på iskärnor.
Slutsatser som bygger på statistik leder normalt fram till korrelationer, dvs man konstaterar att vissa variabler samvarierar. Graden av samvariation kan uttryckas på olika sätt, t ex genom den s k korrelationskoefficienten. Om denna är 1 för två variabler, så innebär det att dessa två variabler varierar på exakt samma sätt (dvs följer varandra synkront). Problemet är att korrelation inte nödvändigtvis och inte alltid innebär kausalitet (orsak och verkan). Det senare innebär att förändring av den ena variabeln orsakar att den andra variabeln förändras eller tvärtom. Om t ex koldioxidhalten och jordens medeltemperatur samvarierar (är korrelerade) så bevisar inte detta med 100-procentig säkerhet att den ena variabeln påverkar den andra. Inte heller visar det, per se, vilken variabel som utgör den orsakande faktorn (om vi har ett kausalt samband). Till detta krävs att man till fullo förstår de kausala mekanismerna (om de finns). För att ta den aktuella klimatfrågan så skulle det ju teoretiskt kunna vara så att det är ökningen av jordens medeltemperatur som orsakar att koldioxidhalten ökar.
Vatten kan lagra koldioxid. Ju lägre temperatur vattnet har, desto mer koldioxid kan lagras. Jordens hav innehåller enorma kvantiteter koldioxid. Om jorden blir varmare, kommer världshavet givetvis att blir varmare, vilket innebär att mindre koldioxid kan lagras där. En global uppvärmning kommer således att leda till att havet avger stora kvantiteter koldioxid till atmosfären, dvs koldioxidhalten i atmosfären ökar. Huruvida detta skulle kunna förklara den ökande koldioxidhalt som vi ser idag vet jag inte. Men det spelar ingen roll. Jag tar bara detta som ett principiellt exempel.
Eller också skulle det kunna vara så att det finns en tredje faktor, vilken gör att både koldioxidhalt och medeltemperatur ökar. Och även om koldioxidhalten verkligen orsakar temperaturökningen, så är nästa fråga i hur hög grad människans utsläpp orsakar detta (teoretiskt kan människans påverkan ligga mellan 0 och 100 procent). Och oavsett hur det förhåller sig så måste under alla förhållanden varje påstående som görs granskas och analyseras. Och mätdata och analyser måste kunna granskas av andra forskare och forskargrupper.
Ett ytterligare problem när det gäller att ställa upp matematiska modeller för klimatets utveckling är att vi inte idag till fullo förstår alla mekanismer som är inblandade. En av Sveriges ledande klimatforskare, Lennart Bengtsson, har många gånger påpekat att vi vet väldigt litet när det gäller molnens betydelse för klimatet och att det skulle behövas mycket forskning inom detta område för att öka exaktheten hos våra klimatmodeller och därmed våra simuleringar (Bengtsson är, till skillnad från de flesta av de mer högljudda språkrören för klimatalarmismen, en välmeriterad forskare när det gäller klimatet han är professor i dynamisk meteorologi vid Max-Planck-Institut für Meteorologie i Hamburg och var föreståndare för detta institut 1991-2000). Vill vi verkligen lösa klimatfrågan behöver vi således fler högutbildade, kunniga klimatforskare än vad vi behöver skolkande, affischviftande skolungdomar. Hur entusiastiska den senare kategorin än må vara så kommer de definitivt inte att lösa problemet med den globala uppvärmningen. Och speciellt inte genom att påstå att Västvärldens kolonialism, rasism och patriarkat är orsaken till den globala uppvärmningen. Sådant kommer bara att göra att många, många människor kommer att distansera sig från klimatfrågan. Och det för oss ju knappast närmare en lösning.
De som hörs mest i klimatdebatten är oftast inte klimatforskare utan kan mer betraktas som pålästa informatörer/amatörer (även om de ibland har höga akademiska examina och titlar). Många är inte ens en gång naturvetare. Och väldigt få är matematiker eller fysiker eller kemister (som förstår själva grunden i de teorier som beskriver klimatet). Och detta är så typiskt vår tid, där så mycket bara är ett tomt skal. Jag säger inte att det inte kan behövas informatörer. Men det behövs också något att informera om. Och helst då något som dessutom är sant! Jag läste att svensk polis idag har ca 600 kommunikatörer (inom polisen har ordet informatör en helt annan betydelse nämligen "tjallare"). Tidigare rörde det sig antagligen om en handfull. Det hade kanske räckt med 20 kommunikatörer och sedan kunde de andra 580 ägnat sig åt riktig polisverksamhet. Men det är så det går till idag. Mycket snack och lite verkstad! Vi lever verkligen i en sjuk tid. Jag undrar vad historiens dom kommer att bli över Västvärlden under de första decennierna av 2000-talet. 1920-talet kom ju att kallas "det glada 20-talet". Kanske kommer 2020-talet att gå till historien som "dumhetens och förljugenhetens decennium". Jag skulle inte bli förvånad.
Den globala medeltemperaturen har blivit en standardindikator, en metrik, för vad som händer med klimatet. Ett enda tal anses således kunna uttrycka allt som finns att säga när det gäller jordens framtida klimat. Och utifrån denna suggestiva indikator drar politiker, journalister, många forskare (varav ett fåtal är matematiker och fysiker) och den s k intellektuella eliten slutsatsen att allt liv på jorden står inför en existensiell kris.
Ett problem med att använda den globala årsmedeltemperturen som parameter är att denna inte bara varierar på grund av mätpunkternas olika positioner på jorden (vilket är självklart) utan också varierar på grund av deras olika höjd över havsytan. Standardtemperaturen (kallad iso) vid havsytan är 15° C. Eftersom temperaturen minskar med höjden (ca 0,6° C per 100 m) blir det kallare ju högre upp vi kommer. Vid Mount Everest (ca 8000 m höjd) är standardtemperaturen (iso) -35° C, dvs ca 50° C kallare än på havsytans nivå. De enskilda mätpunkterna kan således variera med 50 grader samtidigt som klimatvariationerna per decennium handlar om några tiondels grader.
Det är uppenbart att mätvärden från mätstationer på olika höjder inte utan vidare kan jämföras eller användas för medelvärdesberäkningar. På något sätt måste man bearbeta de mätta temperaturerna så att de blir jämförbara. En metod är att man (som nämnts ovan) kompenserar för höjdfaktorn, dvs transformerar de mätta temperaturerna till motsvarande temperaturer vid markytan/havsytan med hjälp av de fysikaliska sambanden mellan temperatur och höjd (temperaturen avtar med ca 0,6° C per 100 m ökande höjd (vid torr luft) 12° C på 800 m höjd motsvarar exempelvis 16,8° C vid havsytan, eftersom 8⋅0,6=4,8). En annan, och kanske enklare metod, är att man inte tittar på temperaturerna utan på temperaturförändringarna (jämfört med en definierad standardtemperatur). Hur mycket har temperaturen på Mount Everest förändrats under en tioårsperiod och hur mycket har temperaturen vid Döda Havet (jordens lägsta punkt) förändrats under samma period? Att jämföra förändringarna framstår som mer meningsfullt än att jämföra de temperaturer som direkt läses av på mätinstrumenten. Men eftersom temperaturförändringarna i troposfären är större än vid markytan, måste dessa förändringar (mätta av satelliter, flygplan eller i höglänt terräng) i alla fall räknas om till motsvarande värden för markytan. För att få förändringen av den globala medeltemperaturen under denna tioårsperiod tar man sedan medelvärdet av de avlästa temperaturförändringarna under perioden (vilket kan göras på flera olika sätt).
Att beräkna globala medeltemperaturer och deras förändringar är emellertid mer komplicerat än så. Man kan inte bara ta ett vanligt, enkelt aritmetiskt medelvärde genom att addera temperaturförändringarna för jordens alla mätstationer och mätpunkter och sedan dela summan med antalet mätningar. Så enkelt är det dessvärre inte.
Låt mig, innan vi går vidare, illustrera med ett pedagogiskt exempel: Om jag vill göra en undersökning av partisympatierna i Sverige vid en given tidpunkt, så är den säkraste metoden att intervjua varje invånare i Sverige (totalundersökning). Detta är givetvis opraktiskt och dyrt varför man normalt gör stickprovsundersökningar, dvs man intervjuar en relativt liten grupp (kanske några tusen eller ännu färre). För att en sådan undersökning skall vara meningsfull måste urvalet av intervjupersoner avspegla svenska folket (kön, mantalsskrivning, yrke, ålder, olika samhällsgrupper, olika filosofiska och religiösa övertygelser etc och dessutom ta hänsyn till antal individer i de olika grupperna). En stickprovsundersökning kan ge ett rättvisande resultat, även om man har få intervjupersoner, under förutsättning att urvalet är korrekt gjort eller den kan ge helt missvisande resultat om underlaget är illa valt.
Motsvarande gäller mätpunkterna för jordens temperatur. Eftersom dessa mätpunkter inte bara används för att beräkna medeltemperaturer etc utan också används som indata i de modeller som försöker förutsäga klimatet, måste mätpunkterna rättvist representera hela jordklotet ur en massa olika aspekter (olika typer av klimatzoner, olika höjdzoner, olika latituder etc) om de skall vara relevanta både som underlag för klimatmodeller och för medelvärdesberäkningar. Mätpunkter måste t ex ges olika vikter beroende på hur stora områden de representerar. I vissa fall måste mätpunkterna läggas tätt (ha stor upplösning) för att inte missa lokala områden med stora temperaturvariationer (dessa småskaliga variationer kan i förlängningen ge stora klimateffekter på sikt, även om de till en början bara kan observeras i mycket begränsade områden). Man måste också ta hänsyn till olika latitudszoner med olika klimatsystem. Den tropiska zonen runt ekvatorn (mellan 30° syd och 30° nord) har exempelvis ett ganska enhetligt klimat och kan inte representeras på samma sätt som övriga zoner. Det är i princip ungefär samma sak som när man blandar standardhavsvatten (VSMOW Vienna Standard Mean Ocean Water), som skall representera världshavet vid temperaturmätninger genom iskärnor och sediment (se ovan).
F ö så sker idag större delen av temperaturmätningarna genom satelliter. Detta diskuteras närmare i nästa artikel i min klimatserie (del 4).
I de ekvationer som används i klimatmodellerna gör man som sagts ovan olika approximationer för att få hanterbara ekvationer. Man försöker bl a uppskatta hur stora de olika termerna i en ekvation är. Små termer approximeras bort eller ersätts av förenklade uttryck (t ex enkel proportionalitet). Dessa förenklingar gör att ekvationerna går snabbare att lösa eller gör att olösliga ekvationer nu blir lösbara. Ett allvarligt problem är att man, för att kunna göra meningsfulla förutsägelser när det gäller temperaturändringar på någon grad 100 år framåt i tiden, måste ha modeller med en mycket stor upplösning. När det gäller flödesdynamik, som ofta används i klimatmodeller, krävs extremt stor upplösning (i atmosfären finns dynamik i olika skalor, från centimeter till hundratals kilometer, och den småskaliga dynamiken kan på sikt påverka den storskaliga dynamiken) och dessutom krävs matematiska modeller som avspeglar klimatet väldigt exakt. Vi har för närvarande varken datorkraft eller tillräckliga kunskaper för sådana beräkningar. Plus att matematiken själv, som påpekats ovan, sätter gränser för noggrannheten i lösningarna (eftersom de matematiska sambanden är kaotiska se ovan). En modell kan också vara så instabil så att den divergerar mot orimliga värden (detta är vanligt inom flödesdynamiken). Ofta lägger man då in dämpningsfaktorer eller -termer och får då "snällare" modeller. Problemet är att dessa dämpningsfaktorer är ad hoc, dvs kan inte motiveras matematiskt, utan är bara till för att dämpa ut stora variationer (sådan matematik kallas ibland "går det så går det"). Risken finns att modellerna inte längre handlar om verkligheten utan lever sina egna liv i Modellernas Land (det sterila och abstrakta och välordnade Drömland som alltför ofta förväxlas med den mer snåriga och komplexa verkligheten).
Ibland kombineras modellerna dessutom med ekonomiska modeller, vilka gör anspråk på att kunna förutsäga hur klimatförändringarna kommer att påverka ekonomin i olika länder. Ekonomiska modeller är notoriskt opålitliga, och opålitliga ekonomiska modeller, som i sin tur utgår från synnerligen osäkra klimatmodeller, kommer att ge förutsägelser, som åtminstone för mig, framstår som helt meningslösa och irrelevanta. Att utifrån osäkra modeller hävda att mänskligheten och allt liv på jorden står inför ett existensiellt hot är tveksamt. Det är till och med tveksamt om förändringen av den globala medeltemeperaturen utgör ett relevant mått på vår planets framtida klimat. Kanske borde man använda andra och mer komplexa mått för att beskriva Jordens framtid.
Man får akta sig för att dra alltför stora växlar på simuleringar. När man t ex simulerar en härdsmälta i ett kärnkraftverk med hjälp av ett simuleringsprogram tror ingen att det pågår en verklig härdsmälta inuti datorn. Det finns andra datorprogram som försöker simulera ett medvetande, dvs som försöker få en dator att uppföra sig som en människa. Målet är att datorn, via en telefonförbindelse, skall kunna lura en människa att tro att denne pratar med en människa och inte med en dator. Men även om nu datorn skulle lyckas med detta, bevisar inte det att det finns en medveten varelse inuti datorn. Det enda det bevisar är att en dator kan programmeras så att den uppför sig som om den har ett medvetande! Risken finns att dessa två simuleringar säger mer om själva simuleringsprogrammen än vad de säger något om verkliga härdsmälter och mänskligt medvetande. I båda fallen körs programvara som försöker avspegla de processer som simuleras. Hur väl programvaran lyckas med detta beror på hur väl denna beskriver dessa processer. Dvs i förlängningen beror simuleringens kvalitet på människans kunskaper om det som simuleras och hur väl man lyckats översätta detta till matematikens språk och sedan i förlängningen till datorns maskinspråk.
Även om vi nu kunde lösa meteorologins och oceanografins ekvationer exakt (vilket vi inte kan), är det långt ifrån säkert att dessa ekvationer fullt ut beskriver den komplicerade verkligheten när det gäller klimatet (som påpekats ovan så lider t ex våra kunskaper om hur molnen påverkar klimatet av stora brister). Dvs, även om vi kunde lösa ekvationerna i sig exakt kanske simuleringen säger mer om våra klimatmodeller (och deras brister) än vad de säger något om klimatets framtida utveckling.
De flesta svenskar har aldrig hört talas om Freeman Dyson. Denne, som dog i februari i år (2020), har varit något av en doldis trots att han i mer än 50 år tillhört toppskiktet bland världens fysiker. Han har lämnat synnerligen viktiga bidrag till den moderna fysiken och var under en stor del av sitt liv verksam vid Institute for Advanced Study i Princeton, USA (där Einstein arbetade ända fram till sin död). Dyson har både i tidningsintervjuer och på Youtube uttalat sig om klimatet. Han är skeptisk till det klimatalarmistiska scenariot och menar att man måste ta klimatmodellerna med en rejäl nypa salt, eftersom de innehåller stora osäkerheter. Han är ingen klimatexpert, vilket han själv är noga med att påpeka, men han har en enorm och övergripande kunskap när det gäller matematiska modeller och flödesdynamik (en teknik som klimatmodellerna ofta använder). Tidigare arbetade han dessutom under vissa perioder med klimatfrågor. Så den typen av frågeställningar är inte främmande för honom. Han är dessutom en briljant matematiker så man kan inte utan vidare avfärda honom som "foliehatt" (ett finare ord för knäppskalle) eller liknande. Jag hittade en intressant intervju (givetvis på engelska) med honom, gjord av en journalist på tidskriften Scientific American. Där sammanfattar han sin syn på klimatfrågorna. Dyson förnekar inte den globala uppvärmningen men ifrågasätter om den verkligen är så negativ som påstås. Och precis som jag så klagar Freeman Dyson över den pinsamt låga nivån på klimatdebatten
Summa summarum: Simuleringar av komplexa fenomen innehåller alltid osäkerheter, vilket diskuterats ovan. Man måste därför alltid vara skeptisk till den typen av förutsägelser. Och ödmjuk. Och tillåta, ja uppmuntra till kritik. Teorier som inte tål kritik deltar inte i det vetenskapliga spelet och handlar oftast om ideologi och manipulation (dvs politik).
Jag skummade precis tidskriften Science (20/1 2020). Där fanns en artikel med rubrik "New signs of a shielding magnetic field found in Earth’s oldest rock crystals", som handlade om nya rön beträffande Jordens skyddande magnetfält (vilket skyddar atmosfären från att ”skrapas bort” av högenergetiska partiklar från Solen och dessutom skyddar levande organismer mot denna farliga strålning). Enligt en ny teori, baserad på nyligen gjorda mätningar, hade Jorden ett skyddande magnetfält 750 miljoner år tidigare än vad man tidigare trott. I artikeln skriver man:
Inte alla forskare är övertygade om resultatet [som presenteras i artikeln], eftersom detta skulle flytta tillbaka datumet när Jordens magnetfält bildades med 750 miljoner år. ”Det har funnits en stor forskargrupp som försökt bevisa att våra resultat är felaktiga”, säger Tarduno. ”Det är en del av det som kallas vetenskap [fetstil tillagt av mig].”
Och det är precis så det är och skall vara. Varje sund teori kritiseras (och dess anhängare accepterar och uppmuntrar till detta) av andra forskare. Om teorin står sig, trots kritiken, accepteras den, inte annars. En teori som vägrar låta sig kritiseras eller där anhängarna demoniserar kritikerna, är inte en vetenskaplig teori utan en ideologi!!! Om klimatalarmisterna (eller vad man nu vill kalla dem) vill att deras teori skall accepteras som vetenskaplig (vilket de uppenbarligen vill) måste de således acceptera att deras teori utsätts för skarp kritik. Och dessutom förväntas de bemöta denna kritik, inte med känsloutbrott och hot och förolämpningar (som att påstå att alla kritiker är köpta av oljebolagen om de inte rent av är nazister) utan med objektiva argument baserade på mätbara/observerbara fakta. Accepterar de inte detta, ja då bevisar de att deras agenda handlar om ideologi och inte vetenskap! Och då förtjänar de inte att tas på allvar! Och då motverkar de dessutom sin egen sak.
(Observera, jag har ännu inte redovisat var jag själv står i klimatfrågan! Det jag hittills redovisat är min grundinställning, att det handlar om en vetenskaplig fråga, som är alltför viktig för att den skall tillåtas att kapas av vänsterfascistliberalkapitalistideologer, dvs den rödbrungrönblåa röran och liknande.)
Fortsätt till del 4, Att tänja på sanningen en aning
Tillbaka till "Klimatet en alltför viktig fråga för att låta känslor styra"