"Godhet utan vishet och utan
gränser är bara en annan
form av ondska."
(John Paterson)

"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(okänd)

"Ormar äro älskliga varelser,
om man råkar tillhöra samma
giftgrupp"
(Artur Lundkvist)

"Outbildade idioter utgör inte
något större problem.
Välutbildade och intelligenta idioter
är däremot fullständigt livsfarliga.
De kan förstöra ett helt land på
nolltid."
(Okänd)

"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)

"Civiliserade är de kulturer
och individer som respekterar
andra."
(hört på Axesskanalen)

"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)

"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)

Senast ändrad: 2020 10 12 11:12

Allt är inte glamour när det gäller ekvationslösning och simulering.

Del 3 av en serie i sju delar.

I den mån matematiken är absolut sann så säger den inget om verkligheten och i den mån den säger något om verkligheten vet vi inte om den är sann.
            Albert Einstein

 

I den här artikeln tänker jag ta upp några konkreta svårigheter man kan ställas inför när man försöker skapa matematiska/fysikaliska modeller för komplexa fenomen som väder och klimat. Jag är inte själv någon expert på klimatområdet eller på meteorologi men har 40 poäng i oceanografi (plus att jag läst några 60-poängskurser). Jag har dessutom en bakgrund i matematik och fysik och numeriska beräkningar med datorer. Så i princip har jag kapacitet att förstå matematiken bakom de klimatsimuleringar som gjorts (till skillnad från minst 90 procent av de som högljutt uttalar sig om klimatet i media). Huvudekvationerna inom oceanografi och meteorologi är grundläggande desamma, varför mina kunskaper i oceanografi har en viss relevans i sammanhanget. Skillnaden är att luft (meteorologi), i motsats till vatten (oceanografi), komprimeras vid tryck (vatten kan förvisso också komprimeras men denna egenskap spelar försumbar roll utom i djuphavet).

 

Differentialekvationer och olika lösningsmetoder

(för en kortfattad förklaring av begreppet differentialekvation, klicka här!)

Det grundläggande problemet är att oceanografins och meteorologins grundekvationer är komplicerade differentialekvationer, vilka för det första inte kan lösas exakt, utan kräver numeriska lösningar med kraftfulla datorer, där man får mer och mer exakta lösningar (fler värdesiffror) ju längre datorerna får stå och tugga (dvs varje ytterligare värdesiffra kostar en massa pengar). För det andra är många av lösningarna ganska instabila (diskuteras nedan), vilket ställer till ytterligare problem.

Först lite matematik innan vi går vidare. Matematiska ekvationer kan lösas på två principiellt olika sätt:
1. Analytiskt. Genom att utifrån matematikens regler manipulera matematiska uttryck som t ex innehåller olika obekanta (x, y, z etc) kan man lösa ut de obekanta och får på så sätt exakta uttryck för dessa. Antingen uttryckt i andra obekanta (dvs man får en formel t ex x=3y3) eller i exakta numeriska världen (x=2,4, x=π2/4 etc). För många typer av ekvationer finns färdiga formler med lösningarna (man behöver således inte uppfinna hjulet på nytt). De lösningar man får här är exakta.
2. Numeriskt. Vissa ekvationer går inte att lösa eller är svåra att lösa analytiskt (exakt). Då kan man använda s k numeriska metoder. Oftast används datorer till detta. Beräkningarna går till så att man skriver om ekvationen i lämplig form och sedan gissar eller tar ett startvärde man mätt fram. Detta sätts in i uttrycket varvid man får ett nytt värde, som ligger närmare den exakta lösningen än vad startvärdet gör. Detta nya värde sätts återigen in i uttrycket och man får ännu ett nytt värde som sedan sätts in i uttrycket etc. Varje sådan beräkningsomgång kallas en iteration. För varje iteration kommer man närmare lösningen och det är bara att låta datorn stå och tugga så får man så många värdesiffror som man behöver (klicka här för ett enkelt exempel på numeriska beräkningar genom iteration).
Läsaren ombedes att hålla detta i minne vid genomläsningen av den följande texten.

Antag t ex att man vill förutsäga (simulera) temperaturutvecklingen för ett område (t ex Europa eller hela Jorden) 100 år framåt i tiden. Det handlar då om att lösa enorma system av differentialekvationer (ekvationer som innehåller derivator). En strategi är att man lägger ett "rutnät" (mesh) över det område man vill studera (se bilder nedan). Skärningspunkterna (vilka kallas noder) mellan de olika linjerna i meshen definierar mätpunkter. Sedan lägger man in ett startvärde för temperaturerna i området, t ex medeltemperaturerna i dessa punkter vid en viss tidpunkt — man utgår således från att det gjorts tillförlitliga temperaturmätningar i området (helst vill man också ha temperaturuppgifter under lång tid tillbaka för att man skall kunna testa sin simulering genom att också gå bakåt i tiden och jämföra "kartan med verkligheten") och så startar man beräkningen. Starttiden sätter vi till noll, dvs t=0. Innan man startar anger man hur stora tidssteg man vill att simuleringen skall ta för varje beräkningsomgång, t ex 5 timmar. Vid beräkningarna arbetar man numeriskt (som förklarats under punkt 2 ovan). Datorerna står nu och tuggar och tuggar och efter ett viss antal iterationer (dvs efter en viss beräkningstid — det kan handla om tiotusentals eller miljoner iterationer) får man resultatet med lämpligt antal värdesiffror. Det erhållna resultatet (de beräknade temperaturerna 5 timmar efter starten av simuleringen, dvs vid t=5 timmar) sätts nu tillbaka in i simuleringen och efter en stunds räknande har man kommit ytterligare 5 timmar framåt i tiden (i simuleringen), dvs till t=10 (timmar). Beroende på den matematik som beskriver det man vill simulera och hur många värdesiffror man vill ha och hur kraftfull dator man har tillgång till, kan varje sådant beräkningssteg (tidssteg) ta längre eller kortare tid. Vill man simulera temperaturutvecklingen för lång tid framåt, kanske hundratals år eller mer, kan man frestas att ta större tidssteg per beräkningssteg (än 5 timmar). Problemet är att om man tar för stora tidssteg, kan detta leda till att man för varje tidssteg hamnar mer och mer fel (dvs får ett ackumulerande fel och får lösningar som divergerar bort från den korrekta lösningen). Simuleringen leder oss då helt vilse. Hur stora tidssteg man maximalt kan ta vid den här typen av beräkningar kan ofta förutsägas matematiskt. Men handlar det om väldigt komplicerade ekvationer kanske man inte ens kan avgöra den maximala storleken på tidsstegen utan man får pröva sig fram. Det kan hända att analysen eller tester visar att man måste göra väldigt små tidssteg (kanske miljondels sekunder) för att en viss simulering skall fungera. Skall man då simulera tusentals år framåt i tiden och det handlar om komplicerade beräkningar, kanske inte ens en superdator räcker till.

En vanlig (kanske den allra vanligaste) och mycket kraftfull numerisk metod som används i samband med lösandet av differentialekvationssystem är finita elementmetoden (den intresserade läsaren kan läsa om denna metod på Wikipedia). Många sofistikerade program för lösning av differentialekvationssystem bygger på finita elementmetoden. Vi talar då om programvara som kan kosta flera miljoner kronor i inköp. Finita elementmetoden är mycket beräkningstung, dvs kräver synnerligen kraftfulla datorer (vid komplicerade problem).

Differentialekvationssystemen i samband med beräkningar på komplicerade fenomen (väder, flygplansvingar etc) leder oftast till ekvationssystem med stort antal (det kan handla om tiotals miljoner) obekanta.
Bilden ovan visar ett mesh över ett område som skall studeras. Skärningspunkterna mellan linjerna kallas noder och utgör beräkningspunkterna (den storhet som studeras kan vara temperatur, lufttryck, mekaniska spänningar, strömningshastigheter etc, etc). Ju tätare noderna ligger, desto högre upplösning och desto bättre kunskap får man om det studerade området. Men ökad upplösning kostar pengar, eftersom det kräver mycket mer beräkningstid. Beräkningskostnaden är ungefär proportionell mot antalet noder.
Här ser vi kolven till en förbränningsmotor på vilken man lagt ett mesh. Vänstra bilden visar mesh vid en låupplöst beräkning, där vi har 7 488 noder. Högra bilden visar samma kolv med ett högupplöst mesh med 136 045 noder. Den större upplösningen har ca 18 gånger högre beräkningskostnad (136045/7488≈18). Det kan handla om att man vill beräkna temperaturerna eller de mekaniska spänningarna i kolvens olika delar. Sådana typer av beräkningar är givetvis A och O vid konstruktionsarbete. På flygplan studeras på detta sätt vingars hållfasthet och luftströmningen runt vingarna och de temperaturer och krafter som turbinblad utsätts för i jetmotorer etc, etc.

 

Beräkningstid och ett enkelt exempel

De mest kraftfulla superdatorerna idag kan utföra mer än 1015 (en miljon miljarder) flops (flyttalsoperationer per sekund)! Men inte ens detta räcker för att lösa vissa matematiska problem inom rimlig beräkningstid. Det finns t o m tämligen enkla problem som en superdator, trots sin enorma beräkningskraft, behöver miljontals år för att lösa. Ett sådant problem är således inte praktiskt beräkningsbart. Låt mig ge ett exempel:

Vi tar en enkel formulering av det klassiska handelsresandeproblemet (traveling salesman problem), enligt vilken en handelsresande skall besöka USA:s 50 delstatshuvudstäder. Han utgår från sin hemstad och skall efter avslutad resa återvända hem. Det finns många olika rutter han kan välja och vår handelsresande vill hitta den kortaste totala ressträckan (för att besöka alla 50 delstatshuvudstäderna). En dator som kan göra 1015 flops borde genom ren råräkning (dvs testa sig igenom samtliga resvägar) kunna lösa problemet snabbt. Kan man åtminstone tycka. Låt oss antaga att datorn kan testa 1012 alternativ per sekund. Datorn har tillgång till en tabell med avstånden mellan alla USA:s delstatshuvudstäder (en 50x50 matris) och hämtar dessa avstånd för varje möjlig resväg och adderar sedan delsträckorna och om den sist beräknade rutten är kortare än den föregående, behålls den nya rutten, annars behålls den föregående rutten.
När vår handelsresande (eller datorn) skall välja första benet av resrutten, finns 50 alternativ att välja mellan. Efter besöket i den första delstatshuvudstaden återstår 49 städer att välja mellan för nästa delsträcka. Och nästa gång 48 etc, etc. När sista staden skall väljas finns bara en möjlighet kvar (alla andra delstatshuvudstäder har ju redan besökts). Totala antalet möjligheter ges då, enligt kombinatorikens multiplikationsprincip, av 50⋅49⋅48⋅47...3⋅2⋅1. Detta kallas 50-fakultet och skrivs som 50! (utropstecknet betyder således i detta sammanhang fakultet).
Vi har med andra ord kommit fram till att det finns 50! (50-fakultet) olika möjliga rutter att välja mellan. 50!=3⋅1064, vilket är ett hiskligt stort tal (en trea med 64 nollor efter). Datorn måste gå igenom alla dessa för att hitta den kortaste rutten. Eftersom vi antagit att datorn hinner testa 1012 alternativ per sekund kommer följande samband att gälla:
Division med 1012 ger hur många sekunder beräkningen kommer att ta. Genom att sedan dela med 3600 får vi hur många timmar beräkningen tar och genom division med 24 får vi antalet dagar och genom att slutligen dela med 365,25 (ett år har 365,25 dagar, det är därför man måste lägga till en skottdag vart fjärde år) så får vi antalet år som beräkningen kommer att ta.
Resultatet anger hur många år det kommer att ta för superdatorn att gå igenom samtliga möjliga rutter för att hitta den kortaste. Tiden blir således ca 1045 år! Jag betvivlar att vår handelsresande orkar vänta så länge.
Universums ålder anses allmänt vara av storleksordningen 1010 år (13,8⋅109 år). 1045 år är således 1035 gånger universums ålder! Och redan 1035 är ett ofattbart stort tal. Totala antalet sandkorn i Sahara har t ex uppskattats till 1020. Dvs 1035 är antalet sandkorn i ca 1000 biljoner (1015) Saharaöknar! Det tar således 1000 biljoner gånger antalet sandkorn i Sahara gånger universums ålder för världens snabbaste dator (2019) att med råräkning lösa handelsresandeproblemet för 50 städer!!!

Att en superdator inte klarar av att genom råräkning (brute force) lösa ett så pass enkelt problem som handelsresandeproblemet torde förvåna många människor. I och för sig kan man lösa just detta problem approximativt med smartare metoder än ren råräkning (här hittar den intresserade läsaren en aktuell text om detta problem). Handelsresandeproblemet (i ovanstående formulering) utgör bara ett enkelt och för en lekman lättfattligt exempel på att även en superdator har begränsad räknekapacitet. Men det finns mängder av verkliga matematiska problem (och då bl a mer komplicerade formuleringar av handelsresandeproblemet), där även en superdator går bet, oavsett hur smarta metoder man väljer. Man säger att denna typ av problem är non-computable eller trans-computable (icke beräkningsbara).

Beträffande vad det rent konkret kostar att använda en superdator så betalar man normalt för core/hour (dvs processorkärna per timme). Denna kostnad är inte speciellt hög, ca 0,023 USD/h, dvs ca 20 öre i timmen. Om vi som exempel tar IBM Blue Gene/P (en av världens snabbaste superdatorer), så har denna 164 000 processorkärnor, dvs kostnaden för att använda datorns hela kapacitet blir då 0,023⋅164000=3772 USD/h (strax under 30 000 kr/tim). Generellt så tycks timkostnaden för de mer kraftfulla superdatorerna ligga mellan 2 000 och 4 000 USD. I allmänhet så har man inte tillgång till hela datorn utan använder bara en del av kapaciteten och betalar bara för detta.
Hur många processorkärnor som används vid en körning har ingen praktisk betydelse, eftersom detta reglerar sig självt. Antag att vi skall köra ett program på Blue Gene/P, som har 164 000 kärnor. Om datorn används av många samtidigt, kanske man får 164 kärnor sig tilldelad. Körningen av programmet tar då en viss tid, låt oss säga 15 minuter. Om körningen i stället sker när man är ensam användare på datorn (kanske mitt i natten), så har man eventuellt tillgång till alla 164 000 kärnorna. Körningen går då ca 1000 gånger snabbare (eftersom man använder 1000 gånger fler processorer), dvs tar bara 0,96 sekunder. Kostnaden för användaren blir i båda fallen exakt densamma (i det senare fallet betalar man för 1000 gånger fler processorkärnor under 1/1000 av tiden).
Vissa superdatorer sponsras av staten eller av något stort företag (som Amazon), En statligt ägd superdator kan tillhandahålla gratis tid för olika universitet etc. Många universitet köper ett visst antal timmar per år på något superdatorcenter och sedan får universitetets forskare dela på denna tid. På Amazons superdator kan i princip vem som helst (även privatpersoner) ansöka om gratis superdatortid. Här finns givetvis gränser för hur mycket tid man kan få och huruvida ansvariga för datorn tycker man har tillräckligt goda skäl för att få använda den. Vissa forskningscenter, som rutinmässigt sysslar med tunga beräkningar, som CERN i Genève, har egna superdatorer. Detta gäller också stora flygplanstillverkare som Airbus och Boeing.
När det gäller att lösa stora differentialekvationssystem och/eller omfattande simuleringar av klimat, luftströmningar runt vingprofiler etc, så handlar det inte om att använda några få processorkärnor på en superdator under några minuter. Nej då handlar det i allmänhet om att använda hela datorn under kanske flera dygn. Dvs den ekonomiska aspekten är mycket viktig i detta fall och kan göra att vissa beräkningar helt enkelt inte kan utföras, eller måste förenklas dramatiskt (vilket kan leda till att resultatet blir osäkert), eftersom budgeten är begränsad.

Vissa problem är principiellt icke-beräkningsbara, eftersom man helt enkelt inte känner till några lösningsmetoder. Andra problem går i princip att lösa men kräver så många beräkningar att de inte är praktiskt beräkningsbara (som handelsresandeproblemet genom råräkning). Det tar helt enkelt för lång tid. Allt eftersom datorer blir snabbare och snabbare kommer det givetvis att bli möjligt att lösa fler och fler problem av den senare kategorin. Men det finns problem, vilka kräver så oerhört många beräkningar att ingen dator, såvitt man kan se idag, någonsin kommer att ha kapacitet att lösa dessa på acceptabel tid. Man kan t ex göra en maxuppskattning av hur snabb en dator någonsin kan bli genom att tänka sig en dator som har tillgång till hela universums massenergi per sekund och sedan med hjälp av kvantmekaniken (Heisenbergs osäkerhetsrelation mellan energi och tid) uppskatta hur snabb en sådan dator skulle vara. Det spelar ingen roll hur listigt konstuerad en dator är, osäkerhetsrelationen kan man inte komma förbi, eftersom den sätter en fysikalisk gräns för hur många bitar (bits, dvs ettor och nollor) kretsarna kan läsa av per sekund (detta sätter således en gräns för dataflödet). Det är svårt att tro att mänskligheten någonsin skulle kunna få tillgång till en dator med denna kapacitet. Och även med en sådan dator finns problem, som i princip är lösbara, men som skulle ta biljoner gånger universums ålder att lösa.

För att återvända till temperatursimulering så gäller att ju finare rutnät man väljer (större upplösning) för det område man studerar, desto fler beräkningar krävs. Väljer man för liten upplösning (för att spara beräkningstid) finns risken att man missar finare strukturer i temperaturfördelningen, vilket kan påverka simuleringen långsiktigt. Därmed löper man risk att kanske missa viktiga, ja kanske avgörande, insikter när det gäller det man studerar. Och väljer man för hög upplösning kanske problemet inte blir beräkningsbart, eftersom det tar för lång tid att göra beräkningarna. Och/eller kostar för mycket.

 

Allmänt om ekvationer och beräkningar

Generellt gäller (som påpekats under punkt 1 ovan) att vissa ekvationer (algebraiska och differentialekvationer) kan lösas exakt (ibland med hjälp av formler som redan är framtagna). Inte sällan är emellertid dessa lösningar så komplicerade att man i alla fall använder numeriska metoder. Även om numeriska metoder inte ger exakta lösningar, kan man ju ändå få så många decimaler som man vill ha (om man är beredd att betala för tillräckligt med datortid).

Den vanliga andragradsekvationen (typ x2-5x+11=0, dvs en ekvation som innehåller x2 som högsta potens) går lätt att lösa exakt (redan babylonierna kunde 2000 f Kr lösa den typen av ekvation). Även fullständiga tredje- och fjärdegradsekvationer (dvs med x3 respektive x4 som högsta potens och innehållande alla lägre potenser plus sifferterm) går att lösa exakt (dessa löstes under första halvan av 1500-talet). Men formlerna är så komplexa att man i alla fall ofta använder numeriska metoder. Den fullständiga femtegradsekvationen (med x5 som högsta potens) visade sig vara en svårare nöt att knäcka. Det dröjde ända till 1824, när den norske matematikern Niels Henrik Abel (tillsammans med italienaren Paolo Ruffini) bevisade att det är omöjligt att lösa en fullständig femtegradsekvation exakt (trots att varje femtegradsekvation har 5 exakta lösningar). Ingen kommer således att någonsin kunna lösa en femtegradsekvation exakt, eftersom matematiken helt enkelt inte tillåter detta. Beviset gäller inte bara femtegradsekvationen utan gäller för alla högre gradtal än fyra. Vissa, speciella femtegradsekvationer etc går dock att lösa exakt, men detta utgör undantag. Hur länge och hur skickligt man än manipulerar en allmän femtegradsekvation enligt algebrans alla lagar och tricks så kommer man aldrig någonsin att kunna lösa ut x. Däremot kan en femtegradsekvation (och sjättegradsekvation etc) lösas numeriskt med godtycklig noggrannhet.
Här är matematiken unik. När det gäller fysik, kemi etc går det inte att bevisa i någon absolut mening att någonting är omöjligt (vad man kan säga i detta fall är ungefär "utifrån vad vi vet just nu så verkar det ytterst osannolikt att detta skulle kunna vara möjligt"). Fysiken handlar om verkligheten och verkligheten är överordnad vetenskapen.
Verkligheten innehåller, till skillnad från matematikens abstrakta värld, jokrar, dvs okända, ännu oupptäckta fenomen. Det vi just nu tror vara fysikaliskt omöjligt kan i framtiden visa sig vara fullt möjligt, något som hänt oräkneliga gånger under vetenskapens utveckling. Matematiken å andra sidan utgör ett slutet logiskt system, vars definitioner och regler formulerats av människan. Här finns därför inga jokrar. Man kan jämföra matematiken med schack, vars definitioner och regler också formulerats av människan. Det går t ex att bevisa att om ena spelaren har kung och springare och den andra bara kung, är det omöjligt att göra schack-matt. När folk som inte studerat schack hamnar i den situationen, fortsätter den som har kung och springare att jaga den andres kung ända tills någon av dem till slut tröttnar och ger upp. När de som är kunniga i schackteori spelar och samma situation inträffar, slutar de omedelbart och är overens om att det blir remi (dvs oavgjort). Hur kan man då veta att man inte kan göra schack och matt med kung och springare mot en ensam kung? Jo, det går att bevisa logiskt. Och eftersom schack inte innehåller några jokrar vet vi att det är så (i verkliga krig kan en till synes totalt underlägsen part vinna, därför att där kommer det in helt andra aspekter — verkligheten låter sig inte begränsas av människopåhittade regler). På samma sätt kan vi således veta att det rent allmänt är omöjligt att lösa fullständiga ekvationer av högre gradtal än 4.
Eftersom matematiken inte handlar om verkligheten, framstår matematikens oerhörda användbarhet när det gäller att beskriva den fysiska verkligheten som inget mindre än mirakulös. Detta är en gåta som sysselsatt många filosofer sedan tidernas begynnelse. Du kan läsa mer om detta intressanta ämne genom att klicka här).

Förr i världen gjordes vetenskapliga och tekniska beräkningar för hand med hjälp av räknestickor och logaritmtabeller och elektromekaniska räknemaskiner. Detta har idag ersatts av datorer och superdatorer. När man numeriskt (med datakraft) försöker lösa avancerade differentialekvationer, eller stora system av sådana ekvationer, omvandlar man ofta dessa till linjära ekvationssystem. Problemet är att sådana system kan innehålla miljoner och åter miljoner obekanta (läsaren kommer säkert ihåg ekvationssystem från skoltiden, där man kanske hade två obekanta, x och y). Antalet beräkningssteg (additioner, divisioner etc) som krävs (också kallat beräkningskostnaden) ökar dramatiskt när antalet obekanta ökar. Beräkningskostnaden för N obekanta vid s k Gausselimination (den metod för att lösa ekvationssystem som man fick lära sig i skolan) är proportionell mot N3 (det finns andra lösningsstrategier, vilka är något mer effektiva, med en beräkningskostnad som ligger strax under N3). Har jag en ekvation med 3 obekanta krävs således 27 (33) gånger så många beräkningssteg som för att lösa en ekvation med en obekant. Har jag 3 000 obekanta krävs 27 000 000 000 (30003) gånger så många beräkningssteg som för att lösa en ekvation med en obekant. Och har jag 3 miljoner obekanta blir beräkningskostnaden 2,7⋅1019 gånger större än i fallet en obekant. Om vi skulle försöka att för hand lösa ett ekvationssystem med 3 miljoner obekanta, och varje steg tar 30 sekunder, och lösandet av en ekvation med en obekant tar 30 s, skulle vi behöva hålla på och räkna i ca 2,5⋅1013 år (om man jobbar treskift, dvs 24 h/dygn), vilket är nästan 2 000 gånger universums uppskattade ålder.

Före superdatorernas tid fanns helt enkelt ingen möjlighet att praktiskt utföra sådana här beräkningar. Med hjälp av mekaniska eller elektromekaniska eller elektroniska additions- och multiplikationsmaskiner skulle processen kanske gå 100 gånger snabbare jämfört med ren handräkning (varje steg skulle då ta 0,3 s — förmodligen överoptimistiskt). Och skulle vi dessutom sätta en miljon matematiker på problemet så skulle vi ändå behöva vänta ca 257 000 år på lösningen. Dessutom skulle inte en miljon matematiker kunna samarbeta effektivt. Förmodligen skulle en avskräckande stor del av antalet producerade mantimmar gå åt till sammanträden och informationsutbyte mellan alla dessa matematiker för att undvika dubbelarbete och för datautbyte. Och sist men inte allra minst; sätt människor att räkna i tiotusentals år och förr eller senare (antagligen redan efter några dagar) kommer någon att göra det första räknefelet. Och eftersom numeriska beräkningar är helt beroende av att de beräkningar som dittills gjorts är korrekta, skulle alla efterföljande beräkningar bli mer och mer felaktiga, dvs hela företaget är dömt att misslyckas.

 

Kaos och fraktaler

Ett ytterligare problem i sammanhanget är att vissa ekvationer inom naturvetenskapen är instabila. Normalt gäller att om man förändrar ett värde i en formel, så förändras slutresultatet på motsvarande sätt. Dvs gör man små förändringar i de värden man sätter in i formeln så får man ganska små förändringar i resultatet. Instabila ekvationer kännetecknas av att små förändringar i input kan ge dramatiska förändringar i output. Eftersom väderdata och liknande mäts med begränsad noggrannhet, finns risken, när man sätter in dessa data i en formel, att felet i indata (mätosäkerheten) förstärks så mycket att resultatet blir mer eller mindre meningslöst. Här gäller det att hålla tungan rätt i mun.

Instabila ekvationer är nära kopplat till kaos och kaosteori (den senare är ett viktigt område inom den moderna matematiken). Kaotiska system kännetecknas av att små variationer kan fortplantas till enorma förändringar. Trots att de ekvationer som beskriver dessa system är deterministiska, dvs i princip ger exakta förutsägelser, så kan de ibland producera i praktiken helt oförutsägbara resultat.

Determinism innebär att verkan är exakt bestämd av orsaken. Dvs vet man utgångspunkten exakt så kan man räkna fram vad som kommer att hända exakt. I fallet kaotiska system är emellertid systemet så "känsligt" så att minsta förändring av indata dramatiskt kommer att förändra utdata (dvs förutsägelsen). Ungefär som att en liten sten som börjar rulla kan få en hel bergssida att rasa (på grund av att bergssidan var instabil). Detta brukar kallas lavineffekten. Stoppar man in exakta siffror i en ekvation, som beskriver ett kaotiskt system, får man ett exakt svar på vad som kommer att hända (vilket kännetecknar determinism). Kaotiska system är således teoretiskt deterministiska och därmed exakt förutsägbara, men i praktiken mer eller mindre omöjliga att förutsäga (eftersom vi aldrig har tillgång till exakta mätdata). Våra noggrannaste mätningar har runt 8 värdesiffror. Oftast har man betydligt mindre än så. Det betyder att man även i bästa fall har en avvikelse från det exakta värdet. Denna avvikelse kommer, även om den är liten, när den sätts in i ekvationer som beskriver kaotiska system, att dramtatiskt förändra vad ekvationen förutsäger. Därför måste man vara mycket försiktig när man gör förutsägelser om katotiska system (som väder och klimat).

I samband med kaotiska system talar man ibland om den s k fjärilseffekten, dvs att en fjärils svaga vingslag, genom en kedjereaktion av orsak och verkan, kan ge upphov till en tropisk orkan som ödelägger hela städer (dvs en nästan omätbar förändring kan ge upphov till dramatiska förändringar). Eftersom de ekvationer som beskriver väder och oceaner ofta är instabila, är det notoriskt svårt att göra tillförlitliga simuleringar. Speciellt när det gäller förändringar över lång tid. Det är ju bara att titta på tillförlitligheten hos de femdygns- respektive tiodygnsprognoser som ges. Hur mycket svårare måste det då inte vara att förutsäga klimatet 100 eller 1000 år framåt i tiden! För att inte säga omöjligt.

Teorin för de s k fraktalerna är nära släkt med kaosteorin. Den intresserade läsaren kan läsa en sammanfattning av fraktaler i denna korta artikel.

Det finns de som menar att klimatet inte utgör ett kaotiskt system. FN:s klimatpanel IPCC erkände dock redan 2001 att väder- och klimatsystemen är kaotiska, dvs de erkände indirekt att långsiktiga väder- och klimatförutsägelser är omöjliga. Man skriver inledningsvis:

Klimatsystemet är ett kopplat, icke-linjärt, kaotiskt system [fetstil tillagt av Krister], och därför är inte långsiktiga förutsägelser av framtida klimattillstånd möjliga. Fokus måste snarare läggas på förutsägelser av sannolikhetsdistributioner för systemets framtida möjliga tillstånd genom att man genererar ensembler av lösningar till klimatmodellerna.

En utmärkt sammanfattning som jag helt instämmer i. Så här formulerar sig objektiva vetenskapsmän kunniga i matematik. Men sedan detta skrevs tycks IPCC alltmer ha glidit över till klimataktivism med en agenda. På nätet hittar man oändliga diskussiontrådar som menar sig visa att IPCC:s formulering ovan är missvisande (att följa en enda sådan tråd och läsa alla referenser etc skulle antagligen ta resten av mitt liv — det kallas "argumentation genom utmattning"). Diskussionerna i dessa trådar innehåller väldigt mycket ord men alltför lite substans. Slutsatsen är oftast att klimatet, även om det kanske har vissa kaotiska aspekter, ändå kan förutsägas med tillfäcklig noggrannhet för att forma en meningsfull framtida klimatpolitik. Det gäller bara att använda statistiken på rätt sätt. Och det är ju precis det som är problemet med sådana här diskussioner. Intelligenta människor kan i princip bevisa vad som helst, eftersom de är duktiga på att argumentera. Problemet är att skicklig argumentation kan innebära (och tyvärr alltför ofta innebär) "konsten att vinna en diskussion fast man har fel". Intelligenta människors stora svaghet är att de ofta lurar sig själva (en egenskap jag döpt till "dummeligens" och skrivit en artikel om). Intelligens är inte samma sak som vishet! Intelligens utan vishet kan leda hur fel som helst. Och ju smartare man är desto mer fel riskerar det att bli.

IPCC:s formulering "genererar ensembler av lösningar till klimatmodellerna" leder till olika sätt att angripa problemet. En teknik är att man gör flera simuleringar utifrån en viss klimatmodell där man väljer olika, närliggande startvärden. Får man resultat som är något så när samstämmiga så utgår man från att den modell som använts är ganska stabil och ger acceptabla förutsägelser. Man kan också använda många olika modeller och starta med samma ingångsvärden. Om då flera modeller ger ungefär samma förutsägelser, väljer man någon typ av medelvärde för dessa (det finns många olika typer av medelvärden; artimetiska, geometriska, viktade etc). En gammal elev jag träffade för några år sedan arbetade som meteorolog och berättade att han bl a gjorde långsiktiga snöprognoser för skidorter med den tekniken.
Förutsättningen för att dessa tekniker skall fungera är att modellerna något så när väl avspeglar verkligheten. Huruvida så är fallet är en öppen fråga.

Det här påminner om det man inom matematiken lite skämtsamt kallar gsg-metoden (gsg = "går det så går det"). Denna metod används ibland när man löser differentialekvationer. Man gissar (utifrån sin matematiska erfarenhet) en lösning som man sätter in i ekvationen och kanske justerar några konstanter. Eftersom lösningen satisfierar ekvationen vet man att den är korrekt (en svaghet med gsg-metoden är svårigheten att veta om man hittat alla existerande lösningar — en ekvation kan ju ofta ha flera lösningar och även om man hittat en lösning så kan det ju finnas fler). Gsg-metoden fungerar emellertid inte när det gäller klimatvetenskap. Här har vi ingen ekvation som fullständigt beskriver det system vi vill simulera, och som vi kan stoppa in vår lösning i och därigenom verifiera den. I sådana här sammanhang smyger det sig lätt (och omedvetet) in mänskliga bedömningar som riskerar att kontaminera våra lösningar. Statistik kan missbrukas och innebära att man (medvetet eller omedvetet) använder statistiken för att komma fram till det önskade resultatet (detta kallas confirmation bias och är ett välkänt psykologiskt fenomen, som bl a lett till ett antal svåra flygolyckor). Det är i och för sig sant att klimatprognoser, som redan i sig innefattar statistiska filter, blir mindre kaoskänsliga än väderprognoser. De snabba statistiska fluktuationerna i vädret jämnar så att säga ut sig och blir mer stabila långsiktigt (dvs när man studerar klimatet). Och tar man sedan globala medelvärden blir systemet ytterligare mer stabilt. Ungefär som att de kvantmekaniska fluktuationerna hos atomära objekt tar ut varandra i makroskopiska kroppar, vilket leder till att kvantmekanikens statistiska förutsägelser övergår i den klassiska fysikens deterministiska lagar. Problemet är att eftersom vi inte har någon heltäckande, korrekt klimatmodell, är det omöjligt att avgöra hur stor inverkan klimatets kaotiska natur har på våra klimatförutsägelser och i vad mån klimatet är mindre kaotiskt än vädret. Att vi inte har någon fullständig och komplett klimatmodell innebär dessutom att även om klimatet inte vore kaotiskt, så gör bristerna i våra modeller att våra klimatprognoser i alla fall kommer att vara mycket osäkra. Och vi kan inte ens beräkna hur osäkra de är, eftersom vi inte vet hur alla parametrar samverkar. Allt detta motiverar jag i mina texter. Så att klimatmodellerna är osäkra, ja där viker jag inte en tum.

På grund av problemets komplexitet tvingas man, som sagt, ofta att göra mer eller mindre grova förenklingar vid simuleringar. Dels att ha låg upplösning (dvs glest mellan beräkningspunkterna) dels göra stora tidshopp (för att komma långt framåt i tiden — 100-tals eller 1000-tals år — genom ett litet antal tidssteg). Alltför grova förenklingar kan emellertid leda till att man hamnar helt fel. Och alltför detaljerade beräkningar gör å andra sidan att beräkningskostnaden blir för hög (datortiden som krävs blir orealistiskt lång och kostar dessutom alldeles för mycket pengar).

Som påpekats ovan så innehåller alltid indata (baserade på mätningar) mätfel, dvs osäkerheter. Det är helt enkelt omöjligt att göra exakta mätningar. Vid en simulering fortplantas dessa osäkerheter i indata vid varje iteration. Vid instabila ekvationer (vilket vi har vid klimatsimuleringar) kommer mätfelen att förstoras vid varje beräkningssteg. Dvs osäkerheten i våra beräkningar växer ju längre beräkningarna fortsätter. Vid simuleringar som sträcker sig långt fram i tiden riskerar denna osäkerhet därför att växa tills de förutsägelser som görs blir i princip helt meningslösa. Alltså måste man vara synnerligen skeptisk till långsiktiga klimatprognoser.

 

Ett praktiskt exempel

På en institution där jag arbetade, studerade en forskargrupp proteinsyntesen med hjälp av grundläggande kvantfysik. Men försökte bygga kvantmekaniska modeller för hur enstaka molekyler interagerar och sedan med hjälp av dessa beskriva hur proteinsyntesen går till på den atomära nivån. Detta gav upphov till oerhört komplexa ekvationer, vilka tog lång tid att lösa med datorkraft. Nu kommer jag inte ihåg några exakta siffror, men låt oss säga att varje sådan beräkning (ett tidssteg framåt) tog 4 minuter superdatortid. För att beräkningarna skulle konvergera mot en lösning kunde man bara ta små tidssteg, typ en nanosekund (10-9 s). Eftersom proteinsyntesen tar ca 60 s (på ett ungefär) var man tvungen att stega fram i nanosekundsteg under en hel minut (60 s). Om varje beräkningssteg tog 4 minuter, blir beräkningstiden för att beskriva en hel proteinsyntes utifrån kvantmekanikens lagar 4⋅60⋅109 s=7605 år. Dvs problemet var i praktiken olösligt. För att praktiskt kunna lösa uppgiften tvingades man därför att förenkla problemet.

En aminosyra består av ca 20 atomer och ett relativt enkelt protein innehåller ca 500 aminosyror, dvs ett enkelt protein består av ca 10000 atomer (grovt räknat). Atomerna växelverkar med varandra parvis (ungefär som att planeterna i solsystemet växelverkar gravitationellt med solen och med varandra — Jorden växelverkar med Solen, Månen, Mars, Venus etc och varje annan planet växelverkar med solen plus varje annan planet och måne). I fallet atomer handlar det inte om gravitation utan om elektrisk växelverkan, men principen är densamma. När vi studerar proteinet i det atomära perspektivet måste vi därför ta hänsyn till alla dessa parvisa växelverkningar. Det finns 10000⋅(10000+1)/2=50005000 dvs ca 50 miljoner olika sätt som 10000 atomer kan växelverka parvis med varandra. Detta leder till oerhört komplicerade ekvationssystem med tiotals miljoner obekanta. Sådana ekvationer kräver mycket datorkraft för att lösa. Alltså måste man införa approximationer och förenklingar, t ex att man enbart tar hänsyn till hur de mest närliggande atomerna växelverkar med varandra och sedan representerar växelverkan med övriga atomer genom någon typ av medelfält.

Dessa och liknande förenklingar gör att problem av denna typ kan lösas med rimlig beräkningstid. Problemet med sådana förenklingar är att man kanske inte längre vet hur väl den erhållna lösningen avspeglar verkligheten. Risken finns att simuleringen i detta fall kanske säger mer om själva simuleringen (och dess brister) än vad den säger något om proteinsyntesen. Ovanstående exempel gällande proteinsyntes utgör ett exempel hämtat ur mitt åldrande minne. Det kan hända att de siffror jag anger ovan inte stämmer så bra, men det spelar ingen som helst roll, eftersom jag försöker visa på principer. Principiellt är mitt resonemang helt korrekt och belyser de svårigheter som uppstår när man försöker simulera komplexa fenomen (som väder och klimat).

 

Temperaturuppskattningar under geologisk tid

En ytterligare svårighet är att det inte finns ordentliga, systematiska temperaturmätningar (vindmätningar, lufttrycksmätningar etc) i global skala längre tillbaka i tiden än mitten av 1800-talet (eller snarare 1880-talet). Skall man seriöst undersöka jordens temperaturvariationer etc, måste man givetvis titta på hur temperaturer etc har varierat under jordens tidigare historia. Helst vill man gå miljoner eller t o m miljarder år bakåt i tiden. Kanske har vi haft stora temperaturvariationer långt innan människan utgjorde en faktor på jorden (detta diskuteras i del 4)?

Finns det då någon metod med vars hjälp vi kan uppskatta temperaturer under jordens tidigare historia? Ja, det finns ett flertal sådana. En är att man jämför halten av olika syreisotoper (och även andra ämnens isotoper) i skalen efter vissa typer av plankton eller i iskärnor (borrkärnor) tagna från glaciärer.

En vattenmolekyl består av två väteatomer och en syreatom. I vatten förekommer två olika, stabila (dvs som inte sönderfaller radioaktivt) syreisotoper; syre-16 (normalt syre), som är den vanligaste, och syre-18 (som innehåller två neutroner ytterligare i kärnan — antalet neutroner påverkar atomernas vikt, men inte deras egenskaper). De vattenmolekyler som innehåller syre-16 är således lättare än de som innehåller syre-18 och avdunstar lättare. Den vattenånga som med vindarna transporteras mot polerna innehåller därför en större proportion syre-16 än det vatten den bildades ur. Under transporten kyls vattenångan av när lufttemperaturen avtar och blir så småningom nederbörd under resans gång. De tyngre vattenmolekylerna (med syre-18) faller lättare ut som regn eller snö. Den vattenånga som så småningom når polerna och faller ned där som nederbörd (och blir en del av isen) kommer därför att innehålla avsevärt mindre proportion syre-18 än vad det ursprungliga havsvattnet gjorde. Båda mekanismerna som anges ovan (avdunstning och nederbörd) bidrar till detta. Under perioder med lägre temperaturer sträcker sig den kalla polarregionen längre ut mot ekvatorn och mer syre-18 hinner falla ut som nederbörd innan vattenångan når polarområdet. Dvs ett kallare klimat ger ett större förhållande syre-16/syre-18 i polarisarna än vad ett varmare klimat gör. Under varmare perioder smälter isen och det syre-16 (och givetvis också det syre-18) som är bundet där återförs till havsvattnet.
Vatten innehåller också två olika väteisotoper; vanligt väte och deuterium. Det vanliga vätet har en atomkärna bestående av en proton och inget mer, medan deuteriumkärnan består av en proton och en neutron (det finns även en ytterligare väteisotop, tritium, som har två neutroner i kärnan, men den kan bortses från, eftersom den är så ovanlig). De vattenmolekyler som innehåller deuterium kallas tungt vatten. Ungefär samma sak gäller här som beskrivits i föregående stycke när det gäller syreisotoperna. Båda metoderna används och ger ungefär samma resultat.

Genom att med känsliga masspektrometrar mäta proportionerna syre-16/syre-18 i isproppar (ju längre ned man går i isproppen desto längre bakåt i tiden kommer man) och i skal efter plankton (tiden får man här genom att titta på hur djupt i sedimentlagren dessa plankton ligger), kan man därför uppskatta temperaturer långt bakåt i tiden. Man har tagit fram en standard (VSMOW — Vienna Standard Mean Ocean Water) med vilken mätresultaten jämförs (VSMOW är helt enkelt ett isotopmässigt standardiserat havsvatten som åstadkommits genom att man blandat havsvatten från olika delar av världshavet i vissa, teoretiskt beräknade proportioner).

En osäkerhet här är givetvis dateringarna av ispropparnas olika lager och de olika sedimentlagren (studier av lager ger relativa och inte absoluta dateringar). När det gäller iskärnor kan man räkna årslager, eftersom man ofta (men inte alltid) kan skilja mellan den is som avlagras sommartid respektive vintertid. Ju längre bakåt i tiden man kommer desto svårare blir det emellertid att urskilja de olika lagren i isen, eftersom skikten trycks ihop mer och mer ju djupare de ligger. I detta fall kan ispropparna ibland dateras radiometriskt med uran. De längsta iskärnorna har man tagit fram i Antarktis och dessa kan vara upp till 3 km långa (bakom detta ligger ett oerhört arbete av stora forskarteam). På så sätt har man kommit ca 750 000 år bakåt i tiden. För att komma ännu längre tillbaka tittar man på avlagrade planktonskal i sedimenten på havsbotten och i sedimentära bergarter. Här måste man vid dateringar ibland (i avsaknad av bättre information) göra antaganden som bygger på gissningar (t ex att sedimenteringen skett med konstant hastighet). Ju längre bakåt i tiden man går, desto osäkrare blir givetvis dateringarna.

En ytterligare metod, som kompletterar de andra är att man tittar på årsringar hos träd (även döda och fossila träd kan användas). Varmare och kallare klimat avspeglas i tjockare eller smalare årsringar. Genom att undersöka vilka organismer som förekommer i fossil från olika lager kan man också få en uppfattning om temperatur och klimat när lagret bildades (förekomsten av palmer talar t ex för ett varmt klimat).

Problemet är att man ofta får olika resultat beroende på vilka isotoper och vilka metoder som används. Resultatet skiljer sig också mellan olika prover. Detta är fullständigt normalt. För att försöka få en uppfattning av temperaturen gör man därför statistisk analys av de olika resultaten. Man tilldelar sedan de olika metoderna olika vikt när man beräknar temperaturmedelvärdet. Dessa viktningar innehåller ett mått av godtycklighet och det finns en risk att man (medvetet eller omedvetet) viktar så att man får precis det resultat man vill ha (t ex den s k "hockeyklubb-grafen" där jordens medeltemperatur är i stort sett konstant för att sedan öka linjärt i och med att industrialiseringen tar fart — om jag skall vara ärlig så känns denna graf väldigt konstruerad). Här krävs mycket självkritik för att resultatet skall hålla hög vetenskaplig standard. Och inte bara självkritik utan att också andra forskare både vill och får granska de olika resultaten kritiskt. Och att man presenterar sina rådata. Det sistnämnda har det tyvärr brustit mycket i när det gäller klimatforskningen, vilket kommer att diskuteras i nästa artikel i denna serie.

Denna temperaturgraf är framtagen med hjälp av iskärnor från en glacial forskningsstation (Crete) på centrala Grönland. Den visar hur den globala årliga medeltemperaturen varierat under de senaste 10 000 åren. De flesta temperaturgrafer visar temperaturdifferenser relativt en definierad standardtemperatur men den här grafen visar absoluta temperaturer. (Källa: Daansgaard 1984, Avery 2009)
"Extent of Thermometer Record" anger den period (från ca 1880) under vilken man gjort direkta temperaturmätningar (med hjälp av termometrar). Denna period utgör således ett kort "ögonblick" i vår planets historia.

Grafen ovan är resultatet av dateringar genom iskärnor (den danske geofysikern Villi Daansgaard, som gjorde den ursprungliga versionen av grafen ovan, var i början av 1950-talet pionjär när det gällde att analysera forna tiders klimat genom syreisotopmätningar på glaciäris). För det första är denna graf intressant, eftersom den visar att temperaturen hela tiden varierar och att dagens höga temperaturer inte på något sätt är exceptionella. Vi ser att från för 8000 år sedan och framåt är varma perioder (röda områden) betydligt vanligare än kalla (blå områden).

Det är uppenbart att de angivna temperaturerna inte gäller lokalt för den plats iskärnan är hämtad från. Att så är fallet framgår av att från för 8000 år sedan och fram till idag så varierar temperaturen i grafen ovan mellan ca 14°C och drygt 16°C. Detta kan knappast gälla Grönland. T ex så är den årliga medeltemperaturen idag i Nuuk (sydvästra Grönland) -1,4°C. Temperaturen "mäts" ju genom att man mäter proportionerna mellan syre-16 och syre-18 (och vanligt väte och deuterium) i iskärnor och de fysiska mekanismerna bakom dessa mätningar (dvs varför dessa proportioner avspeglar temperaturen) har förklarats ovan. Det handlar om ett komplicerat samspel av processer där vattenånga från havet med vindar transporteras mot polarområdena och på vägen dit eventuellt faller ned som nedetbörd som avdunstar och åter blir vattenånga som rör sig mot polerna och slutligen faller ned som snö, vilken så småningom komprimeras till is. Dvs proportionerna mellan syre-16/syre-18 avspeglar inte temperaturerna lokalt på Grönland utan temperaturerna inom ett mycket större område. Kanske ända från ekvatorn till platsen där iskärnan tas?

Rent konkret så mäter man isotopproportionerna (syre- och väteisotoper) från iskärnor och jämför resultatet med motsvarande isotopproportioner hos VSMOW (standardhavsvatten — se ovan). Forskarna har under många år mätt dessa isotopproportioner i prover hämtade från nutida snöfall i polarområdena och har sedan kunnat kalibrera dessa mätningar mot den samtidigt mätta globala årsmedeltemperaturen. Genom denna kalibrering har man fått ett samband mellan isotopproportionerna i snön och den globala årsmedeltemperaturen (inom det mätta temperaturområdet, vilket är väldigt begränsat) och menar sig därmed kunna mäta temperaturer hundratusentals år eller mer bakåt i tiden (där temperaturerna ligger långt utanför det område som metoden kalibrerats för). Här finns därför osäkerheter. T ex så kan forntida vind- och vädersystem ha varit annorlunda mot idag, varför vattenångans väg mot polarområdena kan ha varit annorlunda och tagit längre eller kortare tid. Något som skulle kunna leda till andra samband mellan isotopproportioner och temperatur än vad kalibreringskurvorna anger.

Förutom iskärnor har vi, som nämnts ovan, sediment efter plankton, där man också kan mäta på samma syre- och väteisotoper. Men där blir dateringarna mer osäkra (eftersom vi inte har några spår av sommar/vintersäsonger). Och även där kommer de temperaturdata man får fram att påverkas av ett stort område, eftersom proportionerna mellan syre-16/syre-18 etc uppkommer på liknande sätt som vid mätningar på iskärnor.

 

Tolkningar och svårigheter

Slutsatser som bygger på statistik leder normalt fram till korrelationer, dvs man konstaterar att vissa variabler samvarierar. Graden av samvariation kan uttryckas på olika sätt, t ex genom den s k korrelationskoefficienten. Om denna är 1 för två variabler, så innebär det att dessa två variabler varierar på exakt samma sätt (dvs följer varandra synkront). Problemet är att korrelation inte nödvändigtvis och inte alltid innebär kausalitet (orsak och verkan). Det senare innebär att förändring av den ena variabeln orsakar att den andra variabeln förändras eller tvärtom. Om t ex koldioxidhalten och jordens medeltemperatur samvarierar (är korrelerade) så bevisar inte detta med 100-procentig säkerhet att den ena variabeln påverkar den andra. Inte heller visar det, per se, vilken variabel som utgör den orsakande faktorn (om vi har ett kausalt samband). Till detta krävs att man till fullo förstår de kausala mekanismerna (om de finns). För att ta den aktuella klimatfrågan så skulle det ju teoretiskt kunna vara så att det är ökningen av jordens medeltemperatur som orsakar att koldioxidhalten ökar.

Vatten kan lagra koldioxid. Ju lägre temperatur vattnet har, desto mer koldioxid kan lagras. Jordens hav innehåller enorma kvantiteter koldioxid. Om jorden blir varmare, kommer världshavet givetvis att blir varmare, vilket innebär att mindre koldioxid kan lagras där. En global uppvärmning kommer således att leda till att havet avger stora kvantiteter koldioxid till atmosfären, dvs koldioxidhalten i atmosfären ökar. Huruvida detta skulle kunna förklara den ökande koldioxidhalt som vi ser idag vet jag inte. Men det spelar ingen roll. Jag tar bara detta som ett principiellt exempel.

Eller också skulle det kunna vara så att det finns en tredje faktor, vilken gör att både koldioxidhalt och medeltemperatur ökar. Och även om koldioxidhalten verkligen orsakar temperaturökningen, så är nästa fråga i hur hög grad människans utsläpp orsakar detta (teoretiskt kan människans påverkan ligga mellan 0 och 100 procent). Och oavsett hur det förhåller sig så måste under alla förhållanden varje påstående som görs granskas och analyseras.

Ett ytterligare problem när det gäller att ställa upp matematiska modeller för klimatets utveckling är att vi inte idag till fullo förstår alla mekanismer som är inblandade. En av Sveriges ledande klimatforskare, Lennart Bengtsson, har många gånger påpekat att vi vet väldigt litet när det gäller molnens betydelse för klimatet och att det skulle behövas mycket forskning inom detta område för att öka exaktheten hos våra klimatmodeller och därmed våra simuleringar (Bengtsson är, till skillnad från de flesta av de mer högljudda språkrören för klimatalarmismen, en välmeriterad forskare när det gäller klimatet — han är professor i dynamisk meteorologi vid Max-Planck-Institut für Meteorologie i Hamburg och var föreståndare för detta institut 1991-2000). Vill vi verkligen lösa klimatfrågan behöver vi således fler högutbildade, kunniga klimatforskare än vad vi behöver skolkande, affischviftande skolungdomar. Hur entusiastiska den senare kategorin än må vara så kommer de definitivt inte att lösa problemet med den globala uppvärmningen. Och speciellt inte genom att påstå att Västvärldens kolonialism, rasism och patriarkat är orsaken till den globala uppvärmningen. Sådant kommer bara att göra att många, många människor kommer att distansera sig från klimatfrågan. Och det för oss ju knappast närmare en lösning.

De som hörs mest i klimatdebatten (även om de ibland har höga akademiska examina och titlar) är oftast inte klimatforskare utan kan mer betraktas som pålästa informatörer. Många är inte ens en gång naturvetare. Och väldigt få är matematiker eller fysiker eller kemister (som förstår själva grunden i de teorier som beskriver klimatet). Och detta är så typiskt vår tid, där så mycket bara är ett tomt skal. Jag säger inte att det inte kan behövas informatörer. Men det behövs också något att informera om. Och helst då något som dessutom är sant! Jag läste att svensk polis idag har ca 600 kommunikatörer (inom polisen har ordet informatör en helt annan betydelse nämligen "tjallare"). Tidigare rörde det sig antagligen om en handfull. Det hade kanske räckt med 20 kommunikatörer och sedan kunde de andra 580 ägnat sig åt riktig polisverksamhet. Men det är så det går till idag. Mycket snack och lite verkstad! Vi lever verkligen i en sjuk tid. Jag undrar vad historiens dom kommer att bli över Västvärlden under de första decennierna av 2000-talet. 1920-talet kom ju att kallas "det glada 20-talet". Kanske kommer 2020-talet att gå till historien som "dumhetens och förljugenhetens decennium". Jag skulle inte bli förvånad.

Men även om vi nu kunde lösa meteorologins och oceanografins ekvationer exakt (vilket vi inte kan), är det långt ifrån säkert att dessa ekvationer fullt ut beskriver den komplicerade verkligheten när det gäller klimatet (som påpekats i föregående stycke så lider t ex våra kunskaper om hur molnen påverkar klimatet av stora brister). Dvs, även om vi kunde lösa ekvationerna i sig exakt kanske simuleringen säger mer om våra klimatmodeller (och deras brister) än vad de säger något om klimatets framtida utveckling.

De flesta svenskar har aldrig hört talas om Freeman Dyson. Denne, som dog i februari i år (2020), har varit något av en doldis trots att han i mer än 50 år tillhört toppskiktet bland världens fysiker. Han har lämnat synnerligen viktiga bidrag till den moderna fysiken och var under en stor del av sitt liv verksam vid Institute for Advanced Study i Princeton, USA (där Einstein arbetade ända fram till sin död). Dyson har både i tidningsintervjuer och på Youtube uttalat sig om klimatet. Han är skeptisk till det klimatalarmistiska scenariot och menar att man måste ta klimatmodellerna med en rejäl nypa salt, eftersom de innehåller stora osäkerheter. Han är ingen klimatexpert, vilket han själv är noga med att påpeka, men han har en enorm och övergripande kunskap när det gäller matematiska modeller och flödesdynamik (en teknik som klimatmodellerna ofta använder). Tidigare arbetade han dessutom under vissa perioder med klimatfrågor. Så den typen av frågeställningar är inte främmande för honom. Han är dessutom en briljant matematiker så man kan inte utan vidare avfärda honom som "foliehatt" (ett finare ord för knäppskalle) eller liknande. Jag hittade en intressant intervju (givetvis på engelska) med honom, gjord av en journalist på tidskriften Scientific American. Där sammanfattar han sin syn på klimatfrågorna. Dyson förnekar inte den globala uppvärmningen men ifrågasätter om den verkligen är så negativ som påstås. Och precis som jag så klagar Freeman Dyson över den pinsamt låga nivån på klimatdebatten

Summa summarum: Simuleringar av komplexa fenomen innehåller alltid osäkerheter, vilket diskuterats ovan. Man måste därför alltid vara skeptisk till den typen av förutsägelser. Och ödmjuk. Och tillåta, ja uppmuntra till kritik. Teorier som inte tål kritik deltar inte i det vetenskapliga spelet och handlar oftast om ideologi och manipulation.

Jag skummade precis tidskriften Science (20/1 2020). Där fanns en artikel med rubrik "New signs of a shielding magnetic field found in Earth’s oldest rock crystals", som handlade om nya rön beträffande Jordens skyddande magnetfält (vilket skyddar atmosfären från att ”skrapas bort” av högenergetiska partiklar från Solen och dessutom skyddar levande organismer mot denna farliga strålning). Enligt en ny teori, baserad på nyligen gjorda mätningar, hade Jorden ett skyddande magnetfält 750 miljoner år tidigare än vad man tidigare trott. I artikeln skriver man:

Inte alla forskare är övertygade om resultatet [som presenteras i artikeln], eftersom detta skulle flytta tillbaka datumet när Jordens magnetfält bildades med 750 miljoner år. ”Det har funnits en stor forskargrupp som försökt bevisa att våra resultat är felaktiga”, säger Tarduno. ”Det är en del av det som kallas vetenskap [fetstil tillagt av mig].”

Och det är precis så det är och skall vara. Varje sund teori kritiseras (och dess anhängare accepterar och uppmuntrar till detta) av andra forskare. Om teorin står sig, trots kritiken, accepteras den, inte annars. En teori som vägrar låta sig kritiseras eller där anhängarna demoniserar kritikerna, är inte en vetenskaplig teori utan en ideologi!!! Om klimatalarmisterna (eller vad man nu vill kalla dem) vill att deras teori skall accepteras som vetenskaplig (vilket de uppenbarligen vill) måste de således acceptera att deras teori utsätts för skarp kritik. Och dessutom förväntas de bemöta denna kritik, inte med känsloutbrott och hot och förolämpningar (som att påstå att alla kritiker är köpta av oljebolagen om de inte rent av är nazister) utan med objektiva argument baserade på mätbara/observerbara fakta. Accepterar de inte detta, ja då bevisar de att deras agenda handlar om ideologi och inte vetenskap! Och då förtjänar de inte att tas på allvar! Och då motverkar de dessutom sin egen sak.

(Observera, jag har ännu inte redovisat var jag själv står i klimatfrågan! Det jag hittills redovisat är min grundinställning, att det handlar om en vetenskaplig fråga, som är alltför viktig för att den skall tillåtas att kapas av vänsterfascistliberalkapitalistideologer, dvs den rödbrungrönblåa röran och liknande.)

 

Fortsätt till del 4, Att tänja på sanningen en aning

 

Tillbaka till "Klimatet — en alltför viktig fråga för att låta känslor styra"
Tillbaka till sidan med aktuella kommentarer.
© Krister Renard