"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(okänd)

"Ormar äro älskliga varelser,
om man råkar tillhöra samma
giftgrupp"
(Artur Lundkvist)

"Ju längre ett samhälle
kommer från sanningen,
desto mer kommer detta
samhälle att hata dem
som säger sanningen"
(George Orwell)

"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)

"Civiliserade är de kulturer
och individer som respekterar
andra."
(hört på Axesskanalen)

"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)

"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)

"För att komma till flodens
källa måste man simma
mot strömmen."
(Stanislaw Jerzy Lec)

Senast ändrad: 2019 08 31 19:14

Shannons informationsbegrepp

Följande två avsnitt kräver vissa förkunskaper i matematik och kan hoppas över av den som så önskar.

Ett speciellt fall av dynamisk ordning utgörs av det vi kallar för information. Låt oss börja med att definiera vad man vetenskapligt menar med detta begrepp. 1948 lade den amerikanske matematikern C E Shannon grunden för den moderna informationsteorin. Shannons teori var i huvudsak avsedd att användas i samband med ingenjörsmässig kommunikationsteknik. Enligt Shannons definition är begreppet information intimt knutet till sannolikhetsbegreppet. Antag att i ett visst sammanhang endast två meddelanden är möjliga och att dessa har samma sannolikhet. Det kan t ex vara svaret på en fråga, där vi har de två möjligheterna ja respektive nej. Kunskap om vilket alternativ som gäller (ja eller nej) tilldelas då informationsmängden 1 bit (binary digit)[1]. Föreligger fyra lika sannolika alternativ A, B, C och D, förknippas denna situation med informationsmängden 2 bitar. Allmänt tillskrivs 2N lika sannolika möjligheter informationsmängden N bitar.[2] I okomplicerade fall som ovan kan man enklast definiera informationsmängden som det minsta antal frågor av ja- eller nejtyp som krävs för att få fullständig klarhet i vilken möjlighet som föreligger. I första fallet ovan räcker det naturligtvis med en fråga, medan det i andra exemplet krävs två frågor. De fyra alternativen A, B, C, D kan ju ordnas i en kvadrat med fyra rutor och de två frågorna kan då t ex vara "Finns det gällande alternativet i rad 1?" och "Finns det gällande alternativet i kolumn 1?" Med hjälp av ja- eller nejsvaren på dessa två frågor kan man omedelbart ringa in det aktuella alternativet (klicka här om du vill läsa mer om Shannons informationsdefinition — kräver gymnasiekunskaper svarande mot gymnasieskolans Matematik C)

Nära kopplat till Shannons informationsteori är cybernetiken, där man studerar den gemensamma beskaffenheten hos organismer, nervsystem, automater, datorer etc. Cybernetiken behandlar framför allt kontroll- och kommunikationsproblem hos sådana system.

Antag att vi önskar överföra information via en viss kanal (radio, optisk kabel eller dylikt). Shannon visade att kanalkapaciteten Ct uttryckt i bit/s (hur många bitar som kan överföras per sekund), bandbredden B (kanalens frekvensbredd) uttryckt i Hz, effekten P i watt och brusets s k spektraltäthet N0 i W/Hz alltid är relaterade enligt sambandet:
Shannons formel visar att ju mer information vi önskar överföra per sekund vid en viss sändareffekt P, desto större bandbredd B krävs. Av denna anledning kan datorer bara kommunicera med relativt låg hastighet på det vanliga telefonnätet, eftersom bandbredden där bara är några få kilohertz (med olika trick är det möjligt att under vissa förhållanden öka hastigheten, men det handlar trots detta om ganska begränsade förbättringar). Dataöverföring med hög hastighet sker därför på speciella, bredbandiga datanät, via optisk kabel, där man kan överföra flera terabit (miljoner megabit) per sekund. En annan konsekvens av sambandet ovan är att ju snabbare en radiotelegrafist sänder sina morsetecken, desto större frekvensutrymme tar sändaren.
Av formeln framgår också att man genom att öka effekten kan minska bandbredden vid en viss överföringshastighet. Ovanstående samband har naturligtvis mycket stor betydelse när det gäller radio- och datakommunikation.

Hur användbart Shannons informationsbegrepp än visat sig vara när det gäller att beräkna överföringskapacitet i en radiolänk eller lagringskapacitet i olika typer av minnen, har den emellertid föga gemensamt med vad vi i vardagslag menar då vi använder ordet information. Detta framgår tydligt av följande två exempel:

1. Ju osannolikare en följd av tecken (teckensträng) är, desto mer information innehåller den enligt Shannons definition. Detta leder till det absurda resultatet att en A4-sida fullskriven med någon ovanlig bokstav som t ex q, dvs qqqqqqqqqqqqqq..., innehåller mer information än en A4-sida med meningsfull text.

2. Med kännedom om olika bokstävers frekvenser i ett visst språk, kan man beräkna hur många bitar information varje bokstav representerar i detta språk. Även ordmellanrum (blanktecken), vilket här skrivs som "-", räknas som en bokstav. De fyra vanligaste "bokstäverna" i engelska språket är - (dvs blanktecken), e, t och o, med frekvenserna 0,2000, 0,1050, 0,0720 respektive 0,0654. I normal engelsk text består således 20% av tecknen av ordmellanrum, 10,5% består av bokstaven e, 7,2% av t och 6,54% av o. I engelska språket innehåller varje bokstav i genomsnitt 4,0577 bitar, medan i tyska språket genomsnittliga informationsinnehållet per bokstav är något högre, 4,11295 bitar.

Som ett exempel kan vi ta King James Bible (KJV), vilken är den mest kända engelska bibelöversättningen. Den innehåller 3 566 480 bokstäver och 783 137 ord, vilket ger totalt 3566480 + 783137 - 1 = 4349616 tecken (inklusive ordmellanrummen)[3]. Genom att multiplicera detta resultat med genomsnittliga informationsinnehållet per tecken (4,0577 bitar), får vi att KJV:s totala informationsinnehåll är ca 17,6 miljoner bitar. Motsvarande analys av den tyska Bibeln ger vid handen att denna innehåller mer information än den engelska Bibeln, trots att båda rimligtvis har identiskt (eller åtminstone närmast identiskt) innehåll.

Svagheten i Shannons definition framgår ännu tydligare vid en jämförelse mellan Shipiboindianernas språk (en indianstam i Peru) och engelska språket. Joh 1:1-4 i indianernas Bibel innehåller t ex enligt Shannons definition 5,2 gånger så mycket information som motsvarande verser i KJV, trots att vi givetvis även här bör ha nästan exakt samma information (innehåll) i båda fallen.[4]

Huruvida en text är meningsfull, förståelig, sann eller falsk har tydligen ingen betydelse för Shannons informationsbegrepp. Ovanstående visar att det antagligen hade varit mer klargörande om Shannon valt att använda ett annat ord än "information" då han formulerade sin teori. Och det var precis vad han gjorde. Han använde från början ordet "informationsentropi", men på grund av att detta ord är ganska otympligt så har det tyvärr förkortats till "information". Under alla förhållanden är det viktigt att skilja mellan den strikt matematiska definitionen av information och vad man praktiskt mänskligt sett betraktar som information.

Tillbaka till Livets uppkomst

Du kan läsa mer om livets uppkomst i:
Fem nödvändiga aspekter av information


[1] I en dator har de två alternativen beteckningarna 0 och 1, där 0 representeras av spänningen 0 volt och 1 av 5 volt (i själva verket handlar det om spänningsintervall; logisk 0 innebär 0-0,4 volt och logisk 1 representeras av 2,7-5 volt — spänningar utanför dessa värden, dvs mellan 0,4 och 2,7 volt, kan inte tolkas av kretsarna och gör att systemet hänger sig eller börjar självsvänga). Tal och bokstäver representeras med kombinationer av ettor och nollor, där varje etta eller nolla har informationsinnehållet 1 bit. I samband med beräkningar använder man det s k binära talsystemet, enligt vilket de tio första talen (0-9) ges av 0, 1, 10, 11, 100, 101, 110, 111, 1000, 1001 och 1010. Det decimala talet 6 representeras således i en dator av det binära talet 110 (tre bitar) medan 9 ges av 1001 (4 bitar). Varje bokstav och siffra i vanlig text representeras av en kombination av åtta bitar, en s k byte, vilken utgör enheten för minnesstorlek i ett RAM (arbetsminne), på en hårddisk eller ett USB-minne etc (Obs! 1 kbyte = 1024 bytes etc). Bokstaven A motsvaras t ex av 01000001, B av 01000010 etc. En byte (8 bitar) kan representera 256 (28) olika tecken (små och stora bokstäver, siffror, skiljetecken, mellanslag, ny rad etc plus ett antal symboler).
[2] Varje alternativ har då sannolikheten 1/2N, där 2N = 2·2·2·2·2·...·2 (N st tvåor), t ex så är 22 = 2·2 = 4, 25 = 2·2·2·2·2 = 32 etc.
[3] Att man drar bort ett beror på att antalet ordmellanrum i en text alltid är lika med antalet ord minus ett. I en mening med t ex tre ord finns två ordmellanrum.
[4] Under förutsättning att översättningarna är korrekt gjorda. Exemplet hämtat ur Energi-optimal durch Information, av professor Werner Gitt, Hänssler, Stuttgart, 1986, sid 56 och 61. Orsaken att man ofta väljer Bibeln vid sådana här jämförelser är att den finns översatt till fler språk än någon annan bok.
© Krister Renard