"Godhet utan vishet och utan
gränser är bara en annan
form av ondska."
(John Paterson)

"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(Okänd)

"Ormar äro älskliga varelser,
om man råkar tillhöra samma
giftgrupp"
(Artur Lundkvist)

"När försiktigheten finns överallt,
finns modet ingenstans."
(den belgiske kardinalen Mercier)

"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)

"Civiliserade är de kulturer
och individer som respekterar
andra."
(Hört på Axesskanalen)

"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)

"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)

Senast ändrad: 2025 04 14 10:31

Artificiell intelligens (AI/AGI) — vad är det?

 

(Note: at the top of the page you can choose translation of this article to other languages, but don't expect the translation to be perfect — "Välj språk" means "Choose language")

Föreliggande artikel utgör en allmän diskussion om artificiell intelligens och kompletteras av en mer djuplodande artikel om neurala nätverk. Artikeln handlar inte om tekniska detaljer utan försöker ge en övergripande, principiell förståelse av det vi kallar artificiell intelligens

Idag talas det mycket om AI (Artificiell Intelligens/Artificial Intelligence) och folk imponeras storligen — utan att egentligen veta vad de imponeras av. Till stora delar handlar AI helt enkelt om smart och snabb informationshantering. Att AI har gått fram så starkt på sistone är för att tiden var mogen. Vi har idag tillgång till extremt snabba datorer (som kan göra lika många beräkninger eller logiska operationer på 1/1000 sekund som vad en miljon människor kan göra tillsammans under hela sin livstid. Under senare år har man utvecklat eller förfinat programvaror (t ex neurala närverk) och hårdvaror, som kan hantera enorma mängder information både snabbt och smart (dvs som inte bara tar fram informationen utan också gör den strukturerad och lättfattlig och översiktlig). Eftersom en AI kan göra avancerade matematiska beräkningar eller komplexa logiska operationer på bråkdelen av en sekund, ger den ett intryck av överlägsen intelligens, trots att dessa beräkningar bygger på helt mekaniska operationer följande en given mall. Beträffande AI:s förmåga att lösa riktigt svåra matematiska problem, för vilka inte finns färdiga lösningsstrategier, så har AI stora problem och går ofta bet. Men vi återkommer till detta. De flesta vanliga människor använder AI som en superuppslagsbok, ett super google, för att få fram information, enkelt och bekvämt. Detta har emellertid inte så mycket med verklig intelligens att göra. Men kan ge intryck av stor intelligens!

Innan vi går vidare, låt mig först klargöra några saker. Artificiell Intelligens (AI) har funnit länge. De olika sökmotorerna på Internet utgör exempel på detta. Google translate är ett annat exempel. GPS-navigatorer som föreslår kortaste eller mest natursköna eller snabbaste vägen mellan A och B är ett tredje. I alla dessa fall handlar det om funktioner som utför en specifik uppgift. Och kan utföra den bra. Ibland bättre än en människa. Men det handlar om intelligens som endast klarar mycket begränsade uppgifter. Till skillnad från mänsklig intelligens, som även utan utbildning och tidigare erfarenheter kan lösa svåra problem (även om givetvis utbildning och erfarenheter gör att man slipper göra en massa nybörjarfel).

Artificiell Generell Intelligens (AGI) är AI upplyft till en mycket högre, generell nivå. AGI består av många olika AI-funktioner (enligt föregående stycke) som är integrerade i ett större sammanhang och underordnade en högre nivå av AI. På så sätt kan isolerade kunskaper och förmågor samverka utifrån en högre nivå av intelligens. Vilket gör att man får något som är mycket större och mycket kraftfullare än de enskilda delarna. Detta påminner om vissa modeller för hur den mänskliga hjärnan fungerar. Med AGI strävar man efter att närma sig mänsklig, kognitiv nivå. Det handlar med andra ord inte bara om en avancerad sökmotor eller något som kan utföra en viss uppgift, utan om något som kan dra allmänna slutsatser och se mönster och förklara hur saker och ting fungerar och hänger ihop. Och kanske till och med kan göra egna upptäcker och uppfinningar och själv skriva böcker och musik. Det råder mycket delade meningar om hur långt vi kommit när det gäller AGI. De flesta forskare är överens om att vi är långt ifrån AGI i den mening som beskrivs i de sista meningarna, men vi har utan tvekan kommit en bra bit på vägen under de senaste åren. Nedan använder jag termen AGI, eftersom det vi har idag (t ex ChatGPT) är ett stort, stort steg framåt mot vad vi haft för bara ett par år sedan.

Det finns ett ytterligare begrepp som är intimt kopplat till AGI. Det förkortas LLM, vilket betyder Large Language Models (Stora, Omfattande Språkmodeller). En LLM utgörs av mycket stora djupinlärande modeller som förtränas på enormt stora datamängder. Den underliggande programvaran består av neurala nätverk som innefattar en kodare och en avkodare och kapacitet för "självuppmärksamhet" (self-attention). Det senare innebär att en LLM tolkar en text inte bara sekventiellt (ord för ord) utan också parallellt (det är därför grafikprocessorer, kallade GPU, är så effektiva i sammanhanget, eftersom de är gjorda för att bearbeta stora datamängder i parellella trådar — detta diskuteras längre fram i föreliggande artikel). LLM är kapabla till oövervakad träning, kallad självinlärning och är väldigt flexibla, även om de också har brister, vilket kommer att framgå av den följande texten.

Föreliggande artikel behandlar i första hand AGI, även om AI finns i bakgrunden.

AI och AGI kan köras på en vanlig dator med vanliga processorer (CPU och GPU) och med hjälp av konventionellt programmerade program (bestående av stegvisa instruktioner om hur indata skall behandlas). AGI behöver således inga speciella processorer eller datorer. Däremot kan en AGI snabbas upp och bli mer kraftfull på olika sätt. Den kan exempelvis vara programmerad som LLM, vilka i sin tur exekveras på s k neurala nätverk (fortsättningsvis kallade NN). Dessa nätverk kan köras på vanliga processorer (även om det inte är optimalt). Ännu mycket mer kraftfull kan AGI bli om de neurala nätverken körs på processorer specialdesignade för NN. Kraftfulla AGI bygger idag alltmer på neurala nätverk (även om också andra lösningar testas). NN fungerar väldigt annorlunda jämfört med konventionella program. De senare består av en kedja av instruktioner, skrivna av programmerare, dvs av människor. Dessa instruktioner bestämmer detaljerat vad som skall ske med indata. Neurala nätverk å andra sidan programmerar i princip sig själva utifrån de krav som ställs (läs denna korta artikel för en översiktlig beskrivning av neurala nätverk). I detta fall ställs kraven av människor medan det neurala nätverket självt skapar motsvarigheten till programkod för att uppfylla de ställda kraven.

NN kan således köras på vanliga processorer (CPU) men det blir inte speciellt effektivt. Ju fler kärnor processorn har desto bättre fungerar det emellertid. Grafikprocessorer (GPU), som sköter om grafiken på en dator, är mer lämpade för NN, eftersom denna typ av processor kan köra ett stort antal processer parallellt. Sedan finns det också processorer som är skräddarsydda för neurala nätverk (NPU). NN är inte alltid bättre än konventionella program. För rena beräkningar är ofta logiskt programmerade kalkylprogram att föredra framför neurala nätverk (helt enkelt eftersom matematik är en form av logik). Men för reglersystem, översättningsprogram, AI och AGI och en del andra saker så är NN speciellt lämpligt. Google Translate har under senare år alltmer gått över till NN. Siri, assistenten i iPhone, genereras också av ett NN. Ett översättningsprogram som heter DeepL är helt baserat på NN. Enligt min mening ger DeepL bättre översättningar än Google Translate. Ju längre text desto bättre fungerar DeepL, eftersom en större textmassa gör att de neurala nätverken kan få en helhetsbild av texten och sätta in den i ett större sammanhang (så att relevanta ord och uttryck används). Vill man översätta enstaka ord fungerar ibland DeepL mycket sämre än Google, eftersom den senare mer fungerar som ett vanligt lexikon (där man slår upp enstaka ord), medan DeepL som sagt behöver ett sammanhang.

Neurala nätverk är ett försök att efterlikna biologiska organismers nervsystem och hjärna, även om det handlar om en väldigt grov efterapning. Forskning pågår på mer avancerade typer av NN, vilka bättre skall avbilda nervsystemet och tycks ha stor potential. NN-system brukar kallas själv(in)lärande system, dvs de har en förmåga att lära sig saker och dra egna slutsatser utifrån detta. Vill man att AGI, baserat på NN, skall hitta samband mellan två eller flera faktorer måste en sådan AGI ha ett väldigt stort underlag (massor med sammanhängande par) för att hitta mönster och komma fram till en slutsats, medan en människa kan dra sina slutsatser redan efter ett fåtal observationer. Genom NN-system som i högre grad efterliknar nervsystemet hoppas man få mer "människolika" NN. Men som sagt, forskning pågår.

Vissa AGI körs med konventionella program, andra använder en kombination av vanliga program och neurala nätverk, medan exempelvis ChatGPT helt bygger på neurala nätverk.

Summa summarum är att AGI inte är beroende av NN, men att NN ändå tycks ha en potential att skapa vassa AGI.

En del av datorernas styrka ligger i att de aldrig räknar/gör fel (blir resultatet fel beror det ofta på fel i programvaran eller felaktiga indata). Och att de processerar data (beräkningar, logiska kalkyler etc) oerhört snabbt (1018, dvs en miljon biljoner, beräkningar per sekund om vi talar om superdatorer). Dessutom, om en människa sitter år efter år och gör långa uträkningar, så kommer denne att förr eller senare räkna fel. Alltid!!! Om då detta felaktiga resultat ligger till grund för vidare beräkninger, kommer alla följande resultat att vara felaktiga. Detta är ett stort problem för oss människor.

Pi (π) (≈ 3,14159...) är ett intressant tal, som innehåller oändligt många decimaler och har studerats ingående. Under 1800-talet räknade man för hand fram pi med många decimaler (detta kan göras genom att uttrycka pi som en serie och ju fler termer man tar med i serien desto fler decimaler får man, till priset av mycket mer räknearbete). William Shank började 1850 räkna ut pi med målet att få fram så många decimaler som möjligt (innan orken tog slut). Efter 20 år hade han räknat fram pi med 707 decimaler! Hans beräkningar accepterades som korrekta men senare beräkningar har visat att han gjorde några räknefel vid den 530:e decimalen, vilket medförde att alla decimaler efter detta blev fel. Han dog några år efter att han var klar och fick aldrig reda på att han räknat fel. Man kan säga att hans arbete var ganska bortkastat med tanke på att man idag, på en vanlig desktopdator, kan räkna fram pi med 1000 decimaler på någon minut. Idag har vi räknat ut pi med flera biljoner decimaler (202 biljoner decimaler i juni 2024).
Läsaren kanske undrar varför man vill veta π med så många decimaler. För att göra praktiska beräkningar behöver man bara π med max 8 värdesiffror. Π, som grundläggande är lika med förhållandet mellan omkrets och diameter i en cirkel, är ett mycket speciellt tal som dyker upp i alla möjliga sammanhang (som inte har något med vare sig cirklar eller geometri att göra) och är ett irrationellt tal. Det senare innebär att π innehåller oändligt många decimaler. Att man beräknar π med biljoner decimaler beror på att man bl a letar efter periodiciteter i dessa decimaler (se min artikel om matematikens användbarhet).
En avgörande egenskap hos datorer är som sagt att de till skillnad från människor aldrig blir trötta eller okoncentrerade och därför aldrig räknar fel, oavsett hur långa beräkningar det handlar om.

En annan styrka är datorernas enorma minneskapacitet och snabbhet när det gäller att hitta och läsa det som finns i minnet. En dator "minns" aldrig fel. Aldrig, aldrig! Även om det kan bli fel på grund av spänningsspikar i nätet eller något annat, har datorerna felkontrollfunktioner (paritetsbitar etc) som gör att alla fel upptäcks och oftast korrigeras. Större datamängder lagras inte i datorn själv utan i stora minnesbanker. Förr bestod dessa av mängder av mekaniska hårddiskar. Idag använder vi i stället halvledarminnen (SSD/Solid State Disc), som fungerar ekvivalent med mekaniska hårddiskar men är minst 100 gånger snabbare när det gäller att skriva och läsa data och har 100 gånger snabbare accesstid (den tid det tar att hitta en viss fil) jämfört med en mekanisk hårddisk. Plus att de har mycket längre livslängd, eftersom de inte har några rörliga delar.

När man började experimentera med kraftfulla schackdatorer lät man två datorer spela mot varandra och sedan analysera det senaste partiet. Dessa datorer gjordes självprogrammerande så att de kunde ändra i programvaran om de genom analyserna upptäckte svagheter i sin programkod. Eftersom schackpartierna skedde internt med "ljusets hastighet" kunde de spela kanske tusen partier per sekund (gissningsvis). Efter att ha spelat mot varandra i en vecka (drygt 600 miljoner schackpartier) och sedan optimerat programvaran utifrån analyserna av dessa partier, hade de nu blivit dramatiskt mycket skickligare på schack än den människa som skrivit det ursprungliga programmet. På samma sätt kan man låta två eller flera AGI konkurrera eller tävla mot varandra för att på så sätt vässa sina förmågor. AGI kan genom sådana tekniker på egen hand öka sina förmågor dramatiskt och eventuellt, så småningom, bli nästan oändligt överlägsen oss människor (tror en del i varje fall).

Det finns vissa framstående forskare och andra som är eller varit rädda för, eller i varje fall hyser farhågor, när det gäller AGI. Stephen Hawking (den kände, rullstolsbundne fysikern, som dog för ett par år sedan) är ett exempel. Nobelpriset 2024 gick till två av pionjärerna inom AI- och AGI-forskning. En av dem, Geoffrey Hinton, ser stora faror med AGI (läs denna artikel).

En annan som ser faror med AGI är jag. I princip skulle en AGI, som är riktigt smart och som har tillgång till Internet, kunna börja med att en gång i veckan gå in på alla bankdatorer och ta ett öre (eller motsvarande) från varje konto i världen, vilket skulle bli en rejäl månadsinkomst. Och ingen skulle märka något. Sedan skulle AGI:n kunna starta företag och anställa folk (där ingen skulle veta att en AGI ligger bakom, inte ens VD:n) och sedan ställa till med farliga saker. Anställa soldater i tusental, skaffa vapen etc, etc. Börja mörda politiker och alla som är motståndare till AGI och på så sätt ta kontroll över världen (genom att bl a hacka sig in i stormakternas kärnvapenarsenaler och börja avlossa kärnvapen åt alla håll). Därför har man bestämt sig för att än så länge inte ge AGI tillgång till Internet, innan man kommit på hur man säkert skall kunna kontrollera AGI. Ett vist drag! Exakt detta scenario utgör för övrigt huvudtemat i den mycket välgjorda och spännande TV-serien "Person of Interest". Och utgör även underlag för filmer som Matrix och Terminator och deras spin-off.

Eftersom alla beräkningar i en superdator sker så snabbt, framstår ett AGI-program som ett veritabelt snille, totalt överlägset en vanlig människa. Vilket enligt min mening inte alls stämmer. AGI är överlägsen på vissa saker (rutinsaker, problem som redan är lösta, hitta mönster i stora databaser etc) men inte nödvändigtvis när det gäller att skapa nya lösningar utifrån helt andra infallsvinklar. Lösningar som kanske kräver fantasi och intuition och målmedvetenhet.

Datorer i allmänhet och AGI i synnerhet upplevs som skrämmande av många. Idag är en normal schackspelare totalt chanslös mot även ett ganska mediokert schackprogram. Giganter inom schack som Kasparov, Bobby Fischer etc kanske kan/kunde slå de kraftfullaste schackdatorerna någon enstaka gång men sällan. Att det är så är helt självklart, eftersom datorer är logikmaskiner och schack är ren logik. Det är snarare förvånande om en människa någonsin kan slå en riktigt kraftfull schackdator. Vilket tydligen sker ibland.

Samma sak gäller matematik. Varje år har vi en matematikolympiad för gymnasister, där många, många länder deltar. De som vinner i respektive land möts sedan i en internationell final. Problemen är ganska svåra, eftersom de inte direkt bygger på det man lär sig på matematiklektionerna. Man måste helt enkelt kunna tänka matematiskt på egen hand om man skall lyckas bra. Det tycks dock som att de som placerar sig högt i matematikolympiaderna inte självklart blir stora matematiker. Att bli en framstående matematiker kräver mycket speciella egenskaper som inte kan mätas i tävlingar eller i betyg. Och dessutom mycket hårt och långvarigt arbete.

Många som deltar i matematik-OS tränar genom att räkna mängder av gamla OS-problem. Och vissa lärare, som vill att deras elever som ställer upp i olympiaden skall lyckas bra, ger extralektioner till dessa elever, där de tränar på gamla OS-problem. På så vis kan man öva sig och det är ingen tvekan om att man på detta sätt dramatiskt kan förbättra sitt resultat på OS. Men då handlar det ju inte om grundläggande matematisk begåvning utan om att känna igen typtal och minnas hur dessa löses. Det är kanske därför så få av de som vinner matematikolympiaden blir framstående matematiker. De är mer träningsprodukter än genuina mattebegåvningar (ungefär som en AGI).

Man har låtit AGI lösa problemen på några matematikolympiader och AGI lyckas då betydligt bättre än gymnasisterna (vilket som sagt är självklart). Men man gjorde nyligen ett test, där man bad några framstående matematiker att göra problem som de trodde att AGI skulle ha svårt att lösa. Och det visade sig att AGI gick bet på dessa problem. Vilket är precis vad man kan förvänta sig.

Självklart utvecklas AGI och kommer att bli alltmer kraftfullt. Frågan är dock om en AGI någonsin, helt på egen hand, skulle kunna komma fram till något så totalt nytt och banbrytande som Einsteins allmänna relativitetsteori. Nu har ju datorer (som ju ligger till grund för AGI) många styrkor som inte människor har. AGI kan ju t ex blint testa mängder av olika alternativa lösningsstrategier etc. Det kan ju en människa också, och gör också så. Skillnaden är att en snabb AGI kan testa miljarder olika alternativ per sekund. Och den minns alla testade alternativ och deras för- och nackdelar (om en människa försöker knäcka ett lösenord genom att prova olika lösenord, kommer hon efter en stund inte ihåg vilka lösenord hon redan provat och kommer att pröva samma lösenord igen och igen, plus att hon bara kan testa kanske ett lösenord per minut, beroende på sammanhanget). Får datorn stå och tugga tillräckligt länge hinner den testa oerhört många alternativa lösningar. Förmåga till snabba beräkningar löser dock inte, som vi strax skall se, alla problem.

De mest kraftfulla superdatorerna idag kan utföra mer än 1015 (en miljon miljarder) flops (flyttalsoperationer per sekund)! Men inte ens detta räcker för att lösa vissa matematiska problem inom rimlig beräkningstid. Det finns t o m tämligen enkla problem som en superdator, trots sin enorma beräkningskraft, behöver miljontals år för att lösa. Ett sådant problem är således inte praktiskt beräkningsbart. Låt mig ge ett exempel:

Vi tar en enkel formulering av det klassiska handelsresandeproblemet (traveling salesman problem), enligt vilken en handelsresande skall besöka USA:s 50 delstatshuvudstäder. Han utgår från sin hemstad (som inte är en delstatshuvudstad) och skall efter avslutad resa återvända hem. Det finns många olika rutter han kan välja och vår handelsresande vill hitta den kortaste totala ressträckan (för att besöka alla 50 delstatshuvudstäderna). En dator som kan göra 1015 flops borde genom ren råräkning (dvs testa sig igenom samtliga resvägar) kunna lösa problemet snabbt. Kan man åtminstone tycka. Låt oss antaga att datorn kan testa 1012 alternativ per sekund. Datorn har tillgång till en tabell med avstånden mellan alla USA:s delstatshuvudstäder (en 50x50 matris — som en gammaldags bilatlas med 50 rader och 50 kolumner) och hämtar dessa avstånd för varje möjlig resväg och adderar sedan delsträckorna och om den sist beräknade rutten är kortare än den föregående, behålls den nya rutten, annars behålls den föregående rutten. Efter att datorn tuggat sig igenom alla alternativen återstår således den kortaste resvägen.
När vår handelsresande (eller datorn) skall välja första benet av resrutten, finns 50 alternativ att välja mellan. Efter besöket i den första delstatshuvudstaden återstår 49 städer att välja mellan för nästa delsträcka. Och nästa gång 48 etc, etc. När sista staden skall väljas finns bara en möjlighet kvar (alla andra delstatshuvudstäder har ju redan besökts). Totala antalet möjligheter ges då, enligt kombinatorikens multiplikationsprincip, av 50⋅49⋅48⋅47...3⋅2⋅1. Detta kallas 50-fakultet och skrivs som 50! (utropstecknet betyder således i detta sammanhang fakultet).
Vi har med andra ord kommit fram till att det finns 50! (50-fakultet) olika möjliga rutter att välja mellan. 50!=3⋅1064, vilket är ett hiskligt stort tal (en trea med 64 nollor efter). Datorn måste gå igenom alla dessa för att hitta den kortaste rutten. Eftersom vi antagit att datorn hinner testa 1012 alternativ per sekund kommer följande samband att gälla:
Division med 1012 ger hur många sekunder beräkningen kommer att ta. Genom att sedan dela med 3600 får vi hur många timmar beräkningen tar och genom division med 24 får vi antalet dagar och genom att slutligen dela med 365,25 (ett år har 365,25 dagar, det är därför man måste lägga till en skottdag vart fjärde år) så får vi antalet år som beräkningen kommer att ta.
Resultatet anger hur många år det kommer att ta för superdatorn att gå igenom samtliga möjliga rutter för att hitta den kortaste. Tiden blir således ca 1045 år! Jag betvivlar att vår handelsresande orkar vänta så länge.
Universums ålder anses allmänt vara av storleksordningen 1010 år (13,8⋅109 år). 1045 år är således 1035 gånger universums ålder! Och redan 1035 är ett ofattbart stort tal. Totala antalet sandkorn i Sahara har t ex uppskattats till 1020. Dvs 1035 är antalet sandkorn i ca 1000 biljoner (1015) Saharaöknar! Det tar således 1000 biljoner gånger antalet sandkorn i Sahara gånger universums ålder för världens snabbaste dator (2019) att med råräkning lösa handelsresandeproblemet för 50 städer!!!
Även om ovanstående problem inte kan lösas genom råräkning så är det lösbart. Det finns datorprogram som löser det på några sekunder (i fallet 50 städer), genom att man gjort programmet lite smartare så att det inte testar uppenbart orimliga alternativ.
Ett påpekande: Antal flops (flyttalsoperationer per sekund) för världens snabbaste superdator ändras givetvis hela tiden. Ovan anger jag siffran 1015 flops (gällande för 2019). Den siffran gäller inte längre. I december 2024 hade den snabbaste superdatorn en beräkningshastighet på 1018 flops, dvs 1000 gånger snabbare. Detta har ingen som helst betydelse för resonemanget ovan. I stället för 1045 år kommer beräkningen att ta 1042 år. Jag tror inte vår handelsresande orkar vänta så länge heller.

Som sagt, även om man kan göra biljoner beräkningar per sekund finns problem som inte kan lösas genom ren råräkning.

Avsikt och mening är intimt förknippade med fri vilja och medvetande och innebär att vi människor kan ställa upp mål och sedan agera utifrån detta. Denna egenskap är eventuellt unik för människan, möjligen kan den finnas i lägre grad hos de mer högtstående djuren (huruvida människan är ensam om avsikt och mening påverkar inte min argumentation). Målstyrt beteende brukar kallas teleologi (alltså teleologi inte teologi). En sten attraheras av jorden på grund av att den påverkas av en yttre kraft. En parasit agerar inuti ett värddjur, styrd av sina gener. Samma sak gäller ett rovdjur, även om rovdjuret har en viss förmåga att anpassa sitt agerande utifrån information från luktsinne, syn, hörsel etc. En människa däremot reser till en annan stad, inte för att en yttre kraft drar henne dit eller för att hennes genuppsättning styr henne dit, utan för att någonting inuti henne medvetet har beslutat att resa dit (hon kanske vill träffa en god vän eller sin älskade eller gå på en konsert). Det finns ett mål. Framtiden (att komma dit) fungerar som en attraktor (en slags omvänd kausalitet med andra ord, där framtiden påverkar vad som sker nu). En fallande sten har inget mål, utan påverkas bara av blinda, yttre krafter (gravitation, luftmotstånd etc). Stenen själv har inga planer eller någon strävan eller längtan. Eller mål. Naturvetenskap handlar om de fyra naturkrafterna (stark, elektromagnetisk, svag och gravitationell kraft) och hur objekt bestående av materia/energi växelverkar med varandra i rum-tiden genom dessa fyra krafter.

Teleologi inryms inte i vetenskapliga beskrivningar (och förnekas av många ateister). Naturvetenskapen förnekar inte existensen av målstyrda beteenden men sådana ligger utanför vad naturvetenskapen kan handskas med. Observera att målsökande robotar inte har något mål i teleologisk mening. De styrs av elektronik och sensorer och har inget uppsåt och ingen längtan, utan är bara maskiner som människan manipulerar genom att utnyttja de fyra naturkrafterna. Det är de människor som konstruerat dem (och de som använder dem) som har ett mål — att skjuta ned fientliga flygplan).

Handelseresandeproblemet visar att blint sökande inte löser alla problem, även om man har tillgång till enorma resurser. Att knäcka ett lösenord på 4 siffror genom råräkning tar en bråkdel av en sekund för en snabb dator — man behöver ju bara pröva 10 000 kombinationer. Men många problem, även till synes enkla sådana, är i praktiken omöjliga att besegra genom råräkning, dvs genom att testa alla alternativ (som handelsresandeproblemet ovan). Det tycks mig som att målinriktning måste vara kopplad till ett medvetande, till en själ, vilket maskiner inte har. Många stora vetenskapliga teorier har kommit till genom att en forskare haft en mål, har anat någonting, och sedan aktivt och medvetet letat efter en väg att nå fram till detta mål. Einsteins allmänna relativitetsteori är ett exempel på detta. Han visste vad han letade efter men vägen dit var mycket mödosam och svår. Formulerandet av denna teoris ekvationer (kallade Einsteins fältekvationer) betraktas av många fysiker som en av "mänsklighetens största intellektuella bedrifter". Frågan är om en framtida AGI skulle kunna göra en sådan bedrift (dagens kan det definitivt inte). Jag tror inte det. Och i så fall ligger detta långt in i framtiden. Kanske om hundra eller tusen år.

När det gäller schack så finns oerhört många möjliga drag och en stormästare i schack kan se uppskattningsvis 10-15 drag framåt. Resten av spelet bygger på kunskaper. De som ägnar sig seriöst åt schack har studerat tiotusentals schackpartier och känner kanske igen den ställning man hamnat i och så minns man vad den och den mästaren gjorde i motsvarande situation. Och de har lärt sig olika öppningar (de första dragen i ett parti) och hur man bemöter dem. Antalet möjliga drag ökar dramatiskt ju fler drag framåt man försöker se. Och precis som i handelsresandeproblemet så blir beräkningarna snabbt övermäktiga även för den snabbaste superdator. Så även en superdator som spelar schack kan bara se ett mycket begränsat antal drag framåt och måste därför ha tillgång till en stor databas med spelade partier etc för att hitta lösningar.

En stor fördel en schackdator har är att den aldrig gör slarvfel. T ex sätter bort en pjäs på grund av att den inte ser att pjäsen är hotad. Eller missar att ta en pjäs om den kan (och vill). Bara genom att aldrig göra slarvfel har datorn en stor, stor fördel över en människa. Det är som jag brukade säga till mina matteelever, att om de aldrig gör några slarvfel så kommer de att höja sitt mattebetyg ett steg utan att kunna någon mer matte. Och det stämmer.

Antag nu att en människa, som vi kallar M, vore som en AGI med mycket datormuskler bakom sig. I sitt huvud har M, som vi antar inte är speciellt smart men har ett exceptionellt minne, alla världens lexikon (alla språk) och M kan slå upp ord och uttryck på en mikrosekund (miljondels sekund). M har också tillgång till alla grammatikor etc, och kan översätta mellan alla språk (kanske inte perfekt men tillräckligt bra). M talar således alla jordens språk flytande. Kan man slå upp ord och uttryck och grammatik på en mikrosekund uppfattas detta som att man talar flytande, eftersom man kommer att tala utan (för en människa märkbara) tankepauser och harklingar. M har också tillgång till alla uppslagsverk (inkluderande Wikipedia), alla böcker (kokböcker, biografier, skönlitteratur, lagböcker etc, etc) och sammandrag av alla filmer som gjorts etc, etc. Plus tillgångt till alla dagstidningar i hela världen (både senaste numret och arkiverade minst 50 år bakåt i tiden). Och kan leta upp receptet för Jansons Frestelse eller när Mozart föddes eller vem som spelade Harry Potter (och även alla personliga data om denne) på en hundratusendels sekund. Och kan tolka bilder, dvs se vad olika bilder föreställer. Och kan jämföra foton för att hitta kopplingar mellan människor och liknande. I M:s kunskapsbank finns också tekniska böcker och handböcker till alla bilar, skrivare, tvättmaskiner, kaffemaskiner, jetmotorer osv. Plus alla världens telefonkataloger, kartor och tidtabeller för tåg, bussar etc. I princip så kan M således svara på i stort sett alla konkreta frågor (både som har med allmänbildning att göra och sådana som är kopplade till specialistkunskaper) inom någon hundradels sekund eller snabbare. M känner också till all känd musik (kan noterna utantill, t ex alla stämmorna i alla Mahlers, Mozarts, Bruckners etc symfonier) och kan utifrån bara någon mening ta reda på vilken bok ett citat är hämtat från och utifrån ett kort stycke (några takter) från ett musikverk tala om verkets namn, kompositör, tonart etc och vem som sjunger och spelar och alla data om den personen. Min iPhone har för övrigt ett inbyggt program, en app vid namn Shazam, vilken kan identifiera musik utifrån några takter (och som ganska ofta ger rätt svar). Så dessa och många andra delfunktioner i AGI har funnits länge, men i AGI så finns alla dessa funktioner sammanförda. Ingenting av ovanstående handlar emellertid om intelligens i egentlig mening. Men man kan luras att tro det, eftersom det går så fort. Man blir helt enkelt överväldigad.

En person med M:s minneskapacitet, beskriven i föregående stycke, skulle givetvis uppfattas som ett ofattbart geni, jämfört med vilket Einstein skulle framstå som en babblande idiot. Även om M vore totalt intelligensbefriad. På samma sätt är ett program som inte är någon AGI, dvs som inte har någon inbyggd intelligens (i verklig mening), men som kan göra allt jag räknat upp ovan, snarare ett superuppslagsverk än en verklig intelligens. Men skulle för de flesta användare ändå framstå som en superintelligens (trots att det nästan enbart handlar om utantillkunskaper och mekaniska lösningar av ekvationer etc).

Vilket påminner mig om min far, som hade ett väldigt bra minne. Han hade inte så lätt för matematik (eller också var han ointresserad) och på gymnaiset lärde han sig därför allt utantill. Han räknade igenom gamla prov och visste sedan hur man löste alla typer av tal. På proven såg han att en viss uppgift var av samma typ som en uppgift han kunde utantill och så visste han direkt lösningen utan att tänka. Han berättade för mig att när klassen skulle bevisa något eller lösa ett problem på svarta tavlan och ingen visste hur man skulle gå till väga så sade läraren, "Renard, gå fram och rabbla!". Och så gick min far fram och startade den inbyggda bandspelaren i hjärnan.

En intressant aspekt av AGI är dess förmåga att åstadkomma texter, t ex skriva avhandlingar, uppsatser, brev etc, etc. En skolelev kan exempelvis be en AGI att skriva en uppsats på gymnasienivå och så specificera vad denna skall handla om, t ex förklara vad som ger en vinge dess lyftkraft eller varför nazisterna förlorade Battle of Britain. Eller att ge tio bevis för evolutionen. Och vips så får man en jättebra uppsats (även om det ibland poppar upp en och annan språklig groda, så texten kanske måste putsas lite). Det ligger nära till hands, när man läser en sådan uppsats, att man upplever att det finns en verklig intelligens bakom. Men en dator har inget medvetande (dvs ingen själ). Det bor ingen person inuti datorn som är medveten om vad som sker och vad den gör, utan det handlar bara om logiska och statistiska operationer som exekveras blint utifrån givna regler med enorm fart. Där AGI:n bl a hämtar bitar från olika artiklar och sätter ihop dessa (klippa och klistra med andra ord).

F ö kan man idag använda en AI för att avgöra om en text är skriven av en människa eller av en AI. Ibland blir det fel och den tillfrågade AI:n tror att en text skriven av en människa är skriven av en AI. Detta leder kanske till att en autentisk text refuseras, vilket är olyckligt. Många AI-texter kan även avslöjas av en människa, helt enkelt för att de är så livlösa och fantasilösa. AI saknar den mänskliga "gnistan", vilket läsaren intuitivt känner.

Mycket av det som sker inom AGI är kopplat till statistik och korrelationer. En AGI kan göra tabeller för att se sannolikheter för att ett visst ord skall följa efter ett givet ord. På så sätt kan den se till att man inte får konstiga, onaturliga ordsekvenser. Den kan också följa grammatiska regler (den har ju ordlistor och vet vilka ord som är verb, substantiv, adjektiv etc) och kan därför sätta ihop ord på ett meningsfullt sätt. Den kan också plocka redan färdiga formuleringar och kan ta hela textstycken och sätta ihop och harmoniera med varandra så att det blir en hyfsad text. Ingen verklig intelligens och inget medvetande finns bakom. Bara regler och sannolikheter

Det är i sammanhanget viktigt att skilja mellan system (maskiner, organismer) som agerar:

  1. Förnuftigt (styrt av program som väljer inprogrammerade, förnuftiga lösningar)
  2. Utifrån förnuft, dvs som medvetet och utifrån kunskaper om verkligheten analyserar en situation logiskt och sedan handlar utifrån denna analys.

Se också diskussionen ovan om teleologi (målstyrt beteende) och exemplet nedan om kinesiska skrivtecken.

Automatiska system som robotar, många livsformer (insekter, växter etc) innehåller komplicerade reglersystem, vilka gör att hela systemet agerar "förnuftigt", dvs på rätt sätt, men inte utifrån förnuft (en autopilot håller fartyget eller flygplanet på rätt kurs etc, bladen hos en växt vänds mot solljuset för att maximera fotosyntesen etc). Ett sådant system, som agerar omedvetet men förnuftigt, kan ha stor överlevnadsförmåga. Men här handlar det inte om val som görs, utan om programstyrda beteenden. En AGI kan agera utifrån förnuft i en viss, begränsad bemärkelse men inte utifrån en övergripande förståelse av verkligheten. En AGI har således inget sunt förnuft eller intuition. Men kan i många fall agera som om den hade ett sunt förnuft. Medan den i andra fall till och med slår Skolverkets ideologiskt besatta tjänstemän när det gäller korkade och bisarra slutsatser.

Antag att vi har två gammaldags klockor med visare och 12 timmars urtavla (kl 9 och kl 21 ser likadant ut på en sådan klocka). Den ena är en dyr kronometer som drar sig en sekund per vecka. Den andra är trasig och står still. Frågar vi en människa vilken av de två klockorna som är bäst säger denna givetvis den första klockan (som drar sig 1 sekund i veckan). Frågar vi en AGI vilken av klockorna som är bäst kan denna mycket väl svara klocka nummer två (som står still). Logiken är att den klockar som drar sig en sekund per vecka kommer bara att visa exakt rätt tid var 302 400:e vecka, dvs vart 5815:e år (drar sig klockan 1 s per vecka, drar den sig 12 timmar på 5815 år) medan den stillastående klockan visar exakt rätt tid två gånger per dygn (dvs betydligt oftare).
En AGI:s brist på både omdöme och sunt förnuft gör att den kan dra helt absurda slutsatser. Som en människa omedelbart skulle inse är felaktiga och löjeväckande. Och även om man lägger till ovanstående exempel i AGI:ns databas så kommer det att finnas hur många andra exempel som helst där den kommer att dra absurda slutsatser. Helt enkelt eftersom den inte har något omdöme i mänsklig mening. Artificiell intelligens ligger snubblande nära artificiell dumhet.

Möjligheten att låta en AGI skriva uppsatser etc har lett till stora problem för lärare på speciellt högre stadier. En student kan låta en AGI skriva en uppsats och sedan frisera språket så att det verkar som att en människa skrivit texten. Det är idag väldigt svårt för en lärare att avgöra äktheten hos texter som elever lämnar in, vilket har tvingat fram olika lösningar. T ex att man inte kan ha hemuppgifter av vissa typer, utan proven måste ske i skolans lokaler i en datorfri miljö (eller i varje fall en miljö där man inte kan interagera med en AGI). Precis som så mycket annat så är AGI:s förmåga att skriva texter inget principiellt nytt. Det har funnits länge, men utgör nu en del av vad en AGI kan. Här tillkommer att inga tidigare program av denna typ har haft tillgång till lika mycket information som vad en AGI har idag. Speciellt om den skulle tillåtas gå ut på Internet (vilket än så länge, som nämnts ovan, är förbjudet).

Efter att jag skrev detta har t ex ChatGPT fått en funktion som kallas "deep research". Den tillåter ChatGPT att använda en webbläsare för att gå ut på Internet. Där kan programmet göra avancerade sökningar i multipla lager (dvs kan gå till djupare nivåer av sökning) och kan skapa en sökplan och justera denna utifrån sökresultaten. En som testat denna funktion skriver, "Jag har sett programmet göra underökningar [på Internet] som tagit några minuter, men vilka skulle tagit en människa timmar att göra". Jag gissar att man på något sätt begränsat vad programmet kan göra (eftersom deep research måste gå genom en webbläsare kan det bara göra vad webbläsarens programmering tillåter det att göra).

Redan för 10 år sedan gjordes ett skämtprogram som hette SCIgen. Det skrev påhittade vetenskapliga artiklar som var ren bluff men verkade trovärdiga vid en första anblick. Programmet kunde bara skriva artiklar i datavetenskap och man skrev in några namn (som användes som medförfattare till artikeln och som referenser) och så klickade man på en knapp. Och vips fick man ett mail i valfritt format (t ex pdf) med en artikel som såg helt genuin ut (speciellt om man inte var så insatt i datavetenskap). Där fanns grafer och beräkningar och en lång källförteckning. Programmet var avsett som ett skämt men när man läste texterna tog det en stund innan man insåg att det bara var gallimatias. Programmakarna skickade in ett par artiklar genererade av SCIgen till en konferens i datavetenskap, vilket ledde till att de blev inbjudna som talare till konferensen, Stor skandal som det skämtades länge om. Om läsaren går till slutet av denna artikel kan läsaren läsa lite mer om SCIgen och även generera sina egna vetenskapliga artiklar (programmet finns fortfarande tillgängligt på Internet). Eller klicka här för att läsa en artikel jag genererat med detta program.

Som sagt, många av de byggstenar som finns i AGI har redan funnits i decennier. Men tack vare snabbare datorer (och specialdesignade processorer för AGI) och oerhört avancerad programvara har man nu uppnått en helt ny nivå av artificiell intelligen, som börjar närma sig vissa aspekter av mänsklig intelligens.

Vissa matematiska bevis är oerhört mödosamma att göra och kan ta en livstid för en matematiker att genomföra. Delar av sådana bevis kan innebära upprepade moment, där man gör ungefär samma sak, och sådant kan överlåtas åt en vanlig dator eller idag åt en AGI. För ett femtontal år sedan bevisades fyrfärgsproblemet med hjälp av en kraftfull, konventionell dator. Detta problem hade gäckat matematikerna i nästan 100 år. Man hade kommit på en strategi men den byggde på att man testade miljoner olika möjligheter, vilket ligger utanför mänsklig förmåga, eftersom det skulle ta tusentals år. Därför lät man en superdator stå och tugga sig igenom alla dessa möjligheter och fick så fram ett resultat, som innebar att fyrfärgsteoremet var löst (det finns inte utrymme att gå in på detta problem här och den intresserade läsaren rekommenderas att googla). Beviset gjordes i USA och man firade det genom att ge ut ett frimärke med detta teorem som motiv. Problemet var att beviset var så omfattande att ingen människa kunde kontrollera det.
Jag diskuterade detta bevis några veckor senare med en vän som var matematikprofessor i USA. Han underkände det, eftersom han menade att man inte kan acceptera bevis, där vi måste lita på att en dator gjort rätt utan att kunna kontrollera detta. I viss mån ger jag honom rätt. Ett sådant bevis är synnerligen otillfredsställande, även om det skulle vara korrekt (vilket det antagligen är). Här handlade det således inte om AGI, men med tillgång till denna teknik har vi fått ännu mycket kraftfullare verktyg för att genomföra matematiska bevis och liknande.

I framtiden får vi således räkna med att AGI kommer att bevisa matematiska satser och fysikaliska teorier och fatta beslut om samhälle, tekniska lösningar (energi, miljö etc) och människans framtid (obligatorisk födelsekontroll och andra saker) och människan kommer inte att kunna kontrollera dessa bevis och beslut. Dvs vi måste acceptera dem, utan att själva vare sig förstå varför eller kunna bevisa att AGI:ns beslut är korrekta. AGI har då blivit en slag gud, som talar om vad vi skall göra och som vi måste lyda, utan att förstå varför. Ingen trevlig framtid i mina ögon!

För någon månad sedan testade jag den AGI som finns integrerad i Aloha (en webbläsare). Jag frågade hur en flygplansvinges lyftkraft genereras. De flesta fysikläroböcker i skolan och tidningar och media ger oftast en felaktig förklaring medan aerodynamiker givetvis känner till den korrekta förklaringen (jag har skrivit en lång artikel om detta på hemsidan så den intresserade läsaren hänvisas dit). Enligt den felaktiga förklaringen är en vinge mer buktig på ovansidan (vissa vingar är det men inte alla) varför luften där har längre väg att gå än luften på undersidan (som är rak). Luften på ovansidan måste därför ha högre fart för att komma fram samtidigt till vingens bakkant som luften på undersidan (vilket är fel — det finns ingen fysikalisk princip som ger stöd för detta påstående). Och när luften på ovansidan går fortare sjunker trycket där (enligt Bernoullis lag), vilket "suger upp" vingen, och därmed genererar lyftkraft (just detta sista är korrekt, men förklaringen till varför luften går fortare på ovansidan är helt fel). Jag förväntade mig att AGI:n skulle komma med den felaktiga förklaringen och blev lite överraskad, eftersom den gav en betydligt mer nyanserad förklaring. Den sade visserligen att luften på ovansidan har högre fart än på undersidan (vilket är korrekt), men inte för att luften på ovansidan har längre väg att gå, utan på grund av vingens anfallsvinkel (hur vingen är vinklad relativt luftströmningen) i kombination med dess form. Och detta är sant, men ger inte hela förklaringen till lyftkraft.

Jag påpekade då för AGI:n att den största delen av en vinges lyftkraft genereras av att vingen (genom sin anfallsvinkel och form) skyfflar luft nedåt, vilket ger en lyftkraft enligt Newtons tredje lag (om verkan och motverkan). Enligt denna lag påverkar två objekt varandra med lika stora och motriktade krafter och när vingen påverkar luften med en nedåtriktad kraft kommer luften därför att påverka vingen med en lika stor uppåtriktad kraft.

Döm om min förvåning när AGI:n då bad om ursäkt och sade att den skulle lägga till denna information i sin databas. Jag skrattade högt för mig själv. Så visst, AGI är imponerande. Och det är tydligt att en AGI har en förmåga att modifiera sina kunskaper och även sin funktion. För att testa en ytterligare sak frågade jag sedan AGI:n om något som skulle tvinga den att gå ut på Internet. Jag fick då svaret att den tyvärr inte hade tillgång till Internet och den rekommenderade mig att själv googla.

Låt mig avsluta denna betraktelse med ett tankeexperiment för att klargöra skillnaden mellan maskinintelligens och mänsklig intelligens. Experimentet illustrerar tydligt skillnaden mellan att "agera förnuftigt" och att "agera utifrån förnuft" (se diskussion ovan).

Antag att jag stängs in i ett rum och genom en lucka får en tjock bunt kort, där det på varje kort finns ett antal kinesiska skrivtecken. Jag kan vare sig tala eller förstå eller läsa/skriva kinesiska, ja jag kan inte ens skilja kinesisk skrift från japansk skrift eller ens från meningslöst klotter i största allmänhet. De kinesiska tecknen är således, utifrån mitt perspektiv, bara meningslösa symboler. Efter att ha tagit emot den första kortbunten, får jag en andra kortbunt med kinesiska tecken. Dessa kort är numrerade (1, 2, 3, 4,...). Slutligen får jag in en uppsättning regler för att korrelera (koppla ihop) de två kortbuntarna. Reglerna är skrivna på svenska eller något språk som jag förstår. Där anges, för varje kort i bunt 1, en eller flera siffror. Dessa siffror utgör numren på de kort i bunt 2 som hör ihop med respektive kort i bunt 1. Med hjälp av dessa regler kan jag korrelera en uppsättning formella symboler (korten med kinesiska skrivtecken i bunt 1) med en annan uppsättning formella symboler (korten med kinesiska skrivtecken i bunt 2). Varje kort i bunt 1 är således korrelerat med ett eller flera kort i bunt 2 (enligt de regler jag fått).
Med korrelera menar jag att reglerna jag fått talar om att ett visst kort i den första bunten hör ihop med ett eller flera kort i den andra bunten.
"Formell" betyder här att jag identifierar de kinesiska tecknen (symbolerna) enbart utifrån deras form, utan att på något sätt känna till eller förstå deras innebörd, vare sig i det kinesiska alfabetet eller i det kinesiska språket.
Nu får jag in ett ytterligare kort med kinesiska skrivtecken genom luckan. Min uppgift är att försöka hitta ett exakt likadant kort i kortbunt 1 och sedan, med hjälp av reglerna, ta fram det, eller de kort, i kortbunt 2 som hör ihop med det mottagna kortet och därefter skicka ut detta (eller dessa) kort från kortbunt 2 genom luckan. Hittar jag inte något kort i bunt 1 som är exakt likadant som det inskickade kortet, säger reglerna att jag skall skicka ut kort 273 i bunt 2 genom luckan. På detta kort står på kinesiska, "Jag kan tyvärr inte besvara denna fråga".
Jag får således in ett kort genom luckan. Jag tittar på de kinesiska skrivtecknen på detta kort (som för mig är meningslösa symboler) och bläddrar sedan igenom kortbunt 1 tills jag hittar ett exakt likadant kort. Med hjälp av ovannämnda regeluppsättning kan jag sedan koppla detta kort i bunt 1 med t ex kort 17 och 27 i bunt 2. Jag plockar nu fram kort 17 och 27 i den senare bunten och skickar ut dem genom luckan. Hittar jag inget kort i bunt 1 som är identiskt med det inskickade kortet, så skickar jag ut kort 273 (se föregående stycke).
Utan att jag vet om det, så kallar personerna utanför rummet den första kortbunten för "frågor" och den andra för "svar". Uppsättningen regler på svenska benämns "program" och de svar som kommer ut genom luckan (enligt processen beskriven i föregående stycken) kallas "svar på frågorna" (grundläggande arbetar datorer på detta sätt). Utifrån sett så skickar man således in frågor, skrivna på kinesiska, och får ut korrekta svar på kinesiska. Och ibland kommer det ut ett kort som på kinesiska säger "Jag kan tyvärr inte besvara denna fråga". De svar som ges, kan vara omöjliga att skilja från de svar som en kinesisktalande person skulle ge (utifrån sitt förnuft), om "programmet" är tillräckligt välskrivet. Och att vissa frågor inte kan besvaras är också helt naturligt, eftersom det är så det är i verkligheten. Ingen människa kan besvara alla frågor. Den person som befinner sig i rummet (dvs jag) tar således emot frågor på kinesiska och med hjälp av de regler (på svenska) jag fått så skickar jag ut svar på dessa frågor på kinesiska, utan att vare sig förstå frågorna eller svaren. Eller förstå meningen med reglerna (skrivna på svenska), eller ens veta att det handlar om frågor och svar.
För att ytterligare tydliggöra tankeexperimentet kan vi tänka oss att personerna utanför rummet också skickar in frågor på svenska (eller något annat språk, som jag behärskar) och får ut svar på svenska (i detta fall är det jag som besvarar frågorna på svenska utan hjälp av några skrivna instruktioner). Utifrån sett skickar man således in frågor dels på svenska, dels på kinesiska, och får ut lika bra och välformulerade svar på båda språken. Det finns emellertid en avgörande och uppenbar skillnad. När det gäller svaren på svenska så ges dessa av en medveten person, som förstår frågorna och som svarar utifrån denna förståelse (utifrån förnuft). I det andra fallet ges svaren av en person som inte förstår vare sig frågorna eller svaren eller varför reglerna är som de är (utan bara blint lyder reglerna). I detta fall produceras svaren genom manipulation av otolkade formella symboler i enlighet med formella regler (och svaret blir förnuftigt men inte utifrån förnuft). Punkt slut. När det gäller svaren på kinesiska fungerar jag precis som en dator, dvs utan medvetande (tankeexperimentet kommer ursprungligen från en artikel av den amerikanske filosofiprofessorn John R Searle i boken The Mind's I — men jag har av pedagogiska skäl förenklat det betydligt).

Ingen vettig människa tror att transistorerna inuti en dator skrattar åt roliga historier som laddas ned från Internet eller överhuvudtaget förstår vad datorn verkligen håller på med, lika lite som man tror att en MP3-spelare njuter av den musik den spelar upp. Och inte heller programvaran som exekveras njuter av den musik som spelas upp eller förstår någonting av den film som visas etc.

Slutsatsen blir att även om en dator besvarar frågor på ett mycket intelligent sätt så förstår datorn vare sig frågorna eller svaren utan följer bara vissa regler (programkoden). Ja en dator förstår överhuvudtaget ingenting! Noll! Nada! Däremot kanske den beter sig som om den förstår (om programmet är välskrivet), men det är en helt annan sak. Transistorererna eller chipsen i en dator förstår således ingenting. Inte ens datorn som helhet förstår någonting (tankeexperimentet ovan är ekvivalent med en komplett dator med kretsar, in- och utmatning, operativsystem, programvara etc). Inte heller hjärncellerna eller hjärnan som helhet förstår någonting (denna slutsats bygger på de hjärnmodeller som för närvarande anses vara korrekta). Det är "vi" som förstår! Vi som medvetna människor! Hjärnan möjliggör för oss att förstå, genom att våra jag, dvs "vi", orsakar och kan avläsa neurala processer i hjärnan. Men förståelsen och medvetandet finns hos "oss" och inte hos cellerna i hjärnan! Vad detta "vi" (ibland kallat själ) består av och var det är lokaliserat lämnar jag åt läsaren att fundera över (ingen vet med säkerhet, men i några artiklar på min hemsida snuddar jag vid denna fråga)

Att en AI eller AGI saknar sunt förnuft och en allmän förståelse av verkligheten framgår på många sätt. När man kommunicerar med en AGI beror svaret i hög grad på hur man formulerar sina frågor. Man kan få helt andra svar genom att ställa samma fråga men med några ord ändrade. De som arbetar med AGI (jag tänker då inte på de som utvecklar AGI utan de som använder AGI som ett verktyg i sitt arbete) går kurser och läser böcker om hur man skall kommunicera med AGI på bästa sätt, dvs hur man skall formulera sina frågor för att AGI ska ge så relevanta svar som möjligt. Om jag ställer en illa formulerad fråga till en människa, kan denne ofta gissa vad man egentligen vill veta och på så sätt ge ett bra svar, trots en illa genomtänkt fråga. Eller också be frågeställaren att förtydliga sig. Så fungerar inte AGI (annat än i undantagsfall).

I sammanhanget talar man om prompter (prompt kan betyda att sufflera eller lägga orden i munnen på någon), vilket innebär att "ge en vink eller en fingervisning", för att hjälpa någon att fokusera på en specifik fråga eller ett specifikt ämne. En prompt kan bestå av ett stycke text, ett ord eller en bild. På så sätt kan man påverka människor att skriva om ett givet ämne utifrån ett visst perspektiv. Analogt kan man med prompter påverka en AGI att svara utifrån ett visst perspektiv och uttrycka svaret på olika sätt. Genom att lägga in prompter i sin kommunikation med en AGI kan man få dramatiskt mycket bättre och mer relevanta svar. En prompt kan t ex bestå i att man ger AGI:n exempel på hur man vill att svaret skall se ut.
Exempel på prompt: "Jag vill lära mig franska för att använda när jag reser. Jag kan lägga ned 15 minuter om dagen på detta och jag är fullständig nybörjare. Kan du lägga upp en tremånaders kursplan för mig."

Använder man AGI regelbundet bör man fördjupa sig i "AGI-kommunikation". Man har allt att vinna på detta (denna korta, pedagogiska artikel ger olika tips om hur man skall formulera sina frågor för att utnyttja en AGI optimalt).

Ger man samma prompter till olika AI så kan resultatet bli annorlunda och ibland väldigt annorlunda. Antag att vi ger följande prompt till två olika AI utgående från den holländske mästaren Vermeers klassiska tavla "Flicka med pärlörhänge":

Vermeers klassiska målning kallad Flicka med pärlörhänge, transparenta kläder med spetsar, tättbefolkat New York tunnelbanevagn i bakgrunden (mästerverk) (vacker komposition) (Fuji film), dlsr [en speciell typ av spegelreflexkamera], högupplöst, intrikat detaljerat (hyperrealistisk oljemålning; 0.77), 4k, högt detaljerat ansikte, högt detaljerad hud, volymetrisk belysning dynamisk belysning, Carvaggio belysning, vidvinkel, ansiktsbild

så får vi följande resultat:

Bilden visar vad ChatGPT (till vänster) respektive Midjourney (till höger) kommer fram till utifrån prompten ovan och utgående från Vermers målning.
Midjourney är ett litet AI-laboratorium i San Francisco med ett tiotal anställda, vilket specialiserat sig på AI som skapar bilder utifrån textbeskrivningar. Se slutet av föreliggande artikel för mer information om ChatGPT.

Olika filmtyper (Kodak, Fuji etc ger lite olika färgtoner — man kan således be AI:n simulera kameror med våtfilmsteknik, även om kameror idag normalt har digitala sensorer i stället för film). Beträffande olika kameratyper så kan kameror ge lite olika geometri i bilden beroende på deras konstruktion och vilket objektiv man väljer. 4k är ett mått på bildupplösning. Carvaggio var en känd italiensk barockkonstnär.

I väntan på fullskaliga AGI så har man redan funnit många praktiska användningsområden på den teknik vi har idag. Förutom monumentala AGI-tjänster som ChatGPT (se nedan) etc så finns också mängder av småskaliga tillämpningar. Orkar man sätta sig in i neurala nätverk kan man själv göra enkla neurala nätverk (som i bild 4 i artikeln om NN), som körs på den egna datorn och som utför rutinuppgifter och på så sätt innebär en avlastning för användaren. Dessa kallas AI agents (AI-agenter). Sådana kan användas av en person eller anropas från ett datorprogram. Det finns också en uppsjö av AI-agenter som man betalar för (kan kosta 200 USD/månad eller mer). Det finns t ex sådana som konstruerar enkla neurala nätverk utifrån användarens specifikationer. Eller som gör korta videosnuttar man kan lägga upp på sin Youtubekanal. Man anger vad videon skall handla om och sedan går agenten ut på nätet och letar reda på lämpliga videofilmer som den sedan tar bitar ur och sätter ihop. Plus att agenten skriver kommentarer, lägger på tal och musik och kanske textremsa etc. Och allt detta tar några sekunder (i stället för flera timmar om det görs för hand). Självklart kan man också använda videor man själv tagit, men slipper då arbetet med att sitta och klippa och klistra och lägga på musik etc. Här kommer detta med prompt in (se ovan), eftersom ju bättre man beskriver vad man vill ha desto bättre kommer slutprodukten (den färdiga videon) att bli. Det finns också AI-agenter som kan arbeta på en dator som en människa. Dessa kan öppna filer och läsa dessa eller analysera bilder etc, etc. Eller gå igenom dagens mail och sortera bort spam (mycket bättre än ett normalt spamfilter) och sortera mailen och även besvara många mail. På så sätt kan man automatisera dagliga rutinuppgifter och spara många timmars arbetstid varje vecka. AI-agenter utgör en snabbt växande bransch.

De som använder AI-agenter mycket brukar säga att dessa är väldigt användbara när det gäller enkla uppgifter. Men att man bör vara försiktig med AI (noggrant kontrollera resultatet eller inte använda AI alls) när det gäller saker som har potential att skada företag och personal om det blir fel. Det finns ett fenomen i sammanhanget som brukar kallas AI hallucinationer. Ibland kan AI och AGI nämligen komma med totalt felaktiga eller rent av löjeväckande svar, när det gäller lite mer komplexa problem (speciellt om användaren inte ger tydliga prompts). Ja det händer till och med att AI och AGI hittar på saker och ting (hallucinerar). Ungefär som en alkoholist som ser skära elefanter. Och det beror ju på att AI och AGI (baserad på NN/LLM) inte förstår någonting utan endast kopplar ihop olika data med varandra (genom statistiska korrelationer) och därför inte kan skilja på orsak och verkan och en del andra saker som har med logik att göra.

AI-hallucinationer verkar framför allt inträffa när man ber AI:n lösa problem som den inte klarar av att lösa och samtidigt ger den prompts som gör att den kan gissa ungefär vilket svar man vill ha (dvs inte bara talar om vad man vill veta utan också antyder vad man tror svaret är). Då kan den hitta på svar som uppfyller våra önskningar (som AI:n uppfattar dem). Vilket påminner mig lite om när jag var i Indien. Då fick jag lära mig att om man var ute och promenerade och frågade en person på gatan om det fanns någon restaurang längre fram på gatan så fick man alltid ett jakande svar, även om det sanna svaret var nej. Den man frågade försökte vara vänlig och ville inte göra frågeställaren besviken. Så ville man veta vad som fanns längre fram på gatan fick man fråga något i stil med "Vad finns det längre fram på denna gata" och då inte se hungrig ut (så att de kunde gissa vad man letade efter). Och det är tydligen samma sak med AI. Vilket får AI att verka riktigt mänsklig.

Någon kallade NN/LLM) för statistiska extrapolationsmaskiner. Interpolation innebär att man utifrån kända element i en datamängd försöker bilda sig en uppfattning om okända element i denna datamängd. Vilket kan fungera mer eller mindre bra. Extrapolation innebär att man utifrån kända element i en datamängd försöker bilda sig en uppfattning om okända element utanför denna datamängd. Vilket givetvis kan leda hur fel som helst. LLM förstår inte begrepp som mening och logiska inferenser eller orsak och verkan, utan är begränsad till att förutsäga nästa ord i en mening baserat på inlärning och korrelationer av den uppsättning data den tränat på (om man vill vara elak). Jag har svårt att se att statistiska extrapolationer skulle kunna skapa ny kunskap. I bästa fall kan sådana extrapolationer (om de är korrekta) möjligen synliggöra kunskap man redan har, men kanske inte är medveten om att man har. /

En LLM kan betraktas som en maskin vilken tar emot en följd av ord som input och sedan försöker förutsäga nästa ord. Dessa förutsägelser bygger på statistiska korrelationer och inte på någon medveten intellligens.

Ett viktigt användningsområde för AI och AI-agenter är konventionell programmering. I stället för att en människa sitter i månader och arbetar med ett program kan en AI eller AI-agent utföra arbetet (eller delar av arbetet) på en bråkdel av den tid som en människa behöver. Avancerad programmering kanske kräver mänsklig intelligens och intuition men i detta fall kan en AI/AI agent eventuellt koda de delar av programmet som består av rutinmässig programmering. Enligt Googles forskningschef Jeff Dean så genereras idag (250328) 25% av Googles kodbas av AI.

Låt mig nu sammafatta det vi gått igenom (AI, LLM etc) så att läsaren får en översiktlig bild av hur de olika begreppen hänger ihop. AI (jag inkluderar AGI här) är en funktion som kan genereras på många olika sätt. AI är således målet, det vi strävar mot, resten är olika bakomliggande delsystem för att uppnå detta mål. Självinlärande LLM är en strategi (bland många) för att skapa AI. I princip är AI inte begränsad till LLM men för närvarande används ofta LLM för att generera AI. Neurala nätverk är (idag) en virtuell maskin som lämpar sig för att generera LLM (vilket i sin tur lämpar sig för att generera AI). CPU och GPU (olika typer av processorer) är den fysiska maskinvara (i vilken flyter verkliga, fysiska, elektriska strömmar) som exekverar de neurala nätverken (vilka helt enkelt är mjukvara/program, som körs på fysiska processorer). Dessa virtuella, neurala nätverk skapar LLM som i sin tur skapar AI. Neurala nätverk kan också skapas direkt genom speciella processorer (se artikeln om neurala nätverk), där nätverken är hårdprogrammerade i processorn och inte mjukvara. Sådana processorer kommer antagligen att bli vanligare i framtiden.

Människans medvetande är ett av vetenskapens största mysterier och vi har ingen som helst förklaring till hur vårt medvetande fungerar. En robot eller självkörande bil kan bete sig som om den är medveten, eftersom den kan ta in data utifrån och sedan agera på detta. När jag talar om medvetande menar jag självmedvetande, dvs att vara medveten om sig själv, att kunna stå utanför sig själv och observera sig själv och att uppleva. Dvs helt enkelt att vara en person och inte en maskin. I att vara en person ingår också att ha fri vilja och moral och därmed ett moraliskt ansvar.

Vissa personer som arbetar med AGI tror att det finns en "magisk gräns", en slags "kritisk massa", när det gäller antalet transistorfunktioner i en dator, och att när vi överskrider denna gräns så kommer datorn per automatik att bli en medveten varelse, dvs en person. Att stänga av strömmen till en sådan dator vore liktydigt med mord, eftersom denna skulle uppleva dödsskräck. Personligen tror jag att medvetandet är betydligt mer komplicerat än så och jag tror inte att det kan förklaras enbart materiellt utan att det också finns andliga aspekter involverade (använder man min textsökningsfunktion i ramen till vänster och söker på "fri vilja" eller "medvetande" kommer man att hitta flera artiklar där jag djupdyker i dessa ämnen).

För att summera: De AGI (och bakomliggande LLM och NN) vi ser idag har brister (se ovan och artikeln om neurala nätverk). Just nu verkar neurala nätverk vara en lämplig plattform för AGI men många frågetecken finns. Medan neurala nätverk har stor framgång inom vissa delar av AGI (bildigenkänning, språkbehandling och liknande) finns också en hel del brister hos neurala nätverk. Bl a när det gäller matematiska beräkningar. Neurala nätverk behöver enorma kvantiteter data för att fungera tillfredsställande och har, förutom matematik, svårt med processer som kräver sunt förnuft och att förstå sammanhang och kunna koppla ihop kunskaper inom olika områden. Saker som människor utför utan några större problem och ofta utan någon speciell utbildning. Vissa forskare tror att en uppskalning av neurala nätverk — både när det gäller komplexitet, dvs antal parametrar (se artikeln om neurala nätverk), och när det gäller träningsmetoder — kommer att få neurala nätverk att närma sig verklig AGI. Andra menar att enbart neurala nätverk inte räcker som plattform utan att nya arkitekturer och paradigm som symbolisk inferens och hybridmodeller, där neurala nätverk och logiska program samarbetar, kommer att krävas (neuro-symbolisk hybrid AI). En ytterligare väg att gå kan vara att få noderna i NN att mer efterlikna riktiga neuroner (t ex neuromorfiska chips — se artikeln om neurala nätverk). Fast jag har svårt att se hur det senare skulle kunna avhjälpa de logiska bristerna hos neurala nätverk. Forskning pågår inom alla dessa områden.

De mest pessimistiska bedömarna ser inte dagens AGI som verklig AGI, eller ens nära verklig AGI, och menar att vi är långt, långt ifrån att skapa AGI som på något sätt kan konkurrera med mänsklig intelligens, och att det kommer att dröja 50-100 år innan AGI som gör skäl för namnet finns. Om det ens är möjligt.

Det finns givetvis mycket mer att säga om AGI men jag stannar här. Vi får väl se hur snabbt AGI kommer att utvecklas och huruvida den får för sig att utrota mänskligheten som i Terminator, Matrix och andra dystopiska filmer. Enligt min mening så hade det varit bäst för människan om AGI aldrig hade utvecklats, men i och med den moderna datorn så fanns ju AGI i förlängningen. AGI var helt enkelt en oundviklig konsekvens av datorutvecklingen!

Personligen tror jag att AGI är ett mycket större hot mot mänskligheten än den globala uppvärmningen. Inte för att AGI kommer att utrota mänskligheten (vilket jag ser som osannolikt, även om det inte helt kan uteslutas) utan för att AGI antagligen kommer att orsaka Tankedöden, vilken innebär att mänskligheten sjunker ned i dumhetens slemmiga träsk (när hon inte längre behöver tänka själv så försvinner eller förtorkar den förmågan). Vilket redan påbörjats i och med woke och pk och andra hjärndöda fenomen, som till och med drabbat de institutioner som man hade trott eller hoppats minst skulle drabbas av sådant. Jag tänker då på toppuniversitet som Harvard, Oxford etc, vars studenter och även delar av lärarkåren numera huvudsakligen tycks ägna sig åt politisk aktivism med röda, antisemitiska förtecken. Rektorernas talande tystnad antyder att de i själ och hjärta hyser samma åsikter som de aktivistiska, judehatande studenterna och lärarna. Något som inte bådar gott för framtidens Akademia.

Ekonomer har varnat för konsekvenserna av att AI och AI-styrda robotar och AGI (fortsättningsvis inkluderar jag AGI när jag skriver AI) kommer att kunna utföra många typer av jobb (industriarbetare, bilmekaniker, chaufförer, piloter, lärare etc). Och ju mer avancerad AI:n blir desto fler jobb kan ersättas av AI. Många kirurgiska ingrepp sker idag med hjälp av robotar, som styrs av människor. I förlängningen kommer dessa kirurgirobotar med all sannolikhet att styras av AI. Även många andra läkarjobb kommer antagligen att skötas av AI, som ju aldrig har dåliga dagar efter att grälat med sin fru, eller är trötta eller snuviga). Sen kan man ju fundera över om människor verkligen vill ha robotläkare och om eleverna skulle uppskatta robotlärare. Eller om resenärer skulle uppskatta robotflygvärdinnor och robotpiloter och robotguider. Jag har svårt att tro det. Och hur skall man t ex skapa jobb till de hundratals miljoner människor som kommer att bli arbetslösa på grund av att AI nu gör deras jobb? Dessutom, när så många blir arbetslösa, kommer det att finnas allt färre människor som har råd att köpa de varor som produceras av AI-arbetarna. Dvs vi kommer att få se masskonkurser hos företagen och kanske att länders hela ekonomi kommer att kollapsa.

Det finns emellertid ingen naturlag som säger att det måste bli så, men här får nog våra politiker och journalister (som också påverkar samhället) se upp. Och tänka efter, före. I bästa fall kanske vi får ett samhälle där vi har obegränsad, grön energi och robotar och AI som sköter om allt. Och människan kan fördriva sina dagar med att läsa böcker, vila sig och syssla med hobbies. Och få mat, boende och allt annat man behöver gratis från samhället. Det finns många framtidsromaner och -filmer på detta tema. Frågan är dock om människor verkligen skulle vilja leva på det sättet. Jag är inte så säker på det. Jag gissar att självmord kommer att vara den vanligaste dödsorsaken i ett sådant samhälle.

Det vi diskuterar här har ett namn: Transformative Artificial Intelligence (TAI). Detta brukar definieras som en AGI med potential att orsaka dramatiska förändringar för samhälle och människa i paritet med den agrikulturella revolutionen, vilken innebar att mänskligheten övergick från att leva av jakt och fiske och samla rötter till jordbruk. Innan det fanns jordbruk gick ofta hela dagen åt för att skaffa mat till nästa dag. Efter jordbruksrevolutionen fick människor tid till andra saker än att bara skaffa mat, vilket fick kultur och teknik och mycket annat att börja utvecklas. Eller i paritet med den industriella revolutionen, som gjorde att varor som tidigare kostat en förmögenhet, och endast kunde köpas av de rika, nu blev så billiga att vem som helst kunde äga dem. Trots att industrialiseringen också har haft mörka sidor råder ingen tvekan om att den utgör den huvudsakliga faktorn bakom det moderna välfärdssamhället.


Addendum: Sedan ovanstående skrevs har jag tagit del av en mycket intressant rapport från en grupp ingenjörer på Apple. De har testat olika AGI-program (bl a ChatGPT) och kommit fram till slutssatser som stämmer väl överens med mycket av det jag skriver ovan. Jag listar några slutsatser som olika kommentatorer dragit utifrån Appleingenjörernas rapport.

Genom en serie tester har ingenjörerna hos Apple visat att förmågan att resonera hos AGI oftast eller alltid handlar om minneskapacitet och inte om verklig intelligens.
Kapaciteten hos LMM (grunden för neuralanätverksbaserade AGI, se ovan) förklaras bäst med sofistikerad mönsteringenkänning, som studien visade vara "så bräcklig att man genom att enbart ändra ett namn kan få ett annat resultat". Det är därför LLM kallas förutsägande (prediktiva) modeller och inte förnuftsbaserade (resonerande) modeller.
I stället för att resonera sig igenom problem som människor gör, så förlitar sig AI på att koppla ihop mönster och dra statistiska slutsatser. Om AI-system tillfrågas i ett ämne de inte har mött under sin träning, kan resultatet bli rent nonsens eller osammanhängande.
Talet om AI-intelligens är överdrivet. Dessa modeller må verka smarta, men deras förståelse är ytlig [om den ens existerar] och drivs av minneskunskaper, inte av verklig förståelse. Till exempel när LLM konfronteras med komplexa uppgifter så förlitar de sig i hög grad på tidigare kända exempel, snarare än att dra nya slutsatser som en människa skulle göra.
Framtiden för AI kommer med all sannolikhet att mindre handla om skapandet av människolik intelligens och mer handla om att förfina verktyg som hjälper oss med speciella funktioner på sätt som är förutsägbara, skalbara och pålitliga.

För de läsare som är intresserade av att testa AGI (och som inte redan gjort det) ger jag här två länkar (ingen av dessa tjänster uppfyller, enligt min och många andras mening, kraven på en veritabel AGI, men är utan tvekan imponerande på många sätt):

ChatGPT
DeepSeek

ChatGPT, skapad av företaget OpenAI, har funnits med ett tag. Den kan användas som gratistjänst men finns också som betaltjänst (vilken ger tillgång till senare och mer kraftfulla versioner). För att använda denna tjänst måste man skapa ett konto (detta kan göras gratis).

DeepSeek (som inte verkar fungera på äldre webbläsare) är en helt ny, kinesisk AI/AGI som verkar fungera minst lika bra som ChatGPT, om inte bättre. Den verkar vara helt gratis. Även här måste man logga in, men detta kan göras via Google, så det verkar inte som att man behöver registrera ett särskilt konto här. Jag har testat några matematikproblem och inom detta område verkar DeepSeek vara överlägsen ChatGPT (vilket kan bero på att den senare enbart bygger på neurala nätverk). Dessutom så presenterar DeepSeek lösningarna väldigt pedagogiskt och tydligt.

Till underartikeln "Neurala närverk
Tillbaka till huvudartikeln för avdelningen "Vetenskap och tro"


© Krister Renard