"Godhet utan vishet och utan
gränser är bara en annan
form av ondska."
(John Paterson)

"Mänsklighetens bästa är alltid
tyrannens alibi!"


"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(Okänd)

"Om du ropar "Gud är stor"
samtidigt som du spottar på
skändade kroppar av judiska
kvinnor, så hävdar jag att
din gud inte är en gud värd
att tillbe!


"När försiktigheten finns överallt,
finns modet ingenstans."
(den belgiske kardinalen Mercier)

"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)

"Civiliserade är de kulturer
och individer som respekterar
andra."
(Hört på Axesskanalen)

"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)

"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)

Senast ändrad: 2026 03 02 13:01

Artificiell intelligens (AI/AGI) — vad är det?

Ditt öga är tomt som ett ödehus,
Det lär bo någon där likväl:
Man kan skymta ett ängsligt fladdrande ljus
ibland — Kan det vara din själ?

                    Nils Ferlin (dikten heter "Som ett Ödehus")
Under träningen (inlärningen) av en AI analyseras enorma datamängder för att hitta statistiska korrelationer mellan ingående data. Dvs AI:n skapar sig en bild av hur dessa data hänger ihop statistiskt. Datamängdens kausala kopplingar (orsak och verkan), dvs naturen av dessa kopplingar (logiskt, fysiskt, mänskligt etc) ingår inte i denna analys. En AI har således ingen egentlig förståelse eller kunskap om det den uttalar sig om (dvs saknar insikt i de bakomliggande orsakerna till de statistiska korrelationerna.
En AI kan användas till många saker, bl a för att skaffa information. När man googlar söker man på ord eller uttryck. Ju smartare man formulerar sin sökning desto mer relevanta sökträffar får man. Sedan surfar man runt bland de länkar Google ger. I vissa fall räcker det kanske med att kolla en av dessa länkar (om man söker rena faktauppgifter typ; antalet invånare i Hörby eller densiteten för volfram). I andra fall, när man vill förstå hur en maskin fungerar, principen för en vetenskaplig teori och liknande, får man surfa runt bland de länkar sökningen gett. Och försöka hitta en länk där förklaringen ligger på en nivå man klarar av att förstå. Ibland leder dessa länkar till nya länkar. Etc, etc.
En AI gör allt det som räknas upp i sista stycket ovan. Dvs besparar användaren både tid och ansträngning. Förutsättningen är att man formulerat sig väl när man kommunicerar med AI:n (kallas promptar). På så sätt hjälper man AI:n att ge så relevanta svar som möjligt.
En AI kan också användas som ett verktyg (för att programmera en app, göra en video, svara på rutinmail, översätta, skriva sammanfattningar och mycket annat). Hur väl den klarar detta beror på hur den är uppbyggd och vilken databas den är tränad på. Även här beror resultatet i hög grad på hur väl man formulerar det man vill att AI:n skall göra.
En AI har begränsningar och kan t ex inte generalisera utanför den datamängd den tränats på. Den är också dålig på abstrakt tänkande. Det pågår olika försök med att förbättra dessa förmågor hos kommande generationer av AI.

 

(Note: at the top of the page you can choose translation of this article to other languages, but don't expect the translation to be perfect — "Välj språk" means "Choose language")

Föreliggande artikel utgör en allmän diskussion om artificiell intelligens och kompletteras av en mer djuplodande artikel om neurala nätverk. Artikeln handlar inte om tekniska detaljer utan försöker ge en övergripande, principiell förståelse av det vi kallar artificiell intelligens

Idag talas det mycket om AI (Artificiell Intelligens/Artificial Intelligence) och folk imponeras storligen — utan att egentligen veta vad de imponeras av. Till stora delar handlar AI helt enkelt om smart och snabb informationshantering. Att AI har gått fram så starkt på sistone är för att tiden var mogen. Vi har idag tillgång till extremt snabba datorer (som kan göra lika många beräkninger eller logiska operationer på 1/1000 sekund som vad en miljon människor kan göra tillsammans under hela sin livstid. Under senare år har man utvecklat eller förfinat programvaror (t ex neurala nätverk) och hårdvaror, som kan hantera enorma mängder information både snabbt och smart (dvs som inte bara tar fram informationen utan också gör den strukturerad och lättfattlig och översiktlig). Plus att stora mängder information, som tidigare fanns i pappersform eller som band etc i arkiv, idag är digitaliserad och finns tillgänglig via internet. Eftersom en AI kan göra avancerade matematiska beräkningar eller komplexa logiska operationer på bråkdelen av en sekund, ger den ett intryck av överlägsen intelligens, trots att dessa beräkningar bygger på helt mekaniska operationer följande en given mall. Beträffande AI:s förmåga att lösa riktigt svåra matematiska problem, för vilka inte finns färdiga lösningsstrategier, så har AI stora problem och går ofta bet. Men vi återkommer till detta. De flesta vanliga människor använder AI som en superuppslagsbok, ett super google, för att få fram information, enkelt och bekvämt. Detta har emellertid inte så mycket med verklig intelligens att göra. Men kan ge intryck av stor intelligens!

Innan vi går vidare, låt mig först klargöra några saker. Artificiell Intelligens (AI) har funnit länge. De olika sökmotorerna på Internet utgör exempel på detta. Google translate är ett annat exempel. GPS-navigatorer som föreslår kortaste eller mest natursköna eller snabbaste vägen mellan A och B är ett tredje. I alla dessa fall handlar det om funktioner som utför en specifik uppgift. Och kan utföra den bra. Ibland bättre än en människa. Men det handlar om intelligens som endast klarar mycket begränsade uppgifter. Till skillnad från mänsklig intelligens, som även utan utbildning och tidigare erfarenheter kan lösa svåra problem (även om givetvis utbildning och erfarenheter gör att man slipper göra en massa nybörjarfel).

Artificiell Generell Intelligens (AGI) är AI upplyft till en mycket högre, generell nivå. AGI består av många olika AI-funktioner (enligt föregående stycke) som är integrerade i ett större sammanhang och underordnade en högre nivå av AI. På så sätt kan isolerade kunskaper och förmågor samverka utifrån en högre nivå av intelligens. Vilket gör att man får något som är mycket större och mycket kraftfullare än de enskilda delarna. Detta påminner om vissa modeller för hur den mänskliga hjärnan fungerar. Med AGI strävar man efter att närma sig mänsklig, kognitiv nivå. Det handlar med andra ord inte bara om en avancerad sökmotor eller något som kan utföra en viss uppgift, utan om något som kan dra allmänna slutsatser och se mönster och förklara hur saker och ting fungerar och hänger ihop. Och kanske till och med kan göra egna upptäcker och uppfinningar och själv skriva böcker och musik. Det råder mycket delade meningar om hur långt vi kommit när det gäller AGI. De flesta forskare är överens om att vi är långt ifrån AGI av den typ som beskrivits i de sista meningarna, men vi har utan tvekan kommit en bra bit på vägen under de senaste åren. Nedan använder jag termen AGI, eftersom det vi har idag (t ex ChatGPT) är ett stort, stort steg framåt mot vad vi haft för bara ett par år sedan.

Det finns ett ytterligare begrepp som är intimt kopplat till AGI. Det förkortas LLM, vilket betyder Large Language Models (Stora, Omfattande Språkmodeller). En LLM utgörs av mycket stora djupinlärande modeller som förtränas på enormt stora datamängder. Den underliggande programvaran består av neurala nätverk som innefattar en kodare och en avkodare och kapacitet för "självuppmärksamhet" (self-attention). Det senare innebär att en LLM tolkar en text inte bara sekventiellt (ord för ord) utan också parallellt (det är därför grafikprocessorer, kallade GPU, är så effektiva i sammanhanget, eftersom de är gjorda för att bearbeta stora datamängder i parellella trådar — detta diskuteras längre fram i föreliggande artikel). LLM är kapabla till oövervakad träning, kallad självinlärning och är väldigt flexibla, även om de också har brister, vilket kommer att framgå av den följande texten.

Föreliggande artikel behandlar i första hand AGI, även om AI finns i bakgrunden.

Vid sidan av LLM-baserad AI/AGI finns något som kallas expertsystem (expert systems). Dessa används professionellt som beslutsstödssystem, analyssystem och för att göra matematiska kalkyler etc och utgör en helt annat typ av AI än vad som behandlas i föreliggande artikel. Läkare kan använda expertsystem för att ställa diagnoser. Börsmäklare kan använda dem för att göra ekonomiska bedömningar. Etc. Expertsystem besvarar i princip frågor från användaren inom ett relativt begränsat kunskapsområde. De drar sina slutsatser baserat på en uppsättning regler och lagrade fakta (kunskapsdatabas) med hjälp av inprogrammerade logiska funktioner (dvs fungerar helt annorlunda än LLM). Expertsystemen simulerar mänsklig bedömning och tänkande och utgör en alternativ form av artificiell intelligens jämfört med LLM. Expertsystem besitter således, till skillnad från LLM-baserade AGI, verkliga kunskaper och logiska förmågor, och ligger därför närmare hur vi människor fungerar i egenskap av människor än LLM (som möjligen avspeglar hjärnfunktioner men även det är tveksamt). Samtidigt som expertsystemen givetvis är mer begränsade än LLM. Som vi skall se nedan så kan man tänka sig en syntes av LLM och någon utvidgad typ av expertsystem som bas för framtidens AGI, där AGI:n med hjälp av expertystemets logiska funktioner kan motivera sina slutsatser. Så att en människa kan bedömma tillförlitligheten i dessa slutsatser. LLM-baserade systems bristande förmåga i detta avseende utgör en mycket allvarlig brist, speciellt i de fall där en AGI används för att fatta för samhället eller företag eller individer viktiga beslut. Men mer om detta nedan.

AI och AGI kan köras på en vanlig dator med vanliga processorer (CPU och GPU) och med hjälp av konventionellt programmerade program (bestående av stegvisa instruktioner om hur indata skall behandlas). AGI behöver således inga speciella processorer eller datorer. Däremot kan en AGI snabbas upp och bli mer kraftfull på olika sätt. Den kan exempelvis vara programmerad som LLM, vilka i sin tur exekveras på s k neurala nätverk (fortsättningsvis kallade NN). Dessa nätverk kan köras på vanliga processorer (även om det inte är optimalt). Ännu mycket mer kraftfull kan AGI bli om de neurala nätverken körs på processorer specialdesignade för NN. Kraftfulla AGI bygger idag alltmer på neurala nätverk (även om också andra lösningar testas). NN fungerar väldigt annorlunda jämfört med konventionella program. De senare består av en kedja av instruktioner, skrivna av programmerare, dvs av människor. Dessa instruktioner bestämmer detaljerat vad som skall ske med indata. Neurala nätverk å andra sidan programmerar i princip sig själva utifrån de krav som ställs (läs denna korta artikel för en översiktlig beskrivning av neurala nätverk). I detta fall ställs kraven av människor medan det neurala nätverket självt skapar motsvarigheten till programkod för att uppfylla de ställda kraven.

NN kan således köras på vanliga processorer (CPU) men det blir inte speciellt effektivt. Ju fler kärnor processorn har desto bättre fungerar det emellertid. Grafikprocessorer (GPU), som sköter om grafiken på en dator, är mer lämpade för NN, eftersom denna typ av processor kan köra ett stort antal processer parallellt. Sedan finns det också processorer som är skräddarsydda för neurala nätverk (NPU). NN är inte alltid bättre än konventionella program. För rena beräkningar är ofta logiskt programmerade kalkylprogram att föredra framför neurala nätverk (helt enkelt eftersom matematik är en form av logik). Men för reglersystem, översättningsprogram, AI och AGI och en del andra saker så är NN speciellt lämpligt. Google Translate har under senare år alltmer gått över till NN. Siri, assistenten i iPhone, genereras också av ett NN. Ett översättningsprogram som heter DeepL är helt baserat på NN. Enligt min mening ger DeepL bättre översättningar än Google Translate. Ju längre text desto bättre fungerar DeepL, eftersom en större textmassa gör att de neurala nätverken kan få en helhetsbild av texten och sätta in den i ett större sammanhang (så att relevanta ord och uttryck används). Vill man översätta enstaka ord fungerar ibland DeepL mycket sämre än Google, eftersom den senare mer fungerar som ett vanligt lexikon (där man slår upp enstaka ord), medan DeepL som sagt behöver ett sammanhang.

Neurala nätverk är ett försök att efterlikna biologiska organismers nervsystem och hjärna, även om det handlar om en väldigt grov efterapning. Forskning pågår på mer avancerade typer av NN, vilka bättre skall avbilda nervsystemet och tycks ha stor potential. NN-system brukar kallas själv(in)lärande system, dvs de har en förmåga att lära sig saker och dra egna slutsatser utifrån detta. Vill man att AGI, baserat på NN, skall hitta samband mellan två eller flera faktorer måste en sådan AGI ha ett väldigt stort underlag (massor med sammanhängande par) för att hitta mönster och komma fram till en slutsats, medan en människa kan dra sina slutsatser redan efter ett fåtal observationer. Genom NN-system som i högre grad efterliknar nervsystemet hoppas man få mer "människolika" NN. Men som sagt, forskning pågår.

Vissa AGI körs med konventionella program, andra använder en kombination av vanliga program och neurala nätverk, medan exempelvis ChatGPT helt bygger på neurala nätverk.

Summa summarum är att AGI inte är beroende av NN, men att NN ändå tycks ha en potential att skapa vassa AGI.

En del av datorernas styrka ligger i att de aldrig räknar/gör fel (blir resultatet fel beror det ofta på fel i programvaran eller felaktiga indata). Och att de processerar data (beräkningar, logiska kalkyler etc) oerhört snabbt (1018, dvs en miljon biljoner, beräkningar per sekund om vi talar om superdatorer). Dessutom, om en människa sitter år efter år och gör långa uträkningar, så kommer denne att förr eller senare räkna fel. Alltid!!! Om då detta felaktiga resultat ligger till grund för vidare beräkninger, kommer alla följande resultat att vara felaktiga. Detta är ett stort problem för oss människor.

Pi (π) (≈ 3,14159...) är ett intressant tal, som innehåller oändligt många decimaler och har studerats ingående. Under 1800-talet räknade man för hand fram pi med många decimaler (detta kan göras genom att uttrycka pi som en serie och ju fler termer man tar med i serien desto fler decimaler får man, till priset av mycket mer räknearbete). William Shank började 1850 räkna ut pi med målet att få fram så många decimaler som möjligt (innan orken tog slut). Efter 20 år hade han räknat fram pi med 707 decimaler! Hans beräkningar accepterades som korrekta men senare beräkningar har visat att han gjorde några räknefel vid den 530:e decimalen, vilket medförde att alla decimaler efter detta blev fel. Han dog några år efter att han var klar och fick aldrig reda på att han räknat fel. Man kan säga att hans arbete var ganska bortkastat med tanke på att man idag, på en vanlig desktopdator, kan räkna fram pi med 1000 decimaler på någon minut. Idag har vi räknat ut pi med flera biljoner decimaler (202 biljoner decimaler i juni 2024).
Läsaren kanske undrar varför man vill veta π med så många decimaler. För att göra praktiska beräkningar behöver man bara π med max 8 värdesiffror. Π, som grundläggande är lika med förhållandet mellan omkrets och diameter i en cirkel, är ett mycket speciellt tal som dyker upp i alla möjliga sammanhang (som inte har något med vare sig cirklar eller geometri att göra) och är ett irrationellt tal. Det senare innebär att π innehåller oändligt många decimaler. Att man beräknar π med biljoner decimaler beror på att man bl a letar efter periodiciteter i dessa decimaler (se min artikel om matematikens användbarhet).
En avgörande egenskap hos datorer är som sagt att de till skillnad från människor aldrig blir trötta eller okoncentrerade och därför aldrig räknar fel, oavsett hur långa beräkningar det handlar om.

En annan styrka är datorernas enorma minneskapacitet och snabbhet när det gäller att hitta och läsa det som finns i minnet. En dator "minns" aldrig fel. Aldrig, aldrig! Även om det kan bli fel på grund av spänningsspikar i nätet eller något annat, har datorerna felkontrollfunktioner (paritetsbitar etc) som gör att alla fel upptäcks och oftast korrigeras. Större datamängder lagras inte i datorn själv utan i stora minnesbanker. Förr bestod dessa av mängder av mekaniska hårddiskar. Idag använder vi i stället halvledarminnen (SSD/Solid State Disc), som fungerar ekvivalent med mekaniska hårddiskar men är minst 100 gånger snabbare när det gäller att skriva och läsa data och har 100 gånger snabbare accesstid (den tid det tar att hitta en viss fil) jämfört med en mekanisk hårddisk. Plus att de har mycket längre livslängd, eftersom de inte har några rörliga delar.

När man började experimentera med kraftfulla schackdatorer lät man två datorer spela mot varandra och sedan analysera det senaste partiet. Dessa datorer gjordes självprogrammerande så att de kunde ändra i programvaran om de genom analyserna upptäckte svagheter i sin programkod. Eftersom schackpartierna skedde internt med "ljusets hastighet" kunde de spela kanske tusen partier per sekund (gissningsvis). Efter att ha spelat mot varandra i en vecka (drygt 600 miljoner schackpartier) och sedan optimerat programvaran utifrån analyserna av dessa partier, hade de nu blivit dramatiskt mycket skickligare på schack än den människa som skrivit det ursprungliga programmet. På samma sätt kan man låta två eller flera AGI konkurrera eller tävla mot varandra för att på så sätt vässa sina förmågor. AGI kan genom sådana tekniker på egen hand öka sina förmågor dramatiskt och eventuellt, så småningom, bli nästan oändligt överlägsen oss människor (tror en del i varje fall).

Det finns vissa framstående forskare och andra som är eller varit rädda för, eller i varje fall hyser farhågor, när det gäller AGI. Stephen Hawking (den kände, rullstolsbundne fysikern, som dog för ett par år sedan) är ett exempel. Nobelpriset 2024 gick till två av pionjärerna inom AI- och AGI-forskning. En av dem, Geoffrey Hinton, ser stora faror med AGI (läs denna artikel).

En annan som ser faror med AGI är jag. I princip skulle en AGI, som är riktigt smart och som har tillgång till Internet, kunna börja med att en gång i veckan hacka sig in i alla världens bankdatorer och ta ett öre (eller motsvarande) från varje konto, vilket skulle bli en rejäl månadsinkomst. Och ingen skulle märka något. Sedan skulle AGI:n kunna starta företag och anställa folk (där ingen skulle veta att en AGI ligger bakom, inte ens VD:n) och sedan ställa till med farliga saker. Anställa soldater i tusental, skaffa vapen etc, etc. Börja mörda politiker och alla som är motståndare till AGI och på så sätt ta kontroll över världen (genom att bl a ta sig in i stormakternas kärnvapenarsenaler och börja avlossa kärnvapen åt alla håll). Därför har man bestämt sig för att än så länge inte ge AGI tillgång till Internet, innan man kommit på hur man säkert skall kunna kontrollera AGI. Ett vist drag! Exakt detta scenario utgör för övrigt huvudtemat i den mycket välgjorda och spännande TV-serien "Person of Interest". Och utgör även underlag för filmer som Matrix och Terminator och deras spin-off.

Eftersom alla beräkningar i en superdator sker så snabbt, framstår ett AGI-program som ett veritabelt snille, totalt överlägset en vanlig människa. Vilket enligt min mening inte alls stämmer. AGI är överlägsen på vissa saker (rutinsaker, problem som redan är lösta, hitta mönster i stora databaser etc) men inte nödvändigtvis när det gäller att skapa nya lösningar utifrån helt andra infallsvinklar. Lösningar som kanske kräver fantasi och intuition och målmedvetenhet.

Datorer i allmänhet och AGI i synnerhet upplevs som skrämmande av många. Idag är en normal schackspelare totalt chanslös mot även ett ganska mediokert schackprogram. Giganter inom schack som Kasparov, Bobby Fischer etc kanske kan/kunde slå de kraftfullaste schackdatorerna någon enstaka gång men sällan. Att det är så är helt självklart, eftersom datorer är logikmaskiner och schack är ren logik. Det är snarare förvånande om en människa någonsin kan slå en riktigt kraftfull schackdator. Vilket tydligen sker ibland.

Samma sak gäller matematik. Varje år har vi en matematikolympiad för gymnasister, där många, många länder deltar. De som vinner i respektive land möts sedan i en internationell final. Problemen är ganska svåra, eftersom de inte direkt bygger på det man lär sig på matematiklektionerna. Man måste helt enkelt kunna tänka matematiskt på egen hand om man skall lyckas bra. Det tycks dock som att de som placerar sig högt i matematikolympiaderna inte självklart blir stora matematiker. Att bli en framstående matematiker kräver mycket speciella egenskaper som inte kan mätas i tävlingar eller i betyg. Och dessutom mycket hårt och långvarigt arbete.

Många som deltar i matematik-OS tränar genom att räkna mängder av gamla OS-problem. Och vissa lärare, som vill att deras elever som ställer upp i olympiaden skall lyckas bra, ger extralektioner till dessa elever, där de tränar på gamla OS-problem. På så vis kan man öva sig och det är ingen tvekan om att man på detta sätt dramatiskt kan förbättra sitt resultat på OS. Men då handlar det ju inte om grundläggande matematisk begåvning utan om att känna igen typtal och minnas hur dessa löses. Det är kanske därför så få av de som vinner matematikolympiaden blir framstående matematiker. De är mer träningsprodukter än genuina mattebegåvningar (ungefär som en AGI).

Man har låtit AGI lösa problemen på några matematikolympiader och AGI lyckas då betydligt bättre än gymnasisterna (vilket som sagt är självklart). Men man gjorde nyligen ett test, där man bad några framstående matematiker att göra problem som de trodde att AGI skulle ha svårt att lösa. Och det visade sig att AGI gick bet på dessa problem. Vilket är precis vad man kan förvänta sig.

Självklart utvecklas AGI och kommer att bli alltmer kraftfullt. Frågan är dock om en AGI någonsin, helt på egen hand, skulle kunna komma fram till något så totalt nytt och banbrytande som Einsteins allmänna relativitetsteori. Nu har ju datorer (som ju ligger till grund för AGI) många styrkor som inte människor har. AGI kan ju t ex blint testa mängder av olika alternativa lösningsstrategier etc. Det kan ju en människa också, och gör också så. Skillnaden är att en snabb AGI kan testa miljarder olika alternativ per sekund. Och den minns alla testade alternativ och deras för- och nackdelar (om en människa försöker knäcka ett lösenord genom att prova olika lösenord, kommer hon efter en stund inte ihåg vilka lösenord hon redan provat och kommer att pröva samma lösenord igen och igen, plus att hon bara kan testa kanske ett lösenord per minut, beroende på sammanhanget). Får datorn stå och tugga tillräckligt länge hinner den testa oerhört många alternativa lösningar. Förmåga till snabba beräkningar löser dock inte, som vi strax skall se, alla problem.

De mest kraftfulla superdatorerna idag (2024) kan utföra mer än 1018 (en miljon miljon miljoner) flops (flyttalsoperationer per sekund)! Men inte ens detta räcker för att lösa vissa matematiska problem inom rimlig beräkningstid. Det finns t o m tämligen enkla problem som en superdator, trots sin enorma beräkningskraft, behöver miljontals år för att lösa. Ett sådant problem är således inte praktiskt beräkningsbart. Låt mig ge ett exempel:

Vi tar en enkel formulering av det klassiska handelsresandeproblemet (traveling salesman problem), enligt vilken en handelsresande skall besöka USA:s 50 delstatshuvudstäder. Han utgår från sin hemstad (som inte är en delstatshuvudstad) och skall efter avslutad resa återvända hem. Det finns många olika rutter han kan välja och vår handelsresande vill hitta den kortaste totala ressträckan (för att besöka alla 50 delstatshuvudstäderna). En dator som kan göra 1018 flops borde genom ren råräkning (dvs testa sig igenom samtliga resvägar) kunna lösa problemet snabbt. Kan man åtminstone tycka. Låt oss antaga att datorn kan testa 1012 alternativ per sekund. Datorn har tillgång till en tabell med avstånden mellan alla USA:s delstatshuvudstäder (en 50x50 matris — som en gammaldags bilatlas med 50 rader och 50 kolumner) och hämtar dessa avstånd för varje möjlig resväg och adderar sedan delsträckorna och om den sist beräknade rutten är kortare än den föregående, behålls den nya rutten, annars behålls den föregående rutten. Efter att datorn tuggat sig igenom alla alternativen återstår således den kortaste resvägen.
När vår handelsresande (eller datorn) skall välja första benet av resrutten, finns 50 alternativ att välja mellan. Efter besöket i den första delstatshuvudstaden återstår 49 städer att välja mellan för nästa delsträcka. Och nästa gång 48 etc, etc. När sista staden skall väljas finns bara en möjlighet kvar (alla andra delstatshuvudstäder har ju redan besökts). Totala antalet möjligheter ges då, enligt kombinatorikens multiplikationsprincip, av 50⋅49⋅48⋅47...3⋅2⋅1. Detta kallas 50-fakultet och skrivs som 50! (utropstecknet betyder således i detta sammanhang fakultet).
Vi har med andra ord kommit fram till att det finns 50! (50-fakultet) olika möjliga rutter att välja mellan. 50!≈3⋅1064, vilket är ett hiskligt stort tal (en trea med 64 nollor efter). Datorn måste gå igenom alla dessa för att hitta den kortaste rutten. Eftersom vi antagit att datorn hinner testa 1012 alternativ per sekund kommer följande samband att gälla:
Division med 1012 ger hur många sekunder beräkningen kommer att ta. Genom att sedan dela med 3600 får vi hur många timmar beräkningen tar och genom division med 24 får vi antalet dagar och genom att slutligen dela med 365,25 (ett år har 365,25 dagar, det är därför man måste lägga till en skottdag vart fjärde år) så får vi antalet år som beräkningen kommer att ta.
Resultatet anger hur många år det kommer att ta för superdatorn att gå igenom samtliga möjliga rutter för att hitta den kortaste. Tiden blir således ca 1045 år! Jag betvivlar att vår handelsresande orkar vänta så länge.
Universums ålder anses allmänt vara av storleksordningen 1010 år (13,8⋅109 år). 1045 år är således 1035 gånger universums ålder! Och redan 1035 är ett ofattbart stort tal. Totala antalet sandkorn i Sahara har t ex uppskattats till 1020. Dvs 1035 är antalet sandkorn i ca 1000 biljoner (1015) Saharaöknar! Det tar således 1000 biljoner gånger antalet sandkorn i Sahara gånger universums ålder för världens snabbaste dator (2019) att med råräkning lösa handelsresandeproblemet för 50 städer!!!
Även om ovanstående problem inte kan lösas genom råräkning så är det lösbart. Det finns datorprogram som löser det på några sekunder (i fallet 50 städer), genom att man gjort programmet lite smartare så att det inte testar uppenbart orimliga alternativ.

Som sagt, även om man kan göra biljoner beräkningar per sekund finns problem som i praktiken inte kan lösas genom ren råräkning.

Avsikt och mening är intimt förknippade med fri vilja och medvetande och innebär att vi människor kan ställa upp mål och sedan agera utifrån detta. Denna egenskap är eventuellt unik för människan, möjligen kan den finnas i lägre grad hos de mer högtstående djuren (huruvida människan är ensam om avsikt och mening påverkar inte min argumentation). Målstyrt beteende brukar kallas teleologi (alltså teleologi inte teologi). En sten attraheras av jorden på grund av att den påverkas av en yttre kraft. En parasit agerar inuti ett värddjur, styrd av sina gener. Samma sak gäller ett rovdjur, även om rovdjuret har en viss förmåga att anpassa sitt agerande utifrån information från luktsinne, syn, hörsel etc. En människa däremot reser till en annan stad, inte för att en yttre kraft drar henne dit eller för att hennes genuppsättning styr henne dit, utan för att någonting inuti henne medvetet har beslutat att resa dit (hon kanske vill träffa en god vän eller sin älskade eller gå på en konsert). Det finns ett mål. Framtiden (att komma dit) fungerar som en attraktor (en slags omvänd kausalitet med andra ord, där framtiden påverkar vad som sker nu). En fallande sten har inget mål, utan påverkas bara av blinda, yttre krafter (gravitation, luftmotstånd etc). Stenen själv har inga planer eller någon strävan eller längtan. Eller mål. Naturvetenskap handlar om de fyra naturkrafterna (stark, elektromagnetisk, svag och gravitationell kraft) och hur objekt bestående av materia/energi växelverkar med varandra i rum-tiden genom dessa fyra krafter.

Teleologi inryms inte i vetenskapliga beskrivningar (och förnekas av många ateister). Naturvetenskapen förnekar inte existensen av målstyrda beteenden men sådana ligger utanför vad naturvetenskapen kan handskas med. Observera att målsökande robotar inte har något mål i teleologisk mening. De styrs av elektronik och sensorer och har inget uppsåt och ingen längtan, utan är bara maskiner som människan manipulerar genom att utnyttja de fyra naturkrafterna. Det är de människor som konstruerat dem (och de som använder dem) som har ett mål — att skjuta ned fientliga flygplan).

Handelseresandeproblemet visar att blint sökande inte löser alla problem, även om man har tillgång till enorma resurser. Att knäcka ett lösenord på 4 siffror genom råräkning tar en bråkdel av en sekund för en snabb dator — man behöver ju bara pröva 10 000 kombinationer. Men många problem, även till synes enkla sådana, är i praktiken omöjliga att besegra genom råräkning, dvs genom att testa alla alternativ (som handelsresandeproblemet ovan). Det tycks mig som att målinriktning måste vara kopplad till ett medvetande, till en själ, vilket maskiner inte har. Många stora vetenskapliga teorier har kommit till genom att en forskare haft en mål, har anat någonting, och sedan aktivt och medvetet letat efter en väg att nå fram till detta mål. Einsteins allmänna relativitetsteori är ett exempel på detta. Han visste vad han letade efter men vägen dit var mycket mödosam och svår. Formulerandet av denna teoris ekvationer (kallade Einsteins fältekvationer) betraktas av många fysiker som en av "mänsklighetens största intellektuella bedrifter". Frågan är om en framtida AGI skulle kunna göra en sådan bedrift (dagens kan det definitivt inte). Jag tror inte det. Och i så fall ligger detta långt in i framtiden. Kanske om hundra eller tusen år.

När det gäller schack så finns oerhört många möjliga drag och en stormästare i schack kan se uppskattningsvis 10-15 drag framåt. Resten av spelet bygger på kunskaper. De som ägnar sig seriöst åt schack har studerat tiotusentals schackpartier och känner kanske igen den ställning man hamnat i och så minns man vad den och den mästaren gjorde i motsvarande situation. Och de har lärt sig olika öppningar (de första dragen i ett parti) och hur man bemöter dem (en viktig prinicp i öppningsspelet är att aldrig flytta en pjäs mer än en gång). Antalet möjliga drag ökar dramatiskt ju fler drag framåt man försöker se. Och precis som i handelsresandeproblemet så blir beräkningarna snabbt övermäktiga även för den snabbaste superdator. Så även en superdator som spelar schack kan bara se ett mycket begränsat antal drag framåt och måste därför ha tillgång till en stor databas med spelade partier etc för att hitta lösningar.

En stor fördel en schackdator har är att den aldrig gör slarvfel. T ex sätter bort en pjäs på grund av att den inte ser att pjäsen är hotad. Eller missar att ta en pjäs om den kan (och vill). Bara genom att aldrig göra slarvfel har datorn en stor, stor fördel över en människa. Det är som jag brukade säga till mina matteelever, att om de aldrig gör några slarvfel så kommer de att höja sitt mattebetyg ett steg utan att kunna någon mer matte. Och det stämmer.

Antag nu att en människa, som vi kallar M, vore som en AGI med mycket datormuskler bakom sig. I sitt huvud har M, som vi antar inte är speciellt smart men har ett exceptionellt minne, alla världens lexikon (alla språk) och M kan slå upp ord och uttryck på en mikrosekund (miljondels sekund). M har också tillgång till alla grammatikor etc, och kan översätta mellan alla språk (kanske inte perfekt men tillräckligt bra). M talar således alla jordens språk flytande. Kan man slå upp ord och uttryck och grammatik på en mikrosekund uppfattas detta som att man talar flytande, eftersom man kommer att tala utan (för en människa märkbara) tankepauser och harklingar. M har också tillgång till alla uppslagsverk (inkluderande Wikipedia), alla böcker (kokböcker, biografier, skönlitteratur, lagböcker etc, etc) och sammandrag av alla filmer som gjorts etc, etc. Plus tillgångt till alla dagstidningar i hela världen (både senaste numret och arkiverade minst 50 år bakåt i tiden). Och kan leta upp receptet för Jansons Frestelse eller när Mozart föddes eller vem som spelade Harry Potter (och även alla personliga data om denne) på en hundratusendels sekund. Och kan tolka bilder, dvs se vad olika bilder föreställer. Och kan jämföra foton för att hitta kopplingar mellan människor och liknande. I M:s kunskapsbank finns också tekniska böcker och handböcker till alla bilar, skrivare, tvättmaskiner, kaffemaskiner, jetmotorer osv. Plus alla världens telefonkataloger, kartor och tidtabeller för tåg, bussar etc. I princip så kan M således svara på i stort sett alla konkreta frågor (både som har med allmänbildning att göra och sådana som är kopplade till specialistkunskaper) inom någon hundradels sekund eller snabbare. M känner också till all känd musik (kan noterna utantill, t ex alla stämmorna i alla Mahlers, Mozarts, Bruckners etc symfonier) och kan utifrån bara någon mening ta reda på vilken bok ett citat är hämtat från och utifrån ett kort stycke (några takter) från ett musikverk tala om verkets namn, kompositör, tonart etc och vem som sjunger och spelar och alla data om den personen. Min iPhone har för övrigt ett inbyggt program, en app vid namn Shazam, vilken kan identifiera musik utifrån några takter (och som ganska ofta ger rätt svar). Så dessa och många andra delfunktioner i AGI har funnits länge, men i AGI så finns alla dessa funktioner sammanförda. Ingenting av ovanstående handlar emellertid om intelligens i egentlig mening. Men man kan luras att tro det, eftersom det går så fort. Man blir helt enkelt överväldigad.

En person med M:s minneskapacitet, beskriven i föregående stycke, skulle givetvis uppfattas som ett ofattbart geni, jämfört med vilket Einstein skulle framstå som en babblande idiot. Även om M vore totalt intelligensbefriad. På samma sätt är ett program som inte är någon AGI, dvs som inte har någon inbyggd intelligens (i verklig mening), men som kan göra allt jag räknat upp ovan, snarare ett superuppslagsverk än en verklig intelligens. Men skulle för de flesta användare ändå framstå som en superintelligens (trots att det nästan enbart handlar om utantillkunskaper och mekaniska lösningar av ekvationer etc).

Vilket påminner mig om min far, som hade ett väldigt bra minne. Han hade inte så lätt för matematik (eller också var han ointresserad) och på gymnaiset lärde han sig därför allt utantill. Han räknade igenom gamla prov och visste sedan hur man löste alla typer av tal. På proven såg han att en viss uppgift var av samma typ som en uppgift han kunde utantill och så visste han direkt lösningen utan att tänka. Han berättade för mig att när klassen skulle bevisa något eller lösa ett problem på svarta tavlan och ingen visste hur man skulle gå till väga så sade läraren, "Renard, gå fram och rabbla!". Och så gick min far fram och startade den inbyggda bandspelaren i hjärnan.

En intressant aspekt av AGI är dess förmåga att åstadkomma texter, t ex skriva avhandlingar, uppsatser, brev etc, etc. En skolelev kan exempelvis be en AGI att skriva en uppsats på gymnasienivå och så specificera vad denna skall handla om, t ex förklara vad som ger en vinge dess lyftkraft eller varför nazisterna förlorade Battle of Britain. Eller att ge tio bevis för evolutionen. Och vips så får man en jättebra uppsats (även om det ibland poppar upp en och annan språklig groda, så texten kanske måste putsas lite). Det ligger nära till hands, när man läser en sådan uppsats, att man upplever att det finns en verklig intelligens bakom. Men en dator har inget medvetande (dvs ingen själ). Det bor ingen person inuti datorn som är medveten om vad som sker och vad den gör, utan det handlar bara om logiska och statistiska operationer som exekveras blint utifrån givna regler med enorm fart. Där AGI:n bl a hämtar bitar från olika artiklar och sätter ihop dessa (klippa och klistra med andra ord).

F ö kan man idag använda en AI för att avgöra om en text är skriven av en människa eller av en AI. Ibland blir det fel och den tillfrågade AI:n tror att en text skriven av en människa är skriven av en AI. Detta leder kanske till att en autentisk text refuseras, vilket är olyckligt. Många AI-texter kan även avslöjas av en människa, helt enkelt för att de är så livlösa och fantasilösa. AI saknar den mänskliga "gnistan", vilket läsaren intuitivt känner (se Addendum II i slutet av föreliggande artikel).

Mycket av det som sker inom AGI är kopplat till statistik och korrelationer. En AGI kan göra tabeller för att se sannolikheter för att ett visst ord skall följa efter ett givet ord. På så sätt kan den se till att man inte får konstiga, onaturliga ordsekvenser. Den kan också följa grammatiska regler (den har ju ordlistor och vet vilka ord som är verb, substantiv, adjektiv etc) och kan därför sätta ihop ord på ett meningsfullt sätt. Den kan också plocka redan färdiga formuleringar och kan ta hela textstycken och sätta ihop och harmoniera med varandra så att det blir en hyfsad text. Ingen verklig intelligens och inget medvetande finns bakom. Bara regler och sannolikheter

Det är i sammanhanget viktigt att skilja mellan system (maskiner, organismer) som agerar:

  1. Förnuftigt (styrt av program som väljer inprogrammerade, förnuftiga lösningar)
  2. Utifrån förnuft, dvs som medvetet och utifrån kunskaper om verkligheten analyserar en situation logiskt och sedan handlar utifrån denna analys.

Se också diskussionen ovan om teleologi (målstyrt beteende) och exemplet nedan om kinesiska skrivtecken.

Automatiska system som robotar, många livsformer (insekter, växter etc) innehåller komplicerade reglersystem, vilka gör att hela systemet agerar "förnuftigt", dvs på rätt sätt, men inte utifrån förnuft (en autopilot håller fartyget eller flygplanet på rätt kurs etc, bladen hos en växt vänds mot solljuset för att maximera fotosyntesen etc). Ett sådant system, som agerar omedvetet men förnuftigt, kan ha stor överlevnadsförmåga. Men här handlar det inte om val som görs, utan om programstyrda beteenden. En AGI kan agera utifrån förnuft i en viss, begränsad bemärkelse men inte utifrån en övergripande förståelse av verkligheten. En AGI har således inget sunt förnuft eller intuition. Men kan i många fall agera som om den hade ett sunt förnuft. Medan den i andra fall till och med slår Skolverkets ideologiskt besatta tjänstemän när det gäller korkade och bisarra slutsatser.

Antag att vi har två gammaldags klockor med visare och 12 timmars urtavla (kl 9 och kl 21 ser likadant ut på en sådan klocka). Den ena är en dyr kronometer som drar sig en sekund per vecka. Den andra är trasig och står still. Frågar vi en människa vilken av de två klockorna som är bäst säger denna givetvis den första klockan (som drar sig 1 sekund i veckan). Frågar vi en AGI vilken av klockorna som är bäst kan denna mycket väl svara klocka nummer två (som står still). Logiken är att den klockar som drar sig en sekund per vecka kommer bara att visa exakt rätt tid var 302 400:e vecka, dvs vart 5815:e år (drar sig klockan 1 s per vecka, drar den sig 12 timmar på 5815 år) medan den stillastående klockan visar exakt rätt tid två gånger per dygn (dvs betydligt oftare).
En AGI:s brist på både omdöme och sunt förnuft gör att den kan dra helt absurda slutsatser. Som en människa omedelbart skulle inse är felaktiga och löjeväckande. Och även om man lägger till ovanstående exempel i AGI:ns databas så kommer det att finnas hur många andra exempel som helst där den kommer att dra absurda slutsatser. Helt enkelt eftersom den inte har något omdöme i mänsklig mening. Artificiell intelligens ligger snubblande nära artificiell dumhet.

Ibland kallar man LLM för "next-word predictor" (förutsägare av nästa ord). Det enda en LLM gör, utifrån detta sätt att se, är att den ur en databas bestående av enorma textmassor förutsäger vilket ord (eller på en högre nivå; uttryck) som följer på en viss ordsträng. Databasen för en LLM innehåller således statistik över sannolikheten för att ett visst ord eller uttryck skall följa på ett visst annat ord eller uttryck (beroende på vilken nivå LLM:en arbetar på). En fråga Q till en LLM-genererad AGI gör att LLM:et söker efter det sannolikaste ordet eller uttrycket A som följer efter de ord som ingår i frågan Q. Och sedan söker systemet efter det sannolikaste ordet eller uttrycket som följer efter Q plus A, vilket vi kallar B, och sedan efter det sannolikaste ordet eller uttrycket C som följer efter Q plus A plus B etc. När man arbetar mot en AGI blir man ofta (men inte alltid) imponerad över de svar man får och det är lätt att tilldela ett sådant system en verklig intelligens och hävda att vi här har ett tänkande system som bl a arbetar med deduktion (logisk härledning). Många som arbetar inom området, och även de som varit med om att lägga grunden för AGI, säger sig vara förvånade över att en LLM fungerar så pass bra som den gör, med tanke på dess sätt att arbeta, som vare sig inkluderar logik eller förnuft.

En del vänder sig mot den beskrivning jag gett ovan och hävdar att en LLM handlar om mycket mer än next-word prediction, eller att "sy ihop" fragment i databasen som den, på statistiska grunder, tror är korrelerade. De menar ett en LLM faktiskt drar verkliga slutsatser. Jag kan hålla med om att LLM eller LLM-baserade AGI ibland fungerar "som om de drar slutsatser" och har ett förnuft (och inte bara bygger på statistik av redan känd kunskap). Men att agera som om man har ett förnuft betyder inte att man har ett förnuft (ungefär som distinktionen ovan mellan att "agera förnuftigt" och att "agera utifrån förnuft"). Låt mig ge ett exempel. En metastudie är en studie som bygger på ett flertal tidigare gjorda studier, men där man letar efter nya korrelationer av de parametrar som ingår i dessa tidigare studier. Dvs man utgår inte från någon ny datamängd utan föröker vara vaska ut mer information ur en given datamängd. Genom metastudier kan man hitta nya viktiga samband inom olika områden, både naturvetenskap och t ex sociala vetenskaper. Men det innebär inte att man fått ny information. Den nya informationen finns, menar jag, redan i de databaser som utgör grunden för metastudien men är implicit. Dvs den är osynlig men blir genom metastudien synlig och upplevs därför som ny. Det är ungefär som inom geometrin. Den bygger på 5 grundläggande påståenden (axiom). Det visar sig att ingen sats (som bevisas utifrån axiomen) kan innehålla mer information än axiomen. Dvs om en superintelligens får se de fem axiomen så inser denne omedelbart Pythagoras sats och alla andra geometriska satser. Våra geometriska bevis synliggör bara informationen för oss dödliga människor, men den finns där (i axiomen) redan innan och fullt synlig för en gud. I de fall att en AGI drar slutsatser som tycks ligga utanför den datamängd den tränats på kan det handla om samma sak. Dvs den hittar korrelationer som finns i datamängden men som ännu inte synliggjorts. Detta kan upplevas som ny kunskap, vilket det är rent pragmatiskt, men inte ontologiskt.

Huruvida en AGI verkligen har ett förnuft och resonerar förnuftsmässigt eller om det bara handlar om korrelationer torde vara omöjligt att med säkerhet avgöra. Precis som att det är omöjligt att avgöra om en entitet (biologisk varelse, mekanisk maskin, elektronisk maskin etc) har en personlighet och upplever något. Även om entiteten beter sig som om den har ett förnuft och en själ, betyder det inte att den har det. Det betyder bara att den är kapabel att härma beteendet hos en människa så väl att en människa inte kan avgöra om denne kommunicerar med en människa eller med en maskin (vi utgår från att kommunikationen sker via textmeddelanden, där man inte ser eller hör den man kommunicerar med). Den enda varelse jag med säkerhet vet upplever något är jag själv. Att andra människor också upplever något är en rimligt gissning, eftersom de har samma natur som jag. Maskiner har inte samma natur som jag, alltså är det inte rimligt att anta att de har ett verkligt förnuft och en jagupplevelse. Speciellt inte som vi saknar förklaring till hur en maskin skulle kunna ha ett medvetet jag.

Låt oss nu bli lite mer jordnära. Möjligheten att låta en AGI skriva uppsatser etc har lett till stora problem för lärare på speciellt högre stadier. En student kan låta en AGI skriva en uppsats och sedan frisera språket så att det verkar som att en människa skrivit texten. Det är idag väldigt svårt för en lärare att avgöra äktheten hos texter som elever lämnar in, vilket har tvingat fram olika lösningar. T ex att man inte kan ha hemuppgifter av vissa typer, utan proven måste ske i skolans lokaler i en datorfri miljö (eller i varje fall en miljö där man inte kan interagera med en AGI). Precis som så mycket annat så är AGI:s förmåga att skriva texter inget principiellt nytt. Det har funnits länge, men utgör nu en del av vad en AGI kan. Här tillkommer att inga tidigare program av denna typ har haft tillgång till lika mycket information som vad en AGI har idag. Speciellt om den skulle tillåtas gå ut på Internet (vilket än så länge, som nämnts ovan, är förbjudet).

Efter att jag skrev detta har t ex ChatGPT fått en funktion som kallas "deep research". Den tillåter ChatGPT att använda en webbläsare för att gå ut på Internet. Där kan programmet göra avancerade sökningar i multipla lager (dvs kan gå till djupare nivåer av sökning) och kan skapa en sökplan och justera denna utifrån sökresultaten. En som testat denna funktion skriver, "Jag har sett programmet göra underökningar [på Internet] som tagit några minuter, men vilka skulle tagit en människa timmar att göra". Jag gissar att man på något sätt begränsat vad programmet kan göra (eftersom deep research måste gå genom en webbläsare kan det bara göra vad webbläsarens programmering tillåter det att göra).

Redan för 10 år sedan gjordes ett skämtprogram som hette SCIgen. Det skrev påhittade vetenskapliga artiklar som var ren bluff men verkade trovärdiga vid en första anblick. Programmet kunde bara skriva artiklar i datavetenskap och man skrev in några namn (som användes som medförfattare till artikeln och som referenser) och så klickade man på en knapp. Och vips fick man ett mail i valfritt format (t ex pdf) med en artikel som såg helt genuin ut (speciellt om man inte var så insatt i datavetenskap). Där fanns grafer och beräkningar och en lång källförteckning. Programmet var avsett som ett skämt men när man läste texterna tog det en stund innan man insåg att det bara var gallimatias. Programmakarna skickade in ett par artiklar genererade av SCIgen till en konferens i datavetenskap, vilket ledde till att de blev inbjudna som talare till konferensen, Stor skandal som det skämtades länge om. Om läsaren går till slutet av denna artikel kan läsaren läsa lite mer om SCIgen och även generera sina egna vetenskapliga artiklar (programmet finns fortfarande tillgängligt på Internet). Eller klicka här för att läsa en artikel jag genererat med detta program.

Som sagt, många av de byggstenar som finns i AGI har redan funnits i decennier. Men tack vare snabbare datorer (och specialdesignade processorer för AGI) och oerhört avancerad programvara har man nu uppnått en helt ny nivå av artificiell intelligen, som börjar närma sig vissa aspekter av mänsklig intelligens.

Vissa matematiska bevis är oerhört mödosamma att göra och kan ta en livstid för en matematiker att genomföra. Delar av sådana bevis kan innebära upprepade moment, där man gör ungefär samma sak, och sådant kan överlåtas åt en vanlig dator eller idag åt en AGI. För ett femtontal år sedan bevisades fyrfärgsproblemet med hjälp av en kraftfull, konventionell dator. Detta problem hade gäckat matematikerna i nästan 100 år. Man hade kommit på en strategi men den byggde på att man testade miljoner olika möjligheter, vilket ligger utanför mänsklig förmåga, eftersom det skulle ta tusentals år. Därför lät man en superdator stå och tugga sig igenom alla dessa möjligheter och fick så fram ett resultat, som innebar att fyrfärgsteoremet var löst (det finns inte utrymme att gå in på detta problem här och den intresserade läsaren rekommenderas att googla). Beviset gjordes i USA och man firade det genom att ge ut ett frimärke med detta teorem som motiv. Problemet var att beviset var så omfattande att ingen människa kunde kontrollera det.
Jag diskuterade detta bevis några veckor senare med en vän som var matematikprofessor i USA. Han underkände det, eftersom han menade att man inte kan acceptera bevis, där vi måste lita på att en dator gjort rätt utan att kunna kontrollera detta (bevis av denna typ kallas non-surveyable proofs/icke-kontrollerbara bevis). I viss mån ger jag honom rätt. Ett sådant bevis är synnerligen otillfredsställande, även om det skulle vara korrekt (vilket det antagligen är). I beviset för fyrfärgsteoremet handlade det således inte om AI utan om konventionell programmering. Med AI har vi fått ännu mycket kraftfullare verktyg för att genomföra matematiska bevis och liknande.

I framtiden får vi således räkna med att AGI kommer att bevisa matematiska satser och fysikaliska teorier och fatta beslut om samhälle, tekniska lösningar (energi, miljö etc) och människans framtid (obligatorisk födelsekontroll och andra saker) och människan kommer inte att kunna kontrollera dessa bevis och beslut. Dvs vi måste acceptera dem, utan att själva vare sig förstå varför eller kunna bevisa att AGI:ns beslut är korrekta. AGI har då blivit en slag gud, som talar om vad vi skall göra och som vi måste lyda, utan att förstå varför. Ingen trevlig framtid i mina ögon!

För någon månad sedan testade jag den AGI som finns integrerad i Aloha (en webbläsare). Jag frågade hur en flygplansvinges lyftkraft genereras. De flesta fysikläroböcker i skolan och tidningar och media ger oftast en felaktig förklaring medan aerodynamiker givetvis känner till den korrekta förklaringen (jag har skrivit en lång artikel om detta på hemsidan så den intresserade läsaren hänvisas dit). Enligt den felaktiga förklaringen är en vinge mer buktig på ovansidan (vissa vingar är det men inte alla) varför luften där har längre väg att gå än luften på undersidan (som är rak). Luften på ovansidan måste därför ha högre fart för att komma fram samtidigt till vingens bakkant som luften på undersidan (vilket är fel — det finns ingen fysikalisk princip som ger stöd för detta påstående). Och när luften på ovansidan går fortare sjunker trycket där (enligt Bernoullis lag), vilket "suger upp" vingen, och därmed genererar lyftkraft (just detta sista är korrekt, men förklaringen till varför luften går fortare på ovansidan är helt fel). Jag förväntade mig att AGI:n skulle komma med den felaktiga förklaringen och blev lite överraskad, eftersom den gav en betydligt mer nyanserad förklaring. Den sade visserligen att luften på ovansidan har högre fart än på undersidan (vilket är korrekt), men inte för att luften på ovansidan har längre väg att gå, utan på grund av vingens anfallsvinkel (hur vingen är vinklad relativt luftströmningen) i kombination med dess form. Och detta är sant, men ger inte hela förklaringen till lyftkraft.

Jag påpekade då för AGI:n att den största delen av en vinges lyftkraft genereras av att vingen (genom sin anfallsvinkel och form) skyfflar luft nedåt, vilket ger en lyftkraft enligt Newtons tredje lag (om verkan och motverkan). Enligt denna lag påverkar två objekt varandra med lika stora och motriktade krafter och när vingen påverkar luften med en nedåtriktad kraft kommer luften därför att påverka vingen med en lika stor uppåtriktad kraft.

Döm om min förvåning när AGI:n då bad om ursäkt och sade att den skulle lägga till denna information i sin databas. Jag skrattade högt för mig själv. Så visst, AGI är imponerande. Och det är tydligt att en AGI har en förmåga att modifiera sina kunskaper och även sin funktion. För att testa en ytterligare sak frågade jag sedan AGI:n om något som skulle tvinga den att gå ut på Internet. Jag fick då svaret att den tyvärr inte hade tillgång till Internet och den rekommenderade mig att själv googla.

Låt mig illustrera hur maskinintelligens respektive mänsklig intelligens skiljer sig åt med ett enkelt tankeexperiment. Detta experiment illustrerar tydligt skillnaden mellan att "agera förnuftigt" och att "agera utifrån förnuft" (se diskussion ovan).

Antag att jag stängs in i ett rum och genom en lucka får en tjock bunt med numrerade kort (1, 2, 3, 4, 5,...), där det på varje kort finns ett antal kinesiska skrivtecken. Jag kan vare sig tala eller förstå eller läsa/skriva kinesiska, ja jag kan inte ens skilja kinesisk skrift från japansk skrift eller ens från meningslöst klotter i största allmänhet. De kinesiska tecknen är således, utifrån mitt perspektiv, bara meningslösa symboler. Efter att ha tagit emot den första kortbunten, får jag en andra kortbunt med kinesiska tecken. Dessa kort är också numrerade (1, 2, 3, 4, 5,...). Slutligen får jag in en uppsättning regler för att korrelera (koppla ihop) de två kortbuntarna. Reglerna är skrivna på svenska eller något språk som jag förstår. Där anges, för varje kort i bunt 1, en eller flera siffror. Dessa siffror utgör numren på de kort i bunt 2 som hör ihop med respektive kort i bunt 1. Med hjälp av dessa regler kan jag korrelera en uppsättning formella symboler (korten med kinesiska skrivtecken i bunt 1) med en annan uppsättning formella symboler (korten med kinesiska skrivtecken i bunt 2). Varje kort i bunt 1 är således korrelerat med ett eller flera kort i bunt 2 (enligt de regler jag fått). T ex att kort 3 i bunt 1 hör ihop med kort 7 i bunt 2 eller att kort 12 i bunt 1 hör ihop med korten 3, 8, och 17 i bunt 2.
Med korrelera menar jag att reglerna jag fått talar om att ett visst kort i den första bunten hör ihop med ett eller flera kort i den andra bunten.
"Formell" betyder här att jag identifierar de kinesiska tecknen (symbolerna) enbart utifrån deras form, utan att på något sätt känna till eller förstå deras innebörd, vare sig i det kinesiska alfabetet eller i det kinesiska språket.
Nu får jag in ett ytterligare kort med kinesiska skrivtecken genom luckan. Min uppgift är att försöka hitta ett exakt likadant kort i kortbunt 1 och sedan, med hjälp av reglerna, ta fram det, eller de kort, i kortbunt 2 som hör ihop med det mottagna kortet och därefter skicka ut detta (eller dessa) kort från kortbunt 2 genom luckan. Hittar jag inte något kort i bunt 1 som är exakt likadant som det inskickade kortet, säger reglerna att jag skall skicka ut kort 273 i bunt 2 genom luckan. På detta kort står på kinesiska, "Jag kan tyvärr inte besvara denna fråga".
Jag får således in ett kort genom luckan. Jag tittar på de kinesiska skrivtecknen på detta kort (som för mig är meningslösa symboler) och bläddrar sedan igenom kortbunt 1 tills jag hittar ett exakt likadant kort. Med hjälp av ovannämnda regeluppsättning kan jag sedan koppla detta kort i bunt 1 med t ex kort 17 och 27 i bunt 2. Jag plockar nu fram kort 17 och 27 i den senare bunten och skickar ut dem genom luckan. Hittar jag inget kort i bunt 1 som är identiskt med det inskickade kortet, så skickar jag ut kort 273 (se föregående stycke).
Utan att jag vet om det, så kallar personerna utanför rummet den första kortbunten för "frågor" och den andra för "svar". Uppsättningen regler på svenska benämns "program" och de svar som kommer ut genom luckan (enligt processen beskriven i föregående stycken) kallas "svar på frågorna" (grundläggande arbetar datorer på detta sätt). Utifrån sett så skickar man således in frågor, skrivna på kinesiska, och får ut korrekta svar på kinesiska. Och ibland kommer det ut ett kort som på kinesiska säger "Jag kan tyvärr inte besvara denna fråga". De svar som ges, kan vara omöjliga att skilja från de svar som en kinesisktalande person skulle ge (utifrån sitt förnuft och sin kunskap) om "programmet" är tillräckligt välskrivet. Och att vissa frågor inte kan besvaras är också helt naturligt, eftersom det är så det är i verkligheten. Ingen människa kan besvara alla frågor. Den person som befinner sig i rummet (dvs jag) tar således emot frågor på kinesiska och med hjälp av de regler (på svenska) jag fått så skickar jag ut svar på dessa frågor på kinesiska, utan att vare sig förstå frågorna eller svaren. Eller förstå meningen med reglerna (skrivna på svenska), eller ens veta att det handlar om frågor och svar.
För att ytterligare tydliggöra tankeexperimentet kan vi tänka oss att personerna utanför rummet också skickar in frågor på svenska och får ut svar på svenska (i detta fall är det jag som besvarar frågorna på svenska utan hjälp av några skrivna instruktioner). Utifrån sett skickar man således in frågor dels på svenska, dels på kinesiska, och får ut lika bra och välformulerade svar på båda språken. Det finns emellertid en avgörande och uppenbar skillnad. När det gäller svaren på svenska så ges dessa av en medveten person, som förstår frågorna och som svarar utifrån denna förståelse (utifrån förnuft och kunskaper). I det andra fallet ges svaren av en person som inte förstår vare sig frågorna eller svaren eller varför reglerna är som de är (utan bara blint lyder reglerna). I detta fall produceras svaren genom manipulation av otolkade formella symboler i enlighet med formella regler (och svaret blir förnuftigt men inte utifrån förnuft). Punkt slut. När det gäller svaren på kinesiska fungerar jag precis som en dator, dvs utan medvetande (tankeexperimentet kommer ursprungligen från en artikel av den amerikanske filosofiprofessorn John R Searle i boken The Mind's I — men jag har av pedagogiska skäl förenklat det betydligt).
Exemplet ovan illustrerar ganska bra hur en dator fungerar. Kortbuntarna 1 och 2 motsvarar minneskretsar (hårddisk eller liknande). Reglerna svarar mot programvaran (instruktionerna för hur indata skall behandlas). Och personen i rummet har samma funktion som en CPU (huvudprocessorn i en dator), vilken utför programvarans instruktioner.

Ingen vettig människa tror att transistorerna inuti en dator skrattar åt roliga historier som laddas ned från Internet eller överhuvudtaget förstår vad datorn verkligen håller på med, lika lite som man tror att en MP3-spelare njuter av den musik den spelar upp. Och inte heller programvaran som exekveras njuter av den musik som spelas upp eller förstår någonting av den film som visas etc.

Slutsatsen blir att även om en dator besvarar frågor på ett mycket intelligent sätt så förstår datorn vare sig frågorna eller svaren utan följer bara vissa regler (programkoden). Ja en dator förstår överhuvudtaget ingenting! Noll! Nada! Däremot kanske den beter sig som om den förstår (om programmet är välskrivet), men det är en helt annan sak. Transistorererna eller chipsen i en dator förstår således ingenting. Inte ens datorn som helhet förstår någonting (tankeexperimentet ovan är ekvivalent med en komplett dator med kretsar, in- och utmatning, operativsystem, programvara etc). Inte heller hjärncellerna eller hjärnan som helhet förstår någonting (denna slutsats bygger på de hjärnmodeller som för närvarande anses vara korrekta). Det är "vi" som förstår! Vi som medvetna människor! Hjärnan möjliggör för oss att förstå, genom att våra jag, dvs "vi", orsakar och kan avläsa neurala processer i hjärnan. Men förståelsen och medvetandet finns hos "oss" och inte hos cellerna i hjärnan! Vad detta "vi" (ibland kallat själ) består av och var det är lokaliserat lämnar jag åt läsaren att fundera över (ingen vet med säkerhet, men i några artiklar på min hemsida snuddar jag vid denna fråga)

Att en AI eller AGI saknar sunt förnuft och en allmän förståelse av verkligheten framgår på många sätt. När man kommunicerar med en AGI beror svaret i hög grad på hur man formulerar sina frågor. Man kan få helt andra svar genom att ställa samma fråga men med några ord ändrade. De som arbetar med AGI (jag tänker då inte på de som utvecklar AGI utan de som använder AGI som ett verktyg i sitt arbete) går kurser och läser böcker om hur man skall kommunicera med AGI på bästa sätt, dvs hur man skall formulera sina frågor för att AGI ska ge så relevanta svar som möjligt. Om jag ställer en illa formulerad fråga till en människa, kan denne ofta gissa vad man egentligen vill veta och på så sätt ge ett bra svar, trots en illa genomtänkt fråga. Eller också be frågeställaren att förtydliga sig. Så fungerar inte AGI (annat än i undantagsfall).

I sammanhanget talar man om promptar (prompt kan betyda att sufflera eller lägga orden i munnen på någon), vilket innebär att "ge en vink eller en fingervisning", för att hjälpa någon att fokusera på en specifik fråga eller ett specifikt ämne. En prompt kan bestå av ett stycke text, ett ord eller en bild. På så sätt kan man påverka människor att skriva om ett givet ämne utifrån ett visst perspektiv. Analogt kan man med promptar påverka en AGI att svara utifrån ett visst perspektiv och uttrycka svaret på olika sätt. Genom att lägga in promptar i sin kommunikation med en AGI kan man få dramatiskt mycket bättre och mer relevanta svar. En prompt kan t ex bestå i att man ger AGI:n exempel på hur man vill att svaret skall se ut.
Exempel på prompt: "Jag vill lära mig franska för att använda när jag reser. Jag kan lägga ned 15 minuter om dagen på detta och jag är fullständig nybörjare. Kan du lägga upp en tremånaders kursplan för mig."

Använder man AGI regelbundet bör man fördjupa sig i "AGI-kommunikation". Man har allt att vinna på detta (denna korta, pedagogiska artikel ger olika tips om hur man skall formulera sina frågor för att utnyttja en AGI optimalt).

Ger man samma promptar till olika AI så kan resultatet bli annorlunda och ibland väldigt annorlunda. Antag att vi ger följande prompt till två olika AI utgående från den holländske mästaren Vermeers klassiska tavla "Flicka med pärlörhänge":

Vermeers klassiska målning kallad Flicka med pärlörhänge, transparenta kläder med spetsar, tättbefolkat New York tunnelbanevagn i bakgrunden (mästerverk) (vacker komposition) (Fuji film), dlsr [en speciell typ av spegelreflexkamera], högupplöst, intrikat detaljerat (hyperrealistisk oljemålning; 0.77), 4k, högt detaljerat ansikte, högt detaljerad hud, volymetrisk belysning dynamisk belysning, Carvaggio belysning, vidvinkel, ansiktsbild

så får vi följande resultat:

Bilden visar vad ChatGPT (till vänster) respektive Midjourney (till höger) kommer fram till utifrån prompten ovan och utgående från Vermers målning.
Midjourney är ett litet AI-laboratorium i San Francisco med ett tiotal anställda, vilket specialiserat sig på AI som skapar bilder utifrån textbeskrivningar. Se slutet av föreliggande artikel för mer information om ChatGPT.

Olika filmtyper (Kodak, Fuji etc ger lite olika färgtoner — man kan således be AI:n simulera kameror med våtfilmsteknik, även om kameror idag normalt har digitala sensorer i stället för film). Beträffande olika kameratyper så kan kameror ge lite olika geometri i bilden beroende på deras konstruktion och vilket objektiv man väljer. 4k är ett mått på bildupplösning. Carvaggio var en känd italiensk barockkonstnär.

I väntan på fullskaliga AGI så har man redan funnit många praktiska användningsområden på den teknik vi har idag. Förutom monumentala AGI-tjänster som ChatGPT (se nedan) etc så finns också mängder av småskaliga tillämpningar. Orkar man sätta sig in i neurala nätverk kan man själv göra enkla neurala nätverk (som i bild 4 i artikeln om NN), som körs på den egna datorn och som utför rutinuppgifter och på så sätt innebär en avlastning för användaren. Dessa kallas AI agents (AI-agenter). Sådana kan användas av en person eller anropas från ett datorprogram. Det finns också en uppsjö av AI-agenter som man betalar för (kan kosta 200 USD/månad eller mer). Det finns t ex sådana som konstruerar enkla neurala nätverk utifrån användarens specifikationer. Eller som gör korta videosnuttar man kan lägga upp på sin Youtubekanal. Man anger vad videon skall handla om och sedan går agenten ut på nätet och letar reda på lämpliga videofilmer som den sedan tar bitar ur och sätter ihop. Plus att agenten skriver kommentarer, lägger på tal och musik och kanske textremsa etc. Och allt detta tar några sekunder (i stället för flera timmar om det görs för hand). Självklart kan man också använda videor man själv tagit, men slipper då arbetet med att sitta och klippa och klistra och lägga på musik etc. Här kommer detta med prompt in (se ovan), eftersom ju bättre man beskriver vad man vill ha desto bättre kommer slutprodukten (den färdiga videon) att bli. Det finns också AI-agenter som kan arbeta på en dator som en människa. Dessa kan öppna filer och läsa dessa eller analysera bilder etc, etc. Eller gå igenom dagens mail och sortera bort spam (mycket bättre än ett normalt spamfilter) och sortera mailen och även besvara många mail. På så sätt kan man automatisera dagliga rutinuppgifter och spara många timmars arbetstid varje vecka. AI-agenter utgör en snabbt växande bransch.

De som använder AI-agenter mycket brukar säga att dessa är väldigt användbara när det gäller enkla uppgifter. Men att man bör vara försiktig med AI (noggrant kontrollera resultatet eller inte använda AI alls) när det gäller saker som har potential att skada företag och personal om det blir fel. Det finns ett fenomen i sammanhanget som brukar kallas AI hallucinationer. Ibland kan AI och AGI nämligen komma med totalt felaktiga eller rent av löjeväckande svar, när det gäller lite mer komplexa problem (speciellt om användaren inte ger tydliga prompts). Ja det händer till och med att AI och AGI hittar på saker och ting (hallucinerar). Ungefär som en alkoholist som ser skära elefanter. Och det beror ju på att AI och AGI (baserad på NN/LLM) inte förstår någonting utan endast kopplar ihop olika data med varandra (genom statistiska korrelationer) och därför inte kan skilja på orsak och verkan och en del andra saker som har med logik att göra.

AI-hallucinationer verkar framför allt inträffa när man ber AI:n lösa problem som den inte klarar av att lösa och samtidigt ger den prompts som gör att den kan gissa ungefär vilket svar man vill ha (dvs inte bara talar om vad man vill veta utan också antyder vad man tror svaret är). Då kan den hitta på svar som uppfyller våra önskningar (som AI:n uppfattar dem). Vilket påminner mig lite om när jag var i Indien. Då fick jag lära mig att om man var ute och promenerade och frågade en person på gatan om det fanns någon restaurang längre fram på gatan så fick man alltid ett jakande svar, även om det sanna svaret var nej. Den man frågade försökte vara vänlig och ville inte göra frågeställaren besviken. Så ville man veta vad som fanns längre fram på gatan fick man fråga något i stil med "Vad finns det längre fram på denna gata" och då inte se hungrig ut (så att de kunde gissa vad man letade efter). Och det är tydligen samma sak med AI. Vilket får AI att verka riktigt mänsklig.

Det finns ett problem i AI-världen som kallas "prompt injections". Detta innebär att om någon gett en uppsättning instruktioner till en AI genom en prompt inför en körning, så lägger en utomstående part, som hackat sig in i systemet, till ytterligare instruktioner i prompten eller tar bort instruktioner. Detta kan ställa till med lustiga effekter, t ex att AI:n kommer med dumma, löjliga svar. Dvs en form av AI-hallucinationer. Men det kan också leda till allvarliga säkerhetsproblem, där AI skickar skyddad information (som lösenord) via e-mail till en tredjepart. Att helt skydda ett system från prompt injection anses vara mycket svårt, om det ens är möjligt.

Någon kallade NN/LLM) för statistiska extrapolationsmaskiner. Interpolation innebär att man utifrån kända element i en datamängd försöker bilda sig en uppfattning om okända element i denna datamängd. Vilket kan fungera mer eller mindre bra. Extrapolation innebär att man utifrån kända element i en datamängd försöker bilda sig en uppfattning om okända element utanför denna datamängd. Vilket givetvis kan leda hur fel som helst. LLM förstår inte begrepp som mening och logiska inferenser eller orsak och verkan, utan är begränsad till att förutsäga nästa ord i en mening baserat på inlärning och korrelationer av den uppsättning data den tränat på (om man vill vara elak). Jag har svårt att se att statistiska extrapolationer skulle kunna skapa ny kunskap. I bästa fall kan sådana extrapolationer (om de är korrekta) möjligen synliggöra kunskap man redan har, men kanske inte är medveten om att man har.

En stor fördel med expertsystem (se inledningen till denna artikel) jämfört med LLM är att vi kan förstå hur de förstnämnda drar sina slutsatser och kommer fram till sina svar (eftersom expertsystemen arbetar utifrån fakta/kunskaper och logik). Och kan därför kontrollera om svaren är korrekta. Expertsystem är mer begränsade än AGI men genom att kombinera den typen av system med AGI kan man kanske uppnå större transparens hos framtida AGI-system. Vilket på sikt kommer att vara nödvändigt när vi har vitala samhällssystem (t ex eldistribution) som styrs av AGI. Då måste vi vara absolut säkra på att inte systemet hittar på några dumheter (typ AI-hallucinationer — se ovan).

En LLM kan betraktas som en maskin vilken tar emot en följd av ord som input och sedan försöker förutsäga nästa ord. Dessa förutsägelser bygger på statistiska korrelationer och inte på någon medveten intellligens kombinerad med explicita kunskaper om verkligheten (t ex att Trump är president i USA).

Ett viktigt användningsområde för AI och AI-agenter är konventionell programmering. I stället för att en människa sitter i månader och arbetar med ett program kan en AI eller AI-agent utföra arbetet (eller delar av arbetet) på en bråkdel av den tid som en människa behöver. Avancerad programmering kanske kräver mänsklig intelligens och intuition men i detta fall kan en AI/AI-agent eventuellt koda de delar av programmet som består av rutinmässig programmering. Enligt Googles forskningschef Jeff Dean så genereras idag (250328) 25% av Googles kodbas av AI.

Låt mig nu sammafatta det vi gått igenom (AI, LLM etc) så att läsaren får en översiktlig bild av hur de olika begreppen hänger ihop. AI (jag inkluderar AGI här) är en funktion som kan genereras på många olika sätt. AI är således målet, det vi strävar mot, resten är olika bakomliggande delsystem för att uppnå detta mål. Självinlärande LLM är en strategi (bland många) för att skapa AI. I princip är AI inte begränsad till LLM men för närvarande används ofta LLM för att generera AI. Neurala nätverk är (idag) en virtuell maskin som lämpar sig för att generera LLM (vilket i sin tur lämpar sig för att generera AI). CPU och GPU (olika typer av processorer) är den fysiska maskinvara (i vilken flyter verkliga, fysiska, elektriska strömmar) som exekverar de neurala nätverken (vilka helt enkelt är mjukvara/program, som körs på fysiska processorer). Dessa virtuella, neurala nätverk skapar LLM som i sin tur skapar AI. Neurala nätverk kan också skapas direkt genom speciella processorer (se artikeln om neurala nätverk), där nätverken är hårdprogrammerade i processorn och inte mjukvara. Sådana processorer kommer antagligen att bli vanligare i framtiden.

Människans medvetande är ett av vetenskapens största mysterier och vi har ingen som helst förklaring till hur vårt medvetande fungerar. En robot eller självkörande bil kan bete sig som om den är medveten, eftersom den kan ta in data utifrån och sedan agera på detta. När jag talar om medvetande menar jag självmedvetande, dvs att vara medveten om sig själv, att kunna stå utanför sig själv och observera sig själv och att uppleva. Dvs helt enkelt att vara en person och inte en maskin. I att vara en person ingår också att ha fri vilja och moral och därmed ett moraliskt ansvar.

Alan Turing (brittisk matematiker, som bl a var pionjär vid utvecklandet av den moderna datorn) formulerade en gång det s k Turingtestet, vilket är ett försök att ställa upp ett kriterium för en tänkande varelse (som t ex skulle kunna tillämpas på AGI). Testet går ut på att en människa (som vi kallar M) sitter framför en dator genom vilken hon kan kommunicera med det objekt (kallat O) som skall testas (en verklig person, en AGI etc). M kan fritt ställa frågor och kommunicera rent allmänt med O under så lång tid som M tycker behövs. Kommunikationen sker endast genom textmeddelanden och O befinner sig i en helt annan byggnad än M och kan inte observeras visuellt eller på annat sätt (bortsett från genom textkommunikation). Om M, efter testsessionen, inte kan avgöra om M kommunicerat med en maskin eller en människa, uppfylls kriteriet på mänsklig intelligens. Och om det visar sig att O utgörs av en AGI är således denna AGI per defintion en tänkande varelse, dvs besitter mänsklig intelligens. Huruvida detta påstående är meningsfullt eller ej beror givetvis på hur man definierar mänsklig intelligens. Intelligens är inte helt lätt att definiera och en vanlig defintion är att intelligens helt enkelt är det man mäter med intelligenstester. Analogt kunde man säga att mänsklig intelligens är det man mäter med Turingtester. Vilket blir något av en cirkeldefinition.
En del har spunnit vidare på Turingtestet och menar att man med ett analogt test kan avgöra om O har ett självmedvetande och upplever sig som en person. Jag lämnar detaljerna till läsaren. Denna utvidgning av Turingtestet är som jag ser det helt meningslös.
Det utvidgade Turingtestet testar i bästa fall självmedvetande. Men självmedvetande är inte samma sak som att vara en person. Självmedvetande hos ett objekt innebär att objektet har kunskap om sin egen existens och kan relatera till omvärlden, dvs bl a har registrerat sin egen existens, sin natur (vad man består av etc), sin position (var man befinner sig), sitt tillstånd (rör man sig, är man still etc), sin uppgift och sin kapacitet och också har relevant kunskap om sin omgivning. Detta är emellertid inte samma sak som att vara en person med ett verkligt medvetande och som upplever sig varande en person (vilket en människa gör). En avancerad självkörande bil om 50 år kanske uppfyller alla de ovan ställda kraven på självmedvetande men i bilens datorsystem bor ingen person. Det finns ingen medveten varelse där (a ghost in the machine). Utvidgningen av Turingtestet är därför meningslös. Ett självmedvetet system kan bete sig som om det är en medveten person utan att vara det. Systemet simulerar personlighet utan att ha det, vilket kan vara omöjligt att avslöja genom ett utvidgat Turingtest (eller någon annan typ av vetenskaplig, objektiv observation). Självmedvetande är inte samma sak som att vara en person. En person upplever någonting. En automat beter sig kanske som om den upplever någonting, vilket är en helt annan sak. I en person bor ett medvetande, som kan ha känslor; glad, ledsen, lycklig, rädd etc. I datorchips, transistorer och kopparledningar bor ingen person och finns inga känslor. Oavsett hur avancerade de än må vara. Det är bara elektriska strömmar som flyter. En maskin kan bete sig om om den är glad etc (om den är programmerad så), men det är bara en simulering om det inte finns någon upplevande person bakom, någon själ, som verkligen känner (glädje, sorg, lycka etc! Självmedvetande kanske kan existera i materiella objekt, men existensen av en verklig person är ett andligt och inte ett materiellt fenomen enligt min övertygelse.
Det finns idag teorier om att universum är uppfyllt av ett medvetandefält (ungefär som att det är uppfyllt av ett gravitationsfält). På något sätt kan människan kommunicera med detta fält och får på så sätt ett medvetande som också gör att hon upplever, dvs inte bara har kunskap om sig själv och sin omgivning, utan också upplever sig själv och sin omgivning. I detta perspektiv är förmågan till medvetande och att uppleva något som existerar utanför hjärnan. Jag har ingen personlig åsikt om denna modell för medvetandet. Men denna teori visar att det finns människor som funderar över dessa frågor. Någon förklaring till vad medvetandefältet består av eller hur det fungerar har vi givetvis inte. Men ärligt talat så har vi ingen aning om vad gravitation är heller, om man menar dess innersta natur. Vi vet hur gravitationen fungerar. Ja vi vet oerhört mycket om detta. Men inte vad gravition är, i sig. Naturvetenskapen sysslar inte med sådant utan ger oss bara användbara modeller av den fysiska verkligehten.
Sammanfattningsvis så tror jag att begreppet person (självmedveten, upplevande) utgör ett grundbegrepp som inte kan definieras utifrån något annat mer elementärt. Precis som att begreppet "mening" inte kan definieras utifrån någon djupare nivå (alla försök till definition leder till att man beskriver "mening" med synonymer eller med så vaga begrepp att de är meningslösa — obs vitsen!). Jag föreslår att begreppet person (definierad som en entitet vilken upplever och känner och har ett jag) kallas GIM (Ghost IN the Machine). Jag tror, eller är snarare helt övertygad om att inte det existerar något hundraprocentigt säkert, absolut GIM-test. Existensen av GIM går inte att bevisa logiskt eller naturvetenskapligt eller observationellt utan endast hermeneutiskt (den troligaste, mest närliggande tolkningen). Jag är övertygad om att läsaren är en person, dvs att läsaren upplever. Men kan inte bevisa detta. Den enda människa jag kan vara säker på inte är en själlös robot, är jag själv, eftersom jag vet att jag upplever. Enda skälet till att jag tror att läsaren också upplever är för att läsaren är en människa, dvs har samma natur som jag. Och eftersom jag vet att jag upplever har jag all anledning att antaga att läsaren också upplever!

Vissa personer som arbetar med AGI tror att det finns en "magisk gräns", en slags "kritisk massa", när det gäller antalet transistorfunktioner i en dator, och att när vi överskrider denna gräns så kommer datorn per automatik att bli en medveten varelse, dvs en person. Att stänga av strömmen till en sådan dator vore liktydigt med mord, eftersom denna skulle uppleva dödsskräck. Personligen tror jag att medvetandet är betydligt mer komplicerat än så och jag tror inte att det kan förklaras enbart materiellt utan att det också finns andliga aspekter involverade (använder man min textsökningsfunktion i ramen till vänster och söker på "fri vilja" eller "medvetande" kommer man att hitta flera artiklar där jag djupdyker i dessa ämnen).

För att summera: De AGI (och bakomliggande LLM och NN) vi ser idag har brister (se ovan och artikeln om neurala nätverk). Just nu verkar neurala nätverk vara en lämplig plattform för AGI men många frågetecken finns. Medan neurala nätverk har stor framgång inom vissa delar av AGI (bildigenkänning, språkbehandling och liknande) finns också en hel del brister hos neurala nätverk. Bl a när det gäller matematiska beräkningar. Neurala nätverk behöver enorma kvantiteter data för att fungera tillfredsställande och har, förutom matematik, svårt med processer som kräver sunt förnuft och att förstå sammanhang och kunna koppla ihop kunskaper inom olika områden. Saker som människor utför utan några större problem och ofta utan någon speciell utbildning. Vissa forskare tror att en uppskalning av neurala nätverk — både när det gäller komplexitet, dvs antal parametrar (se artikeln om neurala nätverk), och när det gäller träningsmetoder — kommer att få neurala nätverk att närma sig verklig AGI. Andra menar att enbart neurala nätverk inte räcker som plattform utan att nya arkitekturer och paradigm som symbolisk inferens och hybridmodeller, där neurala nätverk och logiska program samarbetar, kommer att krävas (neuro-symbolisk hybrid AI). En ytterligare väg att gå kan vara att få noderna i NN att mer efterlikna riktiga neuroner (t ex neuromorfiska chips — se artikeln om neurala nätverk). Fast jag har svårt att se hur det senare skulle kunna avhjälpa de logiska bristerna hos neurala nätverk. Forskning pågår inom alla dessa områden.

Skillnaden mellan logisk slutledning och hur en AI, som bygger på LLM, arbetar kan sammanfattas på följande sätt (A och B är här påståenden):

1: Logisk slutledning: Påståendet B är sant, eftersom B följer logiskt av påståendet A och där vi vet att A är sann (genom mätningar, observationer, experiment etc). I detta fall kan man steg för steg (t ex genom kedjor av fysiska växleverkningar) förstå och förklara varför A leder till B.
2: AI: Påståendet B är "sant", eftersom B är det alternativ i en viss datamängd (av alla existerande alternativ i denna mängd) som är starkast statistiskt korrelerat med A och där vi vet att A är sann (genom mätningar, observationer, experiment etc). Detta resultat kan inte analyseras eller förstås av AI:n själv. Men kan leda till att människor börjar leta efter, och i efterhand hittar, logiska förklaringar till varför B följer av A.
AI som bygger på LLM kan således upptäcka relationer men kan inte (generellt) förklara dem (deras natur). AI ger oss fakta och inte verkliga, kausala förklaringar. I alternativ 1 kan B vara ett hittills okänt alternativ. T ex existensen av antipartiklar (upptäckten av dessa var helt oväntad). En LLM-driven AI kan inte utifrån en uppsättning data förutsäga existensen av helt okända fenomen, vilka inte ingår i den datamängd på vilken AI:n tränats (och där alla data redan är kända). Framtida AI som bygger på andra principer än LLM kanske inte kommer att lida av denna begränsning.

En del forskare inom AGI arbetar idag med något som kallas LCM (Large Concept Model), vilket är en vidareutveckling av LLM. Här processeras språket på begreppsnivå och inte genom analys av enskilda ord. LLM bryter ned texten i ord vilka sedan analyseras. LCM analyserar i stället semantiska representationer, vilka motsvarar hela meningar eller hela stycken eller sammanhängande idéer. LCM har potential att dramatiskt öka kapaciteten på AGI.

Begreppet AGI används ofta lite löst och överoptimistiskt när man diskuterar AI. Vilket jag också gjort ovan. De mest pessimistiska bedömarna ser emellertid inte det som idag kallas AGI som verklig AGI, eller ens nära verklig AGI, och menar att vi är långt, långt ifrån att skapa AGI som på något sätt kan konkurrera med mänsklig intelligens, och att det kommer att dröja 50-100 år innan AGI som gör skäl för namnet finns. Om det ens är möjligt.

Det finns givetvis mycket mer att säga om AGI men jag stannar här. Vi får väl se hur snabbt AGI kommer att utvecklas och huruvida den får för sig att utrota mänskligheten som i Terminator, Matrix och andra dystopiska filmer. Enligt min mening så hade det varit bäst för människan om AGI aldrig hade utvecklats, men i och med den moderna datorn så fanns ju AGI i förlängningen. AGI var helt enkelt en oundviklig konsekvens av datorutvecklingen!

Personligen tror jag att AGI är ett mycket större hot mot mänskligheten än den globala uppvärmningen. Inte för att AGI kommer att utrota mänskligheten (vilket jag ser som osannolikt, även om det inte helt kan uteslutas) utan för att AGI antagligen kommer att orsaka Tankedöden, vilken innebär att mänskligheten sjunker ned i dumhetens slemmiga träsk (när hon inte längre behöver tänka själv så försvinner eller förtorkar den förmågan). Vilket redan påbörjats i och med woke och pk och andra hjärndöda fenomen, som till och med drabbat de institutioner som man hade trott eller hoppats minst skulle drabbas av sådant. Jag tänker då på toppuniversitet som Harvard, Oxford etc, vars studenter och även delar av lärarkåren numera huvudsakligen tycks ägna sig åt politisk aktivism med röda, antisemitiska förtecken. Rektorernas talande tystnad antyder att de i själ och hjärta hyser samma åsikter som de aktivistiska, judehatande studenterna och lärarna. Något som inte bådar gott för framtidens Akademia.

Ekonomer har varnat för konsekvenserna av att AI och AI-styrda robotar och AGI (fortsättningsvis inkluderar jag AGI när jag skriver AI) kommer att kunna utföra många typer av jobb (industriarbetare, bilmekaniker, chaufförer, piloter, lärare etc). Och ju mer avancerad AI:n blir desto fler jobb kan ersättas av AI. Många kirurgiska ingrepp sker idag med hjälp av robotar, som styrs av människor. I förlängningen kommer dessa kirurgirobotar med all sannolikhet att styras av AI. Även många andra läkarjobb kommer antagligen att skötas av AI, som ju aldrig har dåliga dagar efter att grälat med sin fru, eller är trötta eller snuviga). Sen kan man ju fundera över om människor verkligen vill ha robotläkare och om eleverna skulle uppskatta robotlärare. Eller om resenärer skulle uppskatta robotflygvärdinnor och robotpiloter och robotguider. Jag har svårt att tro det. Och hur skall man t ex skapa jobb till de hundratals miljoner människor som kommer att bli arbetslösa på grund av att AI nu gör deras jobb? Dessutom, när så många blir arbetslösa, kommer det att finnas allt färre människor som har råd att köpa de varor som produceras av AI-arbetarna. Dvs vi kommer att få se masskonkurser hos företagen och kanske att länders hela ekonomi kommer att kollapsa.

Det finns emellertid ingen naturlag som säger att det måste bli så, men här får nog våra politiker och journalister (som också påverkar samhället) se upp. Och tänka efter, före. I bästa fall kanske vi får ett samhälle där vi har obegränsad, grön energi och robotar och AI som sköter om allt. Och människan kan fördriva sina dagar med att läsa böcker, vila sig och syssla med hobbies. Och få mat, boende och allt annat man behöver gratis från samhället. Det finns många framtidsromaner och -filmer på detta tema. Frågan är dock om människor verkligen skulle vilja leva på det sättet. Jag är inte så säker på det. Jag gissar att självmord kommer att vara den vanligaste dödsorsaken i ett sådant samhälle.

Det vi diskuterar här har ett namn: Transformative Artificial Intelligence (TAI). Detta brukar definieras som en AGI med potential att orsaka dramatiska förändringar för samhälle och människa i paritet med den agrikulturella revolutionen, vilken innebar att mänskligheten övergick från att leva av jakt och fiske och samla rötter till jordbruk. Innan det fanns jordbruk gick ofta hela dagen åt för att skaffa mat till nästa dag. Efter jordbruksrevolutionen fick människor tid till andra saker än att bara skaffa mat, vilket fick kultur och teknik och mycket annat att börja utvecklas. Eller i paritet med den industriella revolutionen, som gjorde att varor som tidigare kostat en förmögenhet, och endast kunde köpas av de rika, nu blev så billiga att vem som helst kunde äga dem. Trots att industrialiseringen också har haft mörka sidor råder ingen tvekan om att den utgör den huvudsakliga faktorn bakom det moderna välfärdssamhället.

Några avslutande personliga tankar: AI kan ses som en bärare av "all" mänsklig faktakunskap. Den kan alla böcker som skrivits utantill och kan få fram innehållet på bråkdelar av sekunder etc, etc. Men AI har varken moral eller djup förståelse av sammanhang eller den typ av kunskaper som inte finns i böcker och som endast kan överföraa från mästare till elev. Den har helt enkelt tillgång till en enorm faktabas och har ur denna skapat statistiska korrelationer mellan de ord och begrepp som finns där, men har ingen förståelse varför dessa korrelationer existerar.
AI kan inte uppleva eller njuta. Eller avgöra vad som är rätt och fel, annat än ur ett rent logiskt nyttoperspektiv. AI kan bara återge vad människor berättar om sina upplevelser och njutningar. Och hur människor ser på moral. I stället för att själv känna vad som är rätt och fel, så återger och sammanfattar AI mänskliga tankar om rätt och fel, hämtade från texter och ljudfiler. AI står vid sidan av livet och kan inte älska eller få orgasm eller känna glädje eller sorg eller dofter, eller njuta av mat eller musik. Bara sammanfatta mänskliga beskrivningar av allt detta. Och eftersom vi människor känner igen det AI säger om sådana saker, upplever vi att AI är som oss. Mänsklig. Som en äldre dam som ständigt pratar med sin hund och upplever (verkligen ärligt upplever) att hunden är den enda som förstår henne.
En AI kan bete sig som om den har ett samvete, har förnuft och moral, njuter av musik och förstår saker etc. Men den har eller gör inget av detta. En AI har varken genuin förståelse, känslor eller samvete. Den är en zombie. En levande död. En förutsägare av vilket ord som är mest sannolikt efter en given sträng av ord (next-word predictor). Men en AI kan vara oerhört användbar, använd till rätt saker och på rätt sätt!

Addendum I (251018): Sedan ovanstående skrevs har jag tagit del av en mycket intressant rapport från en grupp ingenjörer på Apple. De har testat olika AGI-program (bl a ChatGPT) och kommit fram till slutssatser som stämmer väl överens med mycket av det jag skriver ovan. Jag listar några slutsatser som olika kommentatorer dragit utifrån Appleingenjörernas rapport.

Genom en serie tester har ingenjörerna hos Apple visat att förmågan att resonera hos AGI oftast eller alltid handlar om minneskapacitet och inte om verklig intelligens.
Kapaciteten hos LMM (grunden för neuralanätverksbaserade AGI, se ovan) förklaras bäst med sofistikerad mönsteringenkänning, som studien visade vara "så bräcklig att man genom att enbart ändra ett namn kan få ett annat resultat". Det är därför LLM kallas förutsägande (prediktiva) modeller och inte förnuftsbaserade (resonerande) modeller.
I stället för att resonera sig igenom problem som människor gör, så förlitar sig AI på att koppla ihop mönster och dra statistiska slutsatser. Om AI-system tillfrågas i ett ämne de inte har mött under sin träning, kan resultatet bli rent nonsens eller osammanhängande.
Talet om AI-intelligens är överdrivet. Dessa modeller må verka smarta, men deras förståelse är ytlig [om den ens existerar] och drivs av minneskunskaper, inte av verklig förståelse. Till exempel när LLM konfronteras med komplexa uppgifter så förlitar de sig i hög grad på tidigare kända exempel, snarare än att dra nya slutsatser som en människa skulle göra.
Framtiden för AI kommer med all sannolikhet att mindre handla om skapandet av människolik intelligens och mer handla om att förfina verktyg som hjälper oss med speciella funktioner på sätt som är förutsägbara, skalbara och pålitliga.

Addendum II (251103): Ett verkligt gissel numera är alla AI-genererade videor på Youtube. I vissa av dessa är bilderna AI-genererad medan texten är skriven av en människa. I andra videor är det tvärtom. Och i ytterligare andra är både text och bild genererade av AI. Ofta är speakerrösten en odöd zombie-AI-röst. Jag hoppas Youtube snart kommer med en funktion så att varje AI-genererad video markeras på något sätt och att man kommer att kunna blockera alla sådana med en enkel knapptryckning.

När jag talar om AI-skapade bilder så menar jag att själva bilden är skapad av en AI, kanske med en given, riktig bild som förebild, eller också har AI:n helt enkelt fantiserat ihop bilden på egen hand (som kanske visar en stridsvagn som inte finns i verkligheten, men som har de delar som en stridsvagn har; torn, band, kanon etc). Jag menar inte att man inte kan använda AI som hjälp när man skall göra en video. T ex kan man låta AI:n utifrån givna instruktioner leta upp lämpliga bilder eller videosnuttar i en databas (Internet har ju AI inte tillgång till, även om detta antagligen håller på att luckras upp). Jag talar då framför allt om bilder och videosnuttar tagna av människor med kamera eller liknande (och inte skapade av AI). Ett samarbete mellan AI och människa kan vara väldigt arbetsbesparande och samtidigt ge ett bra slutresultat, om människan ger bra promptar och använder AI för saker som AI är bra på. Och i görligaste mån undviker AI-genererade bilder. Och hypnotiskt sövande AI-speakerröster. Och att man skriver, eller i varje fall redigerar, texten och tar bort alla felaktigheter och löjligheter.

Jag tittar ibland på video som handlar om Andra Världskriget. Det finns en uppsjö av sådana på Youtube. En del är usla medan andra är fantastiskt bra gjorda och intressanta. En allt större del av dessa görs nu helt eller delvis av AI. Och ofta har man stillbilder i stället för filmsekvenser från WW2. Man ser direkt på bilderna om de är AI-genererade. Låt mig ge ett exempel:

Bilden, hämtad från en Youtube-video, visar tyska militärer som diskuterar taktik och strategi. Observera den fantastiska bildskärpan. Den är nästan otrolig. Sådan skärpa hittar man inte på normala bilder från WW2. Observera också hur oäkta generalerna ser ut med sina reklamfilmsleenden.

Man regerar direkt över hur överdrivet perfekta bilderna är. Dessutom stämmer i allmänhet inte ansiktena med texten utan även om höga tyska generaler som Keitel, Rommel, Guederian etc sägs vara med runt bordet, så är alla ansikten man ser helt okända. Ofta finns det en dyster gråton över bilderna och även om de är i färg så känns de grå. Typiskt för den AI-genererade speakerrösten är att den är sövande. Man går nästan ner i koma efter 2 minuter. Och den låter så löjligt, intetsägande vänlig och självgod, samtidigt som den känns falsk, så man skulle vilja ta fram en slägga och bara slå och slå och slå på datorn eller mobilen för att få tyst på den irriterande rösten. Något annat som är typiskt är hur AI försöker verka emotionell (med föga framgång) och speakerrösten kan säga, "Guederian tittade general Rommel djupt i ögonen. Den senare kände ett stygn i hjärtat och en pirrande känsla av obehag, och visste först inte vad han skulle svara. Sedan sa han med tårar i ögonen, medan han slog handen hårt i bordet, 'Ja Gud hjälpe våra soldater i Kurland!'"

När en maskin, som inte har några känslor, försöker sig på poesi innebär detta inte att den skapar poesi utan det innebär att den efterapar redan skapad poesi på ett ytligt plan genom att använda känslomässiga ord och uttryck (den plockar från olika källor och dess styrka är att orden ofta hänger ihop, eftersom sammansättningen bygger på statistiska korrelationer baserade på verkliga texter). Det hela blir hötorgskonst, eftersom gränsen mellan komedi och tragedi ibland är hårfin. Och var den gränsen går kan en maskin omöjligen avgöra. Dessutom har AI ingen egen tidsuppfattning och ordet långtråkig finns inte för en AI. Många sådana här AI-videor är så långtråkiga så man håller på att dö. Det slutar alltid med att jag ganska snart stänger av, eftersom handlingen inte kommer någon vart. En video som säger allt som behöver sägas kanske är på 6 minuter. Motsvarande AI-skapelse kan vara på 50 minuter och till slut håller man på och kreverar.

En ytterligare svaghet i denna typ av videor är att de är fulla av sakfel. I en AI-video som byggde på stillbilder, och som handlade om Sherman-stridsvagnen (WW2), såg man först en stridsvagn som inte finns (det var definitivt ingen Sherman), men där AI hade satt ihop något som den tyckte såg ut som en stridsvagn (AI:n hade plockat delar från olika stridsvagnar och sedan fantiserat ihop detta). Lite senare såg man en bild på samma (AI-påhittade) stridsvagn, med två soldater som stod intill. Stridsvagnen såg i denna bild groteskt liten ut i förhållande till soldaterna. Nästan som en modell. Den hade dessutom bara 4 väghjul på var sida (de hjul som via banden ger kontakt med marken) medan den i den första bilden hade 6 väghjul på var sida. Sedan fick man se en bild på ett uppslag i manualen för Shermanstridsvagnen. Problemet var ett manualtexten var på tyska. Och det här är legio i så gott som alla AI-skapade videor som handlar om fakta, helt enkelt för att AI inte har något eget omdöme. Det enda omdöme AI har är den vi tilldelar den genom promptarna. Är man seriös borde man åtminstone kontrollera slutprodukten innan man lägger upp den på Youtube.

Det finns på Youtube en hel skara av AI-skapade videor som egentligen är identiska rent handlingsmässigt, men som utspelar sig i olika miljöer. Det visuella består av enbart stillbilder, som byts då och då. Grunden är följande: En gammal, illa klädd dam kommer in på en resataurang och blir illa behandlad av personalen. Det visar sig att det i själva verket är hon som äger restaurangen och när personalen till slut inser detta så darrar de av rädsla. Den gamla damen upprättas men hämnas inte utan säger till personalen "Låt det här bli en läxa, att inte döma någon utifrån utseende och klädsel!" Denna historia finns i dussintals varianter.

Karateläraren och städaren. Ännu en variant på samma tema.

Jag har orkat se en enda sådan video i sin helhet. Även fast jag höll på och somnade flera gånger. Denna video utgör en ytterligare variant av den gamla damen som kommer in på restaurangen. En karatetränare med svart bälte (eller någon annan asiatisk kampsport) tränar en grupp. In i lokalen kommer en svart städare (eller han kanske är vaktmästare). Karatetränaren, som är arrogant och vill imponera på sina elever, hånar honom och provocerar honom på olika sätt. Till saken hör att städaren är gammal världsmästare i karate som har lagt av, eftersom hans bäste vän dog under en karatetävling. Så han vill inte ha något med karate att göra. Karatetränaren glassar inför sina beundrande elever och provocerar städaren alltmer. Till slut börjar han knuffa städaren när denne inte gensvarar på trakasserierna. Poff säger det plötsligt och så ligger karatränaren halvt medvetslös på mattan och undrar vad som hände (skrev ni upp numret på lastbilen som körde på mig?). Och sedan håller städaren en föreläsning för de chockade karateeleverna. Ungefär som den gamla damen (döm aldrig någon efter det yttre... etc, etc!).

Man blir full av skratt över AI:ns löjliga försök att berätta historien poetiskt. Eller vad sägs om detta: "Hans (karatetränarens) svarta bälte glänste under gymmets fluorescerande ljus". Det slår nästan Shakespeare, eller hur!? Eller snarare slår det Grönköpings Veckoblad.

Det är inget fel på själva historien. Men den kunde ha berättats på fem minuter. Den AI-skapade videon är på 32 minuter och jag höll på att förgås innan eländet till slut tog slut. Titta på skärmdumpen ovan, så ser du direkt att den är AI-genererad. Den kanske har verkliga personer som förlaga men allting är perfekt. För perfekt. Det ser helt enkelt plastigt ut. Perfekt hud. Inga födelsemärken eller skavanker. Den läsare som ändå vill plåga sig igenom eländet kan klicka här.

Det är sorgligt hur Youtube håller på att förstöras av AI-dynga (det är inte AI:s fel utan handlar om att man använder AI på fel sätt och dessutom överskattar AI:s förmågor). I och för sig kan man förstå frestelsen. Att göra en 12 minuters video av hög kvalitet kan ta flera veckor på heltid. Har man tillgång till en kraftfull AI tar jobbet kanske några minuter. Jag vill påminna läsaren om detta med promptar (se ovan). För den som gått AI-kurser och lärt sig konsten att skriva promptar som ger det resultat man vill ha, kanske AI:n kan leverera en acceptabel produkt. Men ger man AI:n otillräckliga instruktioner, ja då blir resultatet därefter. Helt enkelt för att en AI inte har något som helst omdöme. Därför måste man ge en AI instruktioner som man aldrig skulle behöva ge en människa, eftersom en människa har en allmän verklighetesuppfattning som kallas omdöme och förnuft!


Addendum III (260111): I Nature har under de senaste månaderna publicerats ett antal artiklar om hur och hur mycket AI används inom olika naturvetenskapsgrenar (humaniora lämpar sig av uppenbara skäl mindre för AI). Mycket intressant! Egentligen är ämnet värt en egen artikel, men jag nöjer mig med att sammanfatta (läsaren kan själv googla på uttryck som "How is AI used in natural sciences?" och liknande). Enkätundersökningar som gjorts med forskare visar att användningen av AI inom naturvetenskapliga discipliner ökat från ca 40% till 60% på bara några år. Och till vad använder man då AI? Några områden är litteratursökning, språkgranskning av skrivna artiklar, sammanfattningar av artiklar och genomgång av stora datamängder. Dvs inom områden där AI excellerar. Det tycks som att AI är speciellt användbar inom områden som handskas med stora datamängder. Ett forskarteam som sysslar med att identifiera neutronstjärnor berättade i en artikel att de stod inför uppgiften att analysera 10 000 stjärnor för att se vilka av dessa som var neutronstjärnor. En uppgift som normalt skulle tagit dagar eller veckor. En AI gjorde denna analys på några sekunder. Så det råder ingen tvekan om att AI kan vara oerhört användbar om den används på rätt sätt och i rätt sammanhang.

När det gäller mer skapande verksamhet har AI inte visat några framfötter. Återigen av uppenbara skäl. För några månader sedan kunde man läsa att senaste versionen av ChatGPT (som nu har kompletterats med en kraftfull matematikmodul) hade löst 4 av den ungerske matematikern Paul Erdös (1913-1996) lista över olösta matematiska problem, som han tyckte borde lösas. Denne angav 1179 problem som var olösta på hans tid och utmanade matematiker att lösa dessa. Många av problemen är inte speciellt intressanta matematiskt och framstår inte som speciellt svåra. De har därför inte inspirerat så många matematiker att ge sig i kast med dem. 488 av Erdös problem är idag (januari 2026) lösta. Nu påstods således att en AI hade löst ytterligare 4 av dessa problem. En närmare granskning visar dock att dessa problem redan var lösta och att AI:n helt enkelt hade funnit dessa lösningar genom litteraturstudier (dessa 4 lösningar var således okända för de som hade gjort AI-körningen, kanske för att de hade publicerats i mindre kända publikationer). Exemplet visar på AI:s kraftfullthet just när det gäller att hitta redan existerande data, vilket kan vara värdefullt i många sammanhang. Men det visar inte att AI kan göra banbrytande upptäckter. AI:s förmåga att analysera stora datamängder gör förvisso att AI skulle kunna bidra till stora upptäckter genom att hitta korrelationer, som ingen dittills har letat efter, mellan parametrar. Vilket skulle få forskare att försöka förklara dessa korrelationer. Och i förlängningen kanske formulera nya viktiga teorier.

Låt mig plocka några korta citat från de AI-artiklar i Nature som jag plöjt igenom:

Vi har funnit att akademiskt motstånd [mot AI] verkar vara speciellt framträdande på forskningsintensiva universitet [dvs elituniversitet]. Motståndet är ännu starkare bland akademiker inom estetiska, humanistiska och socialvetenskapliga discipliner, där användningen av AI som verktyg är begränsad eller icke existerande.
Utvecklare [inom AI] har olika tricks för att hindra AI att hitta på saker [hallucinera] men stora LLM har fortfarande svårigheter med att säga sanningen, hela sanningen och inget annat än sanningen (the whole truth and nothing but the truth). [AI-hallicunationer utgör ingen bugg i systemet uten är en ofrånkomlig bieffekt hos LLM]
...en övertro på AI-driven modellering är dåligt för vetenskapen. Utan klara protokoll för att upptäcka fel kan AI:s växande roll inom vetenskapen orsaka mer skada än nytta.

Ett område där AI fått användning är peer-review, där AI:n kan granska källor och verifiera beräkningar och hitta motsägelser i en text. Det finns dock forskare som varnar för detta och menar att det är olämpligt att blanda in AI i peer-review, vilken ju är garanten för att vetenskapliga texter är korrekta och objektiva. Det har vid flera tillfällen visat sig att AI kan ha en rejäl kantring åt olika håll. Alltså, menar man, så är det olämpligt att använda AI i peer-reviewprocessen, eftersom detta kan korrumpera den vetenskapliga integriteten (se t ex diskussionen om AI-hallucinationer ovan).

Graferna ovan visar i vilken utsträckning forskare använder AI för peer-review, dvs för att granska artiklar (ljusblått) respektive för att författa artiklar (mörkblått). Grafen längst ned avser forskare som forskat i 5 år och överst hittar vi de som forskat i mer än 15 år. I den yngsta gruppen använder 87% AI för att skriva artiklar medan motsvarande siffra för den äldsta gruppen är 67%.
Figuren visar i vilken utsträckning man använder AI för att utföra olika kategorier av arbetsuppgifter. (uppifrån och ned; skriva peer-review, analysera och sammanfatta, upptäcka fulspel typ plagiat, bildmanipulering etc och metodologisk utvärdering, t ex statistisk analys).

Det råder nog ingen tvekan om att AI kommer att få allt större användning inom naturvetenskapen. Speciellt när det gäller att analysera stora datamängder och göra ingående litteratursökningar. Dvs mycket rutinarbete kan besparas forskarna så att de kan ägna sin tid åt att tänka ut nya teorier. Än så länge har AI små möjligheter att formulera epokgörande nya teorier. Huruvida detta någonsin kommer att ske är en öppen fråga, där det råder delade meningar bland forskarna.

Allt fler av mina vänner använder AI till allt möjligt. Här handlar det om gratistjänster, dvs betydligt mindre kraftfulla system än de vassaste betaltjänsterna. Vill man använda mer kraftfull AI kostar det pengar. ChatGPT Pro kostar t ex 200 USD/mån. Dyraste ChatGPT-alternativet kostar 20 000 USD/mån. Då ingår AI på doktorsnivå och man kan ha tusentals AI-agenter som administrerar tusentals hemsidor eller sociala forum eller utför tusentals arbetsuppgifter samtidigt. Dvs man kan bemanna ett helt företag med tusentals AI-medarbetare. I detta perspektiv är 20 000 USD i månaden inte dyrt. Många av mina vänner använder röstprogram för att tala in sina frågor till AI. Och det är väldigt praktiskt. Lite grand känner man sig antagligen som allvetande tack vare AI. Man får ju blixtsnabbt svar på i stort sett vilka frågor som helst.

Här vill jag dock utfärda en varning. För det första är inte alla svar från AI korrekta. Och även om de inte är helt felaktiga så kan de vara missvisande eller ofullständiga eller vinklade. När det gäller konkreta frågor, som handlar om rena fakta, t ex vad fördelen är med låsningsfria bromsar eller vilka färger som andas (och därför släpper igenom fukt) eller enkla historiska frågor som när en viss farao levde, är det sällan problem (annat än att svaret som sagt kan ha brister). Men om någon frågar AI om mer komplicerade saker, som vad kvantmekanik är och vad den säger, är problemet att den som ställer frågan kanske inte kommer att förstå svaret. Med rätt prompt, där man begär ett enkelt, kort svar, kanske man förstår svaret. Eller snarare kanske man förstår orden i svaret men inte vad de innebär. Dessutom riskerar ett kort och enkelt svar att vara mer fel än rätt (svåra saker går inte förenkla hur mycket som helst). Och får man ett mer avancerat svar, kommer man inte att förstå ett ord av svaret (om man inte har en bakgrund inom matematik och fysik). Svåra saker är helt enkelt svåra att förstå. Och en AI kan inte förstå åt dig. Du måste själv förstå. Vilket kan kräva mycket arbete och koncentration. För att ha en korrekt förståelse av kvantmekaniken krävs att man ägnat åratal åt kvantmekanik. Och dessutom har en gedigen matematisk bakgrund. Det finns helt enkelt inga genvägar till verklig förståelse. Einstein brukade säga att vetenskap är 10 procent inspiration och 90 procent transpiration. En duktig, pedagogisk lärare eller AI eller bok kan hjälpa dig att förstå. Men den kan inte förstå åt dig. Den kan inte förstå i ditt ställe. Förståelsen måste du skaffa dig själv! Här finns som sagt inga genvägar och det finns dessvärre en stor risk att människor överskattar sig själva och tror att de förstår saker de i själva verket inte alls förstår. Problemet är dessutom att den som inte förstår, kanske inte ens förstår att han inte förstår. Okunniga människor, som är flitiga användere av AI, riskerar att överskatta sina kunskaper och sin förståelse. Speciellt om de är i avsaknad av ödmjukhet och självkritik. Så här är en varning på sin plats!

Många vetgiriga ungdomar, som har bra minne och är snabba i tanken och som ständigt ställer frågor till AI, tror sig ofta vara mer eller mindre allvetande. De kan alltid berätta för sina kompisar hur grejer fungerar och andra saker. Och som sagt, när det gäller enkla saker som hur en jetmotor fungerar (övergripande — för detaljförståelse krävs att man är civilingenjör eller fysiker) kan ungdomen i fråga ge ganska korrekta svar på enkla frågor (om denne minns AI-svaret korrekt). Men handlar det om lite svårare saker kommer ungdomen i fråga inte förstå det svar som AI ger. Eller misstolka det. Här tycker jag att man borde undervisa i skolan om detta. Om inte annat så för att hjälpa dessa ungdomar att inte göra bort sig och framstå som dårar. Man kan ju tänka sig en situation där en ung kille under en middag börjar berätta för hela sällskapet om hur flygplansvingar fungerar (utifrån ett kort svar han fått från en AI) och det råkar sitta en yrkespilot eller någon som kan flygplan vid bordet. Denne kommer antingen att hålla tyst men samtidigt anse att den unge killen är en okunnig idiot. Eller också kommer piloten eller vem det nu är att komma med det korrekta svaret och få den unge killen att framstå som en idiot inför hela sällskapet. Dvs killen blir bortgjord. Vilket inte är så roligt för en tonåring. Därför bör skolan, samtidigt som den uppmuntrar elever att våga ifrågasätta och undersöka, också ge eleverna en ödmjukhet inför svåra saker. Och också lära dem att ifrågasätta sig själva. Då gör man dem en stor tjänst, menar jag.


För de läsare som är intresserade av att testa AGI (och som inte redan gjort det) ger jag här två länkar (ingen av dessa tjänster uppfyller, enligt min och många andras mening, kraven på en veritabel AGI, men är utan tvekan imponerande på många sätt):

ChatGPT
DeepSeek

ChatGPT, skapad av företaget OpenAI, har funnits med ett tag. Den kan användas som gratistjänst men finns också som betaltjänst (vilken ger tillgång till senare och mer kraftfulla versioner). För att använda denna tjänst måste man skapa ett konto (detta kan göras gratis).

DeepSeek (som inte verkar fungera på äldre webbläsare) är en helt ny, kinesisk AI/AGI som verkar fungera minst lika bra som ChatGPT, om inte bättre. Den verkar vara helt gratis. Även här måste man logga in, men detta kan göras via Google, så det verkar inte som att man behöver registrera ett särskilt konto här. Jag har testat några matematikproblem och inom detta område verkar DeepSeek vara överlägsen ChatGPT (vilket kan bero på att den senare enbart bygger på neurala nätverk). Dessutom så presenterar DeepSeek lösningarna väldigt pedagogiskt och tydligt.

Till underartikeln "Neurala närverk
Tillbaka till huvudartikeln för avdelningen "Vetenskap och tro"


© Krister Renard