X ARTIFICIELL INTELLIGENS

Inom vetenskapen är artificiell intelligens (vanligtvis förkortat AI) benämningen på ett omfattande forskningsområde med stora resurser till förfogande. Ville man hitta en mera svenskt klingande benämning på denna verksamhet, vore kanske maskinintelligens, datorintelligens eller maskinförstånd bättre på sin plats.

Begreppet maskinförstånd innebär uppenbarligen en självmotsägelse. Vad vi vanligtvis kallar maskiner kan inte rimligtvis besitta något förstånd - att maskinen är just en maskin innebär precis det att den bara kör på, på ett rent mekaniskt och själlöst sätt. Maskinen är en död pryl och förstånd kan bara ådagaläggas av levande varelser såsom människor och vissa djur. Alltså är maskinförstånd en självmotsägelse, någonting som inte kan finnas[1].

Så tänker man emellertid inte i AI-kretsar. Man hävdar att intelligens inte nödvändigtvis måste vara ett privilegium för människor. Även moderna datorer bör kunna programmeras så att de uppför sig på ett intelligent sätt, menar man.

I sådana resonemang möter vi ett för denna boks läsare vid det här laget välkänt fenomen: överföringen av ord hämtade ur vardagsspråket (förstånd, intelligens - i själva verket en hel vokabulär inklusive kunna, göra, veta, välja, besluta, dra slutsatsen att så-och-så, förstå, minnas, känna, lära sig, tro, osv., osv.) till en specialiserad, teknisk  användning inom ett vetenskapligt forskningsområde. Vad det är fråga om i AI är alltså inte förstånd i vanlig mening, utan om datorförstånd, vilket i själva verket är någonting helt annat. Det så kallade datorförståndet är så beskaffat att det, i motsats till mänskligt förstånd, kan  besittas av datorer, alltså av detta speciella slags maskiner. Det är en sorts avancerad ändamålsenlighet hos datorsystem.

Icke desto mindre rids AI-teknologin i hög grad av metafysikens mara till följd av en ständigt, särskilt i populärvetenskapliga AI-framställningar lurande tendens till assimilation av de väsensskilda betydelserna hos ordet intelligens.

Forskningen i AI har lidit av den här begreppsförvirringen sedan sin början på 50-talet[2]. De bitvis oansvarigt överdrivna förväntningar som några av områdets mindre disciplinerade företrädare har väckt (och de är inte så få!), och den ganska upprörda diskussion som detta har fört med sig har till sist blivit en generande belastning för hela AI-vetenskapen. Två framstående företrädare för ämnet, Edward Feigenbaum[3] och Pamela McCorduck, avfärdar i sin bok The Fifth Generation [4] (Femte generationen är benämningen på den nya generation datorer man vill ta fram) hela denna debatt med följande ord:

Det är ett utmärkt nöje att kunna rapportera att medan japanerna lägger ner en massa planering och eftertanke på sitt femte-generationsprojekt, så har de inte slösat någon tid alls på dessa fruktlösa små debatter som västerländska intellektuella älskar, debatter kring frågan huruvida maskiner verkligen kan sägas tänka. De betraktar vår fixering vid detta ämne på samma sätt som vi betraktar deras vana att äta rå fisk - en udda, besynnerlig men harmlös kulturell konstighet. Istället gäller deras debatter bästa sättet att utforma en intelligent maskin, en sant ny generation, den generation som skall åstadkomma den nya Nationernas Rikedom (Wealth of Nations).

Femte generationen kommer att åstadkomma allt detta genom att på avgörande sätt överge den allmänna, grundläggande utformning som har karakteriserat datorerna fram till nu.

Man kan knappast missta sig på att också bokens författare uppfattar de 'fruktlösa små debatter som västerländska intellektuella älskar, kring frågan huruvida maskiner verkligen kan sägas tänka' som den västerländska kulturens 'besynnerliga men harmlösa konstigheter'  liksom Feigenbaum och McCorduck här menar att japanerna gör.

Ändå är det omöjligt att gå med på att denna debatt skulle vara så totalt irrelevant. Edward Feigenbaum, som enligt många samstämmiga vittnesbörd är en mycket skicklig och målmedveten ingenjör, upplever den uppenbarligen så. Han är för egen del fullt klar över att syftet med denna forskning är att konstruera ändamålsenliga datorsystem som kan göra nytta som hjälpmedel i komplicerade arbetsuppgifter, vilka kräver avancerade kunskaper och tillgång till stora mängder fakta. Vad man vill kalla de egenskaper som datorer för sådana ändamål bör vara utrustade med - intelligens eller någonting annat - är för Feigenbaum förmodligen en bisak. Han gör inte anspråk på att de system han själv utvecklar (vid Stanford University) manifesterar någon teori om the human mind. Han vill helt enkelt göra ett bra ingenjörsjobb. Det är därför förståeligt att han tröttnar på 'de intellektuellas' betänkligheter.

Men dessutom argumenterar han i The Fifth Generation  för någonting som för honom själv och hans ämne är ytterst betydelsefullt, nämligen miljardanslag till den moderna datorforskningen. Motiveringen är japanernas jättesatsning på datorteknik i allmänhet och på artificiell intelligens i synnerhet. Denna satsning hotar enligt Feigenbaum att förvandla USA till en andra rangens industrination - härav talet om the Wealth of Nations [5] i citatet ovan. Att den amerikanska och europeiska idédebatten kring AI har varit på väg att ge detta forskningsområde ett tämligen tvivelaktigt anseende är därför någonting som han gissningsvis inte har lust att orda så mycket om.

Problemen löser sig emellertid inte av att man förbjuder diskussionen. Faktum kvarstår att det råder djup förvirring i stora delar av AI-lägret rörande de eventuella sambanden mellan maskinintelligens och människans förstånd. Och denna osäkerhet beträffande en fundamental fråga sprids och närs av populärvetenskapliga böcker. Själva fiktionen i många science fiction-artade filmer - som till exempel Dr Strangelove eller War Games - skulle helt enkelt inte kunna fungera utan denna osäkerhet. Feigenbaum och McCorducks förmodan i citatet ovan att "femte generationen kommer att åstadkomma allt detta", alltså befrielse från 'den intellektuella debatten' och koncentration på de verkliga ingenjörsproblemen, "genom att på avgörande sätt överge den allmänna, grundläggande utformning som har karakteriserat datorerna fram till nu", att alltså en rent teknisk nystart kommer att lösa upp knutarna, verkar därför inte övertygande. Det finns givetvis många stora och svåra tekniska problem inom AI, men frågorna om förstånd och tänkande är av begreppsligt - inte tekniskt - slag.

Det görs många försök av AI:s förespråkare att släta över det filosofiska fiaskot i detta forskningsområdes barndom. Jeffrey Rothfeder, som har skrivit en populärvetenskaplig bok i ämnet[6], lägger således ner en viss möda på att förklara hur Alan Turings spekulationer på 30- och 40-talen inte längre tas på allvar av seriösa AI-forskare[7]. Alan Turing var en matematisk logiker som i mitten av 30-talet publicerade en inflytelserik teori om mekanisk kalkylering[8]. Denna kallas allmänt för Turingmaskinen och kan beräkna allt som en verklig dator kan. Turingmaskinen har kommit att betraktas som en idealiserad dator, men den är i själva verket ett formellt system, dvs. en sorts matematisk kalkyl.

Med utgångspunkt i sina matematiska arbeten spekulerade Turing över möjligheterna att konstruera en maskin som skulle kunna utföra en människas mentala verksamheter, dvs. ha ett själsliv. Han menade att detta en dag skulle bli möjligt, kanske till och med i en relativt snar framtid. Hans idéer kring dessa frågor har inneburit en mycket stor lockelse för flera senare generationer datorforskare. Man har arbetat efter målsättningen att skriva datorprogram som uppvisar verklig intelligens, alltså förstånd i mänsklig mening. Och ibland har man också ansett sig ha uppnått detta mål för vissa begränsade uppgifter (till exempel för schackspelande datorer).

Turing formulerade ett berömt test för verklig datorintelligens - Turings test. Det går ut på att man skall gömma en människa och en dator bakom en skärm och ordna det så att man inte kan höra eller få några andra direkta sinnesintryck av vad som finns bakom skärmen. Kontakten med människan respektive datorn sker enbart via skrivmaskinsterminaler. På dessa kan jag skriva frågor och även få svar. Om jag på detta sätt inte  kan skilja människan från datorn vad gäller förståndet, så skall enligt Turing datorn anses besitta mänsklig intelligens.

Turings test har spelat, och spelar ännu i dag, en icke obetydlig roll för AI-forskningen, ty många forskare accepterar testet som avgörande. Och många tror också att det en dag kommer att bli oavgjort mellan människan och datorn i detta test - kanske i en snar framtid.

Dock är det inte svårt att rikta allvarliga invändningar mot testet. Man kunde ju till exempel på båda terminalerna framför skärmen fråga efter produkten av exempelvis det hundrade och det etthundraförsta primtalet[9] i serien av naturliga tal. Den terminal som skriver ut det rätta svaret är ganska säkert kopplad till datorn och inte till människan bakom skärmen. En normalbegåvad människa kan inte i huvudet  sila fram så stora primtal och utföra multiplikationer mellan dem. Och det ligger givetvis i testets förutsättningar att människan bakom skärmen inte  får ha tillgång till någon dator. (Det kan däremot människan framför  skärmen få lov att ha.) Datorn kan alltså avslöja sig genom att visa sin överlägsna aritmetiska räknekapacitet.

Den amerikanske AI-specialisten Joseph Weizenbaum har kritiserat Turings test för att det ensidigt uppmärksammar prestationsaspekten. Vad man jämför i testet är den dolda datorns prestationer med den dolda människans prestationer när båda ställs inför samma uppgifter. Om man inte kan avgöra vilkendera som presterar bäst sägs datorn besitta förstånd/intelligens. "I detta finns inte minsta antydan om att förklaringen till maskinens prestationer skulle vara ens avlägset besläktad med en förklaring av det mänskliga tänkandet. Den frågan uppstår över huvud taget inte."[10]

Den enligt min mening mest träffande kritiken tar emellertid fasta på faktum att Turing kräver att den människa som den 'intelligenta' datorns prestationer skall jämföras med måste vara dold för observatören när testet körs[11]. Varför?

Tog man bort skärmen skulle observatören naturligtvis omedelbart konstatera att det satt en levande människa där, bredvid datorn. Och då skulle han, i och med det, också veta att den människan, liksom alla levande människor, har förstånd. Men innebure det att han därmed också visste att datorn inte  hade något förstånd? Varför kan man inte få jämföra datorns prestationer med människans prestationer direkt, utan  någon skärm? Varför har Turing satt dit skärmen? Vad fyller den för funktion i testet?

Det hela har ett drag av hokus pokus över sig. Syftet med skärmen är tydligen att skapa en illusion  av likhet mellan en människa och en maskin/dator. Antag således att vi ger både människan och datorn en svår uppgift som båda klarar ungefär lika bra - men utan skärm. Människan kommer då att bete sig på ett typiskt mänskligt sätt, kanske se bekymrad ut och/eller le, lägga pannan i djupa veck, luta huvudet i handen, klia sig på örat, osv.. Med en min av lättnad skriver människan till sist ut svaret på sin terminal.

Datorn däremot gör naturligtvis ingenting. Den står bara stilla på bordet på datorers odramatiska sätt. Och vi vet givetvis att elektronströmmarna går kors och tvärs genom datorns minnen och processorer i enlighet med det inskrivna programmet. Till sist dyker en utskrift upp på dataskärmen - 'datorns svar'.

Allting tyder således på att människan löste uppgiften genom att använda sin tankeförmåga, medan datorn helt enkelt gav ett mekaniskt respons på ett yttre stimulus. Människans intelligens visar sig i hennes beteende - mimik, blick, osv. (varmed jag naturligtvis inte vill ha sagt att hennes intelligens är detta beteende!). Det här uppträdandet, mimiken m.m. är väsentliga  tecken på förstånd och tankeverksamhet hos en människa. Det är på sådant som vi ser att en människa är just en människa - alltså en tänkande varelse.

Datorn däremot uppvisar inget annat beteende än det som programmeraren har programmerat in. Blir datorns responser tillräckligt ändamålsenliga så kan vi säga att programmeringen är intelligent gjord. Men det vore rena animismen att påstå att själva datorn är intelligent i samma mening som en människa kan vara det!

Turings skärm är till för att dölja allt detta, så att man kan säga sig att en människa skulle ha kunnat avge det som var datorns respons som ett riktigt, mänskligt svar. Med hjälp av skärmen ville Turing eliminera alla faktorer i testet vilka han uppfattade som oväsentliga för bedömningen av intelligens. Men i själva verket eliminerade han väsentliga  faktorer och skapar därmed en ny teknisk användning av ordet intelligent som är anpassad till datorers 'beteende'. Turings 'bevis' för datorernas 'intelligens' vilar således på att man är villig att gå på ett rent trolleritrick där innebörden av begreppet intelligens väsentligen förändras.

Det vore emellertid oriktigt att stämpla Turings spekulationer och AI-forskningens förhoppningar kring de 'tänkande datorerna' som humbug. Vi har istället att göra med ett djupgående missförstånd beträffande människans själsliv. Matematikern Turing och hans efterföljare bland dataingenjörerna tenderar att uppfatta mänsklig intelligens (förstånd, tänkande, intuition, osv.) som någonting närmast mystiskt. Utifrån deras outrerat fysikalistiska utgångspunkter ("Vad är en människa annat än ett fysikaliskt system?") framstår förstånd, tänkande och själslivet över huvud taget som ett olöst fysikaliskt  problem. Man ser helt enkelt inte att naturvetenskapen har gränser som är logiskt bestämda av dess metoder och med dem sammanhängande tänkesätt. Därför jobbar man oförtövat vidare på att försöka 'rekonstruera tänkandet' i en maskinkonstruktion (ett datorprogram).

Det var matematikern Turing som skrev sina arbeten om mekanisk kalkylering. Men hans spekulationer om maskinernas förmodade, framtida förmåga att tänka var inte några matematiska arbeten. De var populärvetenskap - med denna genres alla typiska kännemärken: assimilation av tekniska och alldagliga användningar av vissa nyckelord, därav betingad metafysisk trosiver, skolbildning, begreppsförvirring och engagemang i resurskrävande projekt utan mening.

Grunden för spekulationerna kan sammanfattas i två postulat:

(T1) Nervsystemet är väsentligen ett slags datamaskin - detta är den s k datoranalogin för nervsystemet/hjärnan.

(T2) Människans själsliv är fysikaliska processer i nervsystemet, speciellt hjärnan.

Bakom T1 finns föreställningen att de många nätverken av nervceller i nervsystemet bör betraktas som matematiska funktioner vilka avger bestämda utgångsvärden (output) för varje bestämd uppsättning ingångsvärden (input). Eftersom Turingmaskinen i den matematiska teori som Turing hade utarbetat utgör den allmännast tänkbara definitionen av en beräkningsbar funktion gav detta upphov till förställningen att hjärnan borde vara ekvivalent med Turings matematiska maskin. Postulatet T2 kunde därmed också tyckas ge stöd åt tanken att en människas själsliv (tankar, sinnesförnimmelser, känslor, minnen, viljeyttringar, mm) 'egentligen' är hjärnmaskineriets räkneverksamhet (computation).

Utifrån denna utgångspunkt verkar det då kanske inte helt orimligt att tänka sig att det borde gå att skriva program för en dator så att den försågs med åtminstone någon  (mänsklig) psykisk funktion eller förmåga.

Båda postulaten, såväl T1 som T2, har emellertid en högeligen grumlig innebörd. Datoranalogin för nervsystemet, T1, har kritiserats hårt av neurofysiologerna[12] och har i stort sett övergetts av dagens forskning. (Vilket dock inte hindrar att den gång på gång dyker upp i populärvetenskapliga framställningar.) Datormodellen ger helt enkelt en inadekvat bild av nervsystemet vilket är en komplex, levande organism.

Många AI-forskare har av detta skäl övergett T1. Men T2 tycks fortleva tillsammans med mera allmänt formulerade idéer om den själsliga hjärnfysiken som ett slags räknande.

I stället [för datoranalogin för nervsystemet] uppstår insikten att en modell av hjärnans arbete i form av en maskin måste grundas på utomordentligt väl utformade modeller av den mänskliga intelligensen, och hur den bearbetar kunskap, och inte på komponent- eller maskinteorier. (Rothfeder s. 48)

I anslutning till detta utmålar man i allmänhet inte längre 'den tänkande datorn' som en näraliggande verklighet utan som en teknologisk målsättning för framtiden. I detta ligger det då givetvis att man inte ser några principiella hinder varför en dator inte skulle kunna  förses med något slags själsfunktioner.

Ur denna synpunkt utgör Rothfeders "Den tänkande datorn" en intressant populärvetenskaplig läsning. Rothfeder ser nämligen inga djupare (begreppsliga) problem med AI-målsättningen utan tar det helt enkelt för givet att ny, mera avancerad teknologi kommer att klara biffen när man nu har övergett återvändsgränden med datoranalogin för hjärnan (postulatat T1 ovan) och med denna sammanhängande råstyrkeprogrammering.

Detta arbete håller på att frambringa resultat som under nästa decennium kommer att ge expertsystem som kan tala engelska, datorer som kan läsa väldiga mängder information, sammanfatta den och sedan erbjuda strategiska handlingsalternativ ..., översättarsystem som kan erbjuda enkla förklaringar ... (s. 65)

och mycket mer därtill, tror Rothfeder. Man undrar givetvis hur detta skall gå till. Svaret är: 'genom studium av människans heuristiska strategier' (alltså av hennes intuitiva tillvägagångssätt vid problemlösning).

I dag är nästan all forskning och experimentutformning när det gäller artificiell intelligens intimt kopplad till undersökningar av de heuristiska strategier som människor använder sig av (Rothfeder s. 50)

framhåller han. Detta innebär att man försöker undersöka hur levande, förståndiga människor faktiskt går till väga när de löser skilda slags problem. Man försöker skönja 'dataprogrammen i deras strategier'. Man antar således - rättare sagt: tar för givet - att mänskligt själsliv inklusive tänkande på något sätt är computation, alltså räknande, och att metoderna för detta räknande avslöjar sig om man låter människor ge detaljerade redogörelser för hur de försöker ta sig fram genom problemlösningen.

De intressanta och värdefulla resultaten av detta är emellertid inte de datorprogram som konstrueras för att efterhärma människans tillvägagångssätt, utan de som - tack vare strategistudierna - kan användas av dessa människor, som datorstöd  i det ifrågavarande tankearbetet. Att döma av de exempel som Rothfeder anför är det sådana produkter som har börjat kallas intelligenta.

Sådana s k 'expertsystem' kan uppenbarligen vara till stor praktisk nytta och det kan väl knappast råda något tvivel om att den AI-forskning som leder fram till sådant kan vara värd vad den kostar. Talet om att expertsystemen är steg på vägen mot förverkligandet av genuin mänsklig intelligens hos datorerna (AI-projektets målsättning) är emellertid mycket krystat. Man får intrycket att denna överflödiga retorik hänger kvar på grund av ett slags påklistrat pietet gentemot en rättfärdiggörande om än inte alltigenom ärofull tradition.

Det finns redan primitiva datorer som besitter förmåga att ställa medicinska diagnoser och andra som förstår språk och lär sig språk av samtal med människor eller av att läsa texter. Det finns robotar som kan se och urskilja föremål, till och med om de befinner sig i ett komplicerat sceneri eller tillsammans med liknande föremål. (Rothfeder s. 10)

Men sanningen är snarast att sjukvårdspersonal  kan ställa diagnoserna med hjälp av  dessa datorer, att människor  kan använda dem i läs- och skrivarbete och i hanteringen av vissa föremål på arbetsplatserna, till exempel i bilfabriker.

Talet om programmering av mänskliga, heuristiska strategier för också en rad andra konstigheter med sig. Rothfeder säger till exempel att

... det finns en ... kraftfull biprodukt bland intelligensforskningens resultat: AI-forskningen erbjuder oss unika och detaljerade kunskaper om hur det mänskliga intellektet fungerar. (Rothfeder s. 10)

Ty

faktum är att giltigheten hos framväxande teorier rörande intellektet kan analyseras långt snabbare än någonsin genom att man studerar hur teorierna fungerar när det gäller datorer. Trots AI-områdets korta historia har dess bidrag till intelligensforskningen varit betydande. (Rothfeder sid 11)

Nå, men om jag nu på grundval av strategistudier kommer fram till en idé om hur ett expertsystem bör byggas upp för att vara ändamålsenligt, dvs. lättanvänt i en viss tillämpning, så har jag ju inte framställt någon teori om intellektet. Och om det sedan visar sig att mitt system faktiskt blev ändamålsenligt, så innebär ju inte det någon analys av giltigheten hos någon teori om intellektet!

Vad som spökar i Rothfeders och andras uttalanden över detta ämne är fortfarande föreställningen om själslivet som någon sorts räknande. Vi återfinner detta bland annat i den amerikanske lingvisten och politiske debattören Noam Chomskys teori om linguistic performance  dvs. om människans användning av språket i livets konkreta situationer[13].

Chomsky har gjort sig berömd för sina modiga politiska insatser under Vietnamkriget och för sina inlägg i Mellanösterndebatten, och han är också känd för att ha revolutionerat språkvetenskapen med sina teorier om den s k generativa transformationsgrammatiken - en omständighet som gett honom en speciell prestige i det politiska sammanhanget.

Många som beundrar Chomsky för hans politiska ställningstaganden tar för givet att även hans språkteorier måste vara lika aktningsvärda. Och det är också sant att han har berikat lingvistiken genom att tillföra den metoder som har sitt ursprung i den formella (matematiska) logiken - bland annat i vissa av Turings matematiska idéer. Men hans tänkande om språk är också starkt påverkat av Turings mera tvivelaktiga AI-metafysik. Åtminstone sedan mitten av 70-talet har Chomskys tankar om språket därför betraktats med skepsis bland språkvetare, och i dag har han få anhängare inom språkvetenskapen.

Chomsky tar till exempel för givet att språkanvändningen förmedlas av vår språkliga kompetens, vilken han tolkar som en 'internaliserad, generativ grammatik'. När vi uppfattar vad någon säger eller när vi formulerar oss i en språklig utsaga så skulle vi alltså enligt Chomsky omedvetet utföra något slags formalgrammatiska beräkningar med de ifrågavarande utsagorna som resultat. Dessa idéer är förknippade med den populära föreställningen att ett språkligt uttrycks innebörd på något sätt skulle kunna räknas  fram ur dess rent grammatiska konstruktion, oberoende av dess faktiska användning.

Chomsky har feltolkat grammatiken (läran om grammatiskt korrekt meningsbyggnad) som en psykologisk teori[14]. Denna enligt min egen och många andras uppfattning föga rimliga idé har emellertid spelat en avgörande roll för uppkomsten av det nya, AI-forskningen närstående, område som kallas Cognitive Science inom vilket man försöker bygga datormodeller av all  själsverksamhet, alltså inte bara av problemlösning.

Vi ser således hur assimileringen av den teknisk-datalogiska användningen av ord som intelligens mm till den alldagliga användningen av dessa ord, dvs. de användningar vi rör oss med i vardagsspråket, medför att man försöker ersätta den psykologiska forskningen, och till och med språkvetenskapen, med datorforskning. De besynnerligheter som blir följden av detta avfärdar Rothfeder med att

AI-forskningen ... ger sig i kast med sekelgamla tvistefrågor ... med religiösa, filosofiska och teknologiska implikationer beträffande människors likheter och olikheter med maskiner. Men AI-forskarna tror att de snart ska kunna sätta punkt för denna typ av debatt. Deras slutsats är faktiskt att maskiner kommer att bli lika duktiga som människor. (Rothfeder s. 11)

Den 'slutsatsen' är emellertid inte mer övertygande än de rent begreppsliga misstag som den vilar på.

Kraftfulla inlägg mot  AI-vetenskapens psykologiska och filosofiska anspråk men likafullt för en fysikalistisk människouppfattning har på senaste tid framförts av den från kapitlet "Hawkings kosmos" redan bekante Roger Penrose[15]. Penrose tvivlar på AI's möjligheter med hänvisning till vår ofullständiga förståelse av fysikens grundlagar. För Penrose är frågan om själslivets natur således fortfarande ett fysikaliskt  problem!

Likväl är det mitt intryck att AI-debatten på senaste tid har börjat föras i mera sansade former. Den ovan citerade Joseph Weizenbaum är ett exempel. Och ännu ett - ytterst tankeväckande - exempel är Carlos Flores' och Terry Winograds bok "Understanding Computers and Cognition"[16].

Flores, en f d finansminister i Allendes regering i Chile, och Winograd som gjort sig känd för sin enastående AI-forskning vid MIT utgår, i sin kritik av AI, från Heideggers handlingsfilosofiska arbeten, vilket bland annat innebär att de så att säga 'från början' uppfattar datorn som ett redskap för arbete, alltså inte som en potentiellt 'besjälad maskin'. Uppgiften för AI är enligt dessa författare att utforma redskapet på ändamålsenligast möjliga sätt.

Härigenom har såväl Weizenbaum och Penrose som Flores och Winograd brutit mot AI-ideologins oskrivna moralkodex vilken förbjuder allt tal om att maskiner inte skulle kunna tänka. David West och Larry Travis kommenterar denna situation i en artikel nyligen i tidskriften AI Magazine[17]. De efterlyser reflexion och analys och framhåller att "vi anser att insikter av betydande värde kan ernås av en objektiv bedömning av traditionella och alternativa perspektiv."

Jag har givetvis inga invändningar mot detta. Tvärtom måste naturligtvis den reflekterande attityd som efterlyses i artikeln välkomnas, om den skulle infinna sig. Ur synpunkten av den diskussion om populärvetenskapen som förs i den här boken är det intressanta med Wests och Travis artikel det, att den reflekterande inställningen, som borde vara självskriven i alla genuint vetenskapliga sammanhang, måste efterlysas - i en facktidskrift av år 1991!

Detta illustrerar en viktig sida hos populärvetenskapen - den ideologiska. Det ligger ju i populärvetenskapens själva väsen att den skapar begreppsförvirring genom assimilationen av vardagsspråket till teknisk-vetenskapliga språkbruk. En vetenskaplig forskning som har sin utgångspunkt i populärvetenskaplig metafysik - som AI efter Alan Turings idéer har haft - är dömd till ideologisk skolbildning. När så en seriös forskare hamnar i fundamentala tvivel beträffande de logisk-begreppsliga grunderna för sitt arbete är det oundvikligt att han kan komma till slutsatser som utgör 'fel svar' ur skolans ideologiska synpunkt. Detta är vad som tycks ha drabbat Weizenbaum och Winograd[18]. Konsekvensen blir ofelbart akademiska konflikter och, till sist, utstötning.

Forskningsbyråkrati och anslagsgivare i övrigt ser sig tvungna att först och främst lyssna till majoritetsopinionen inom det forskningsområde de betjänar. Detta befäster utstötningen och förvärrar därigenom situationen för de mera allvarligt sinnade forskarna. Och saken blir givetvis bara ännu värre om det ifrågavarande forskningsområdet, i likhet med AI, har ingått i symbios med det - av förre USA-presidenten Lyndon B Johnson så kallade - militärindustriella komplexet och dess tvingande förväntningar på 'smart weapons' och dylikt. Det sätt på vilket besinningsfulla forskare härigenom kan drabbas är ett allvarligt hot mot den seriösa vetenskapen.

På det rent ingenjörstekniska området har AI-forskningen helt uppenbart avsatt många värdefulla produkter och lovar att genom det just nu aktuella arbetet med expertsystem ge viktiga resultat även i framtiden. Något 'mänskligt tänkande' bör vi emellertid inte vänta oss att få se i framtidens datorer, hur länge vi än väntar. Sådant tillhör den faktiskt ganska barnsliga, fysikalistiska metafysik som släpar efter från gångna decennier och som AI-forskningen gjorde bäst i att snarast möjligt försöka skaka av sig. Det skulle frigöra intellektuell energi för vettigare forskningsprojekt.

Pressad på trovärdigheten i sitt program för AI lär Alan Turing en gång ha yttrat:

Men inte desto mindre tror jag att användandet av ord mot slutet av århundradet kommer att ha ändrats så mycket att man kommer att kunna tala om en maskin som tänker utan att förvänta sig att bli motsagd. (Rothfeder sid 39)

I detta har han fått rätt. Ty ingen blir förvånad om två personer framför en datorterminal säger saker med syftning på datorn i stil med följande:

- Oj! Vad gör den nu? Nej det där begrep den tydligen inte!

- Den har bara två megabyte primär, så den är lite trögtänkt.

Och annat liknande.

Att invända mot sådant språkbruk vore naturligtvis bara uttryck för ett idiotiskt pedanteri. I dag talar vi faktiskt om datorerna som om de kunde tänka, veta, minnas, osv.. Det har blivit etablerat språkbruk i datorsammanhang. Och det behöver inte betyda att vi betraktar datorerna som tänkande varelser i djupare mening - som Turing tycks ha trott.

Av ungefär samma skäl bör vi tvivla på MIT-professorn Marvin Minskys berömda ord att "precis som utvecklingsteorin ändrade vår uppfattning om livet, kommer artificiell intelligens att ändra vår uppfattning om intellektet."[19] Utvecklingsteorin har emellertid inte alls ändrat vår uppfattning om Livet, utan om det biologisk-vetenskapliga sättet att bedriva forskning. Vad AI kan ändra på är på motsvarande sätt inte vår uppfattning om intellektet utan vår syn på redskapen för att använda det.

Om någonting borde ändras så är det den stupida människouppfattning som en gång motiverade Turings populärvetenskapliga spekulationer och som Minsky och hans meningsfränder nu för vidare.


 



[1] En utförlig undersökning av de begreppsliga svårigheterna i anslutning till ordet intelligens, i AI och annars, ges av Sören Stenlund i Language and Philosophical Problems, s. 1 - 54.

[2] Rörelsen anses ha uppstått vid en konferens år 1956 i Dartmouth, USA.

[3] Ej att förväxla med kaosforskaren Mitchel Feigenbaum som berördes i kapitlet om kaos.

[4] Med undertiteln Artificial Intelligence and Japan's Computer Challenge to the World, Pan Books Ltd, 1984, s. 31.

[5] The Wealth of Nations  är titeln på Adam Smiths berömda pionjärarbete i nationalekonomin 1776. Smith betraktas av många som marknadsekonomins andlige fader.

[6] I Minds over Matter  i svensk översättning av Carl G Liungman med titeln "Den tänkande datorn. Människan och artificiell intelligens - AI", Bonniers 1986.

[7] Turings idéer torde ha utgjort en viktig inspirationskälla för Dartmouth-konferensen 1957.

[8] Alan Turing On computable numbers, with an application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, ser. 2, vol. 42, 1936 - 7, s. 230 - 265. Se även S C Kleene, Introduction to Metamathematics, kap XIII, North-Holland 1964.

[9] Ett primtal är ett naturligt tal som är jämnt delbart bara med 1 och med sig självt, till exempel 2, 3, 5, 7, 11, ... osv. Ett naturligt tal är ett tal i serien 0, 1, 2, 3, ... osv. Det finns ingen enkel formel för direkt framräkning av primtal.

[10] Citerat efter Rothfeder op cit, sid 39 - 40. Se också J. Weizenbaum Computer Power an Human Reason, Freeman, San Francisco 1976

[11] S Stenlund  op. cit., sid 30 - 36.

[12] Rothfeder, op cit, ger en ganska utförlig redogörelse för denna debatt, s. 41 - 48.

[13] N Chomsky Aspects of the Theory of Syntax, MIT Press 1965.

[14] Detaljerade argument för denna ståndpunkt redovisas i min Empiricism and Universal Grammar in Chomsky's Work, s. 254 - 268 i Larry Hyman och Charles Li (utg) Language, Speech and Mind, Studies in Honour of Victoria Fromkin, Routledge 1988.

[15] I en ambitiöst upplagd, populärvetenskaplig bok med titeln The Emperor's New Mind: Concerning Computers, Minds and the Laws of Physics, Oxford University Press 1989, även i Vintage Paperbacks 1990.

[16] Med undertiteln A New Foundation for Design, Ablex Publishing Corporation, 1986.

[17] The Computational Metaphor and Artificial Intelligence: A Reflective Examination of a Theoretical Falsework, Vol 12, No 1, 1991, s. 64 - 79.

[18] West och Travis op cit.

[19] Rothfeder s. 233.