Hjem Op

 

Kognition -
computerprogrammeret, netværkserfaret eller handlingsfrembragt?


Ib Ravn

Tre paradigmer for forståelse af mennesket kognition præsenteres.
1. Kognitionsforskningen ser hjernen som en computer, der behandler information sekventielt. 2. Forskningen i neurale netværk betragter kognition som et resultat af en netværk af samtidige, distribuerede processer. 3. Biologen Francisco Varela anskuer kognition som udspringende af kropens handlen i verden, "embodied enactment". 4. Jeg anslår afslutningvist et fjerde perspektiv med emner der overses i de tre andre: emotionalitet, værdier, mening.

Trykt i Litteratur & Samfund, nr. 47-48, s. 6-21, november 1992, i temanummer om "Kognition og ånd"

 

Indledning

Hvis en god gammeldags humanist med næsen i arkiverne fik stukket en bog om Kognitionsforskning (Cognitive Science) i hånden, ville den formentlig ikke vække megen interesse. Læseren møder her et batteri af småkedelige udtryk der lyder som om de kommer fra en computermanual: informationsprocessering, programmer, input-output, symbolmanipulering, mentale repræsentationer, etc. Der findes ikke mange af de traditionelle humaniorabegreber: fortolkning, erfaring, oplevelse, praksis, kontekst, kultur, livsverden, historie, moral, osv.

Og alligevel tiltrækkes humanister i stigende grad af Kognitionsforskningen - mest psykologer, men også filosoffer, lingvister og antropologer. Hvorfor denne interesse for en disciplin, hvis kongstanke er at den menneskelige bevidsthed fungerer som en computer? En stor del af årsagen ligger nok i at Kognitionsforskningen med sin fundering i computerteknologi giver løfte om en videnskabelighed, som mange "bløde" humanister hungrer efter. Teksten i enhver lærebog i Kognitionsforskning ser jo også rasende videnskabelig ud, med symbolsk notation og nummererede hypoteser og blokdiagrammer og feedbackkredsløb og sager.

I denne lighed med mere eksakte videnskabers imposante udstyr ligger Kognitionsforskningens lokkende charme - og dens svaghed. For i forsøget på at etablere studiet at kognition som en "rigtig" videnskab har Kognitionsforskerne klynget sig til en rationalistisk forestiling om kognition som abstrakt - dvs. regelbundet, kontekstfri, historieløs, kropsløs - på trods af at denne forestilling allerede var stærkt flosset i kanterne da den blev taget i brug af Kognitionsforskerne i midten af dette århundrede.

I denne artikel præsenteres Kognitionsforskningen og to nyere kritikker af den. Den første kritik kommer fra den hastigt fremadskridende forskning i neurale netværk, som peger på at kognition ikke følger abstrakte regler men er baseret på konkret erfaring. Den anden kritik skyldes biologen Francisco Varela, der med bagrund i studier af visuel perception og immunfunktion hævder at kognition er uløseligt knyttet til menneskers historisk bestemte handlinger og derfor ikke kan forstås uafhængigt af kontekst og kultur.

 

Bevidstheden: En smart maskine

Kognitionsforskningen opstod i USA i 1950'erne som oprør mod den herskende behaviorisme, der benægtede at der skulle ske noget interessant mellem ørerne på folk.1 Videnskabelig psykologi var at undersøge ydre, objektiv adfærd - "mind" og tænkning og sjæl og den slags var uvidenskabelige begreber, sagde de mekanistiske behaviorister.

Opfindelsen af computeren i 1940'erne gav anti-behavioristerne krudt til oprøret, idet computeren jo er en maskine (og altså derfor noget der kunne undersøges videnskabeligt) der har noget mellem ørerne: programmer. Hvis vi opfatter menneskets hjerne som en computer, så kan kognition (tankeprocesser) være en slags afkøring af intellektets eller bevidsthedens programmer. Hvor behavioristerne opfattede mennesket som en dum maskine der modtager stimuli og afgiver responser, dér kan vi nu med computermetaforen forstå mennesket som en smart maskine, der modtager inputs, behandler (processerer) dem og omdanner dem til intelligente outputs. Der er altså skudt en kognitiv instans ind mellem input og output, dvs. programmet.

Ved hjælp af forestillingen om tænkning som programkørsel fik de tidlige Kognitionsforskere legitimeret "mind" og kognition som videnskabeligt salonfæhige fænomener, idet den nyeste teknologi, computeren, jo benyttede sig heraf. Denne strategi genoplivede samtidig den rationalistiske tradition, ifølge hvilken ratio, fornuften (altså nu: programmet) er adskilt fra den sanselige verden og svæver i sit eget ophøjede domæne: Descartes' verden af "tænkende ting" (res cogitans, "mind"), som står over for de "udstrakte ting" (res extensa, materien).

Denne rationalisme findes eksplicit hos f.eks. Noam Chomsky, der hævder at der eksisterer et "dybt" lag af medfødte sprogregler (læs: program) for hvordan korrekte sætninger dannes. At udtrykke sig sprogligt er ikke bare et spørgsmål om at kæde stimuli og responser sammen som perler på en snor, som behavioristerne mente; der ligger en rational orden og systematik bag sprogevnen. Der er lingvistikkens opgave at finde og formulere disse regler - dette program - der ligger på et dybere og mere abstrakt plan end det talte og skrevne sprogs konkrete fremtrædelsesplan.

Hvad er et program? Det er en trinvist opbygget forskrift for hvad man skal gøre med et givet input for at lave et korrekt output, som f.eks. en madopskrift: Kombinér ingredienserne (input) på denne måde og i denne rækkefølge og få en middag ud af det (output).

Programmer var helt centrale for den klassiske computer, som blev udviklet i 1940'erne af bl.a. matematikeren John von Neumann. Von Neumann-computeren, som typen også kaldes, kendes fra alle nutidens PC'ere. Den er delt i en lagerenhed, hvor information opbevares i form af ja-nej-bits på disketter, harddisks e.l., og en beregningsenhed (en chip), som forestår informationsbehandlingen (derudover er der også input- og outputflader: tastatur hhv. skærm/printer).

Et computerprogram er en lang liste med instrukser til beregningsenheden om at den skal hente information eet sted og kombinere den med information fra et andet sted og sende det et tredje sted hen osv., i en nøje fastlagt rækkefølge. Et program er altså et sæt regler for hvorledes et system finder frem til det rigtige output ved at kombinere videnselementer på rette måde. Disse videnselementer befinder sig på ganske bestemte steder i et passivt lager, hvor de venter på at blive aktiveret af et program.

Videnselementerne er afbildninger eller repræsentationer af den ydre virkelighed. Ude i virkeligheden er der en genstand, og inde i computeren findes der en repræsentation af eller et symbol for denne genstand. Således måtte det også forholde sig med menneskets forhold til verden. Neurofysiologerne David Hübel og Torsten Wiesel2 fandt således at bestemte nerveceller reagerer på bestemte typer stimuli, f.eks. streger af forskellig tykkelse og orientering. En tynd streg repræsenteres eller symboliseres af fyringer i een celle og en tyk streg af fyringer i en anden celle. Forskellige celler repræsenterer eller symboliserer forskellige træk ved den ydre virkelighed.

Denne repræsentationisme er et ekko af den kartesiske rationalisme, som ser viden som en fikseret og passiv afspejling af den ydre virkelighed. Jo bedre afbildningen dækker verden uden for hovdet, jo mere korrekt er denne viden.

Med til rationalismen hører også formallogikken. Her indgår videnselementerne (facts) som passivt byggemateriale, der ved hjælp af slutningsregler kædes sammen til ræsonnementer, f.eks. syllogismen: Hvis A og B gælder, så følger C. Logikken er et symbol- eller formsprog der ser hen over sætningers substans og indhold og kun beskæftiger sig med deres form. Heri ligner logikken det von-Neumann'ske computerprogram, der også er et sæt abstrakte regler som opererer ens på forskelligt vidensindhold.

En kolossal forskningsdisciplin er vokset op omkring forsøget på at bruge sådanne abstrakte regler og logik til at efterligne den menneskelige intelligens: Kunstig Intelligens (KI).3 Nedenfor vil vi se at KI er gerådet i svare vanskeligheder på grund af dette udgangspunkt i en abstrakt logik.

Både tænkningens programmer og lageret af videnselementer hører hjemme på et "repræsentationsniveau" mellem dét biologiske niveau, som udgøres af hjernens materie, og dét kulturelle og fænomenologiske (oplevelsesmæssige) niveau, som det menneskets tænkning indgår i. Den udstrakte brug af computeren som model for kognition er netop kun mulig hvis man forudsætter et sådant niveau, for computere har, til forskel fra mennesker, jo hverken nogen biologi (krop) eller nogen kultur. Gardner4 udpeger da også troen på dette separate repræsentationsniveau som centralt for Kognitionsforskningen, hvis udøvere erklærer sig ganske uinteresserede i hvad der foregår på de to andre niveauer. Som vi skal se om et øjeblik er dette et hovedangrebspunkt for kritikere af Kognitionsforskningen.

Kognitionsforskningens forkærlighed for det kropsløse og a-kulturelle intellekt forstærkes af dens videnskabelige metoder, som er baseret på det kontrollerede eksperiment. Her anstilles en problemsituation som forsøgspersonen skal tackle (genkende ord på en skærm, løse opgaver e.l.) og som udelukker alle "irrelevante" variable. Alt er veldefineret og taget ud af komplicerende sammenhænge. Hvad forsøgspersonen foretager sig i denne dekontekstualiserede kunstverden generaliseres nu til at gælde for mennesket som sådan.

Her må jeg indskyde at Kognitionsforskere af i dag formentlig vil opfatte min fremstilling som noget karikeret. Jeg medgiver gerne, at den er lidt hårdt trukket op. Det er f.eks. de færreste forskere i Cognitive Science i dag der ser deres indsats som specielt afhængig af det metaforiske udgangspunkt i von Neumann-computeren, og de vil hævde at Kognitionsforskningen har trukket på andre typer computere og helt andre modeller. Således afviste f.eks. Ulric Neisser allerede i 1967 i en indflydelsesrig lærebog i kognitiv psykologi programmetaforen.5

Men for overhovedet at fatte hvad der er det særlige ved Kognitionsforskningen må man forstå dens historie og traditionelle forkærlighed for von Neumann-computeren som model for menneskets intelligens. De vage definitioner af feltet som dets egne udøvede stikker ud - f.eks. "The study of the principles by which intelligent entities interact with their environments"6 - kan jo betyde hvad som helst, og man får ikke nogen reel fornemmelse for feltets særlige kendetegn, endsige dets svagheder. Og det er jo sidstnævnte der er vores særlige ærinde i denne artikel.

 

Neurale netværk: Computere der lærer af erfaringen

Siden begyndelsen af 1980'erne er der sket en eksplosiv udvikling i studiet af et bestemt alternativ til von Neumann-computeren: det neurale netværk.7 Von Neumann-computeren og det neurale netværk lå side om side på tegnebordet hos forskerne i 1940'erne. Hvorfor det computeren sejrede mens netværket blev skubbet helt ud i kulden, er en spændende forskningspolitisk historie man kan læse om andetsteds.8

Ved et neuralt netværk forstås både det netværk af nerveceller, der udgør nervesystemet hos dyr og mennesker, og en model heraf, som kan bruges som en computer (sommetider kaldet en neurocomputer). Her vil vi primært tale om disse sidstnævnte kunstige neurale netværk.

Et sådant netværk er opbygget helt anderledes end en von Neumann-computer. Denne anderledes "arkitektur", som computerfolk kalder det, medfører at diverse processer i det neurale netværk forløber på radikalt anderledes måder, hvilket har givet psykologisk interesserede netværksforskere anledning til at se med friske øjne på menneskers kognition, viden, sprogevne osv.

Et neuralt netværk består af et antal regneelementer eller "neuroner" som er tæt forbundet indbyrdes. Disse forbindelser kaldes "konnektioner", hvilket har givet forskningsfeltet dets andet navn: konnektionisme. Hver neuron er f.eks. forbundet med halvdelen af netværkets neuroner. Til sammenligning ligger regneelementerne i von Neumann-computeren stort set på række og er derfor kun er forbundet med ganske få andre.

Netværkets neuroner er typisk grupperet i et inputlag, et eller flere mellemlag, og et outputlag. Informationsbehandlingen sker ved at man stiller netværket et spørgsmål. Dette gør man ved at aktivere inputlagets neuroner samtidigt, dvs. man sender en forskellig mængde strøm igennem hver af dem. Denne aktivitet spreder sig gennem de mangfoldige konnektioner ud i hele netværket. Hver konnektion lader en bestemt procentdel af strømmen komme igennem, bestemt af hvilken "vægt" konnektionen har.

Den indkommende information (mønstret af elektriske strømme) afvejes på denne måde mod den information, der i form af vægtenes forskellige størrelser allerede befinder sig i netværket. Denne proces fremkalder et bestemt aktivitetsmønster i outputlagets neuroner, og dette aktivitetsmønster fortolker man som svaret på det spørgsmål, der blev kodet ind i inputlaget.

Det neurale netværk har altså ingen central beregningsenhed, der styrer informationsbehandlingen, og den har derfor ingen brug for et program til at koordinere processen. Informationsbehandlingen foregår parallelt i alle konnektioner samtidigt, mens styringenheden i von Neumann-computeren udfører beregningerne serielt, een efter een.

Men hvordan finder netværket ud af at svare rigtigt på de opgivne spørgsmål, hvis der ikke er noget program der fortæller det, hvordan det skal gøres? Et netværk programmeres ikke, det trænes eller oplæres. Det udsættes for en mængde eksempler på spørgsmål med dertil hørende rigtige svar, et såkaldt træningssæt. Det første svar som et utrænet netværk giver på et spørgsmål er altid forkert. Derfor har netværkets konstruktør indlagt en fejlretningsalgoritme, som for hvert forkert svar sørger for at der ændres lidt på alle konnektionernes vægte. Dette medfører at næste gang netværket præsenteres for samme spørgsmål vil den indkommende information (strømmen) bearbejdes lidt anderledes og en anden fordeling af strømmen vil nå frem til outputlaget og frembringe et lidt bedre svar. Sådan fortsættes indtil et godt nok svar gives på alle træningssættets spørgsmål.

Information om de rigtige svar på alle spørgsmålene er nu lagret i netværket, nærmere bestemt i konnektionsvægtene som leder strøm fra et givet input igennem netværket på en sådan måde at det rigtige outputmønster dannes. Hvor information lagres "lokalt" i von Neumann-computeren, med hver bit på en bestemt addresse, dér spredes eller distribueres erindringerne i det neurale netværk ud over alle konnektionerne: Samtlige vægte bidrager til hvert svar. Både hukommelse og informationsbehandling (= kognition) er altså globale eller holistiske egenskaber ved hele netværket.

Det bemærkelsesværdige er nu, at netværket ud fra denne træning eller "erfaring" lærer sig at generalisere ud over træningseksemplerne. Giver man det eksempler på et håndskrevet "a" fra hundrede forskellige mennesker og lige så mange eksempler på et "b" vil det lære sig hvad der er karakteristisk for disse bogstaver og vil så være i stand til at genkende dem og skelne dem fra hinanden i tusindvis af nye håndskrifter.

Hermed er et gigantisk problem i Kunstig Intelligens løst. Man har aldrig rigtig kunne programmere skriftgenkendelse (eller generelt, mønstergenkendelse), for hvordan beskriver man helt præcist i et program hvad der generelt kendetegner et håndskrevet "a", givet de utallige måder folk skriver dette bogstav på? Dette problem er man ude over med et neuralt netværk, som bare skal have en masse eksempler forevist. Det behøver ingen generelle pricipper og abstrakte regler. Netværkets intelligens (evne til forbinde det rigtige output med et givet input) er baseret på konkrete erfaringer med et bestemt materiale, f.eks. 100 menneskers håndskrifter; det følger ikke en abstrakt, regelbundet logik.

Indlæringsprocesser er altid blevet lidt stedmoderligt behandlet i de kredse hvor von Neumann-computeren og programmetaforen rådede. I modsætning hertil falder det netværket helt naturligt at lære gennem eksempler, dvs. erfaring. David Rumelhart og James McClelland9 satte et netværk til at lære datidsformer af engelske verber ved at give netværket en mængde eksempler på spørgsmål (input, f.eks. "love", "bring") med de rigtige svar (output, "loved", "brought"), altså både regelmæssige og uregelmæssige verber.

Det viste sig overraskende at den måde på hvilken netværket gradvist lærte at generalisere ud over træningseksemplerne, mindede om den måde som et barn lærer datidsendelser på. F.eks. er der en fase hvor børn tilføjer den regelmæssige endelse "-ed" til uregelmæssige verber, f.eks bliver datid for "go" til "goed". Dette efterfølges af en periode med overregularisering, hvor "went" bliver til "wented". Netværket gennemløb under træningen de samme faser, indtil det efterhånden fik lært sig de korrekte datidsformer.10

Dette og mange andre eksempler på neurale netværk som simulerer kognitive processer på en yderst menneskelignende måde har givet konnektionister anledning til at kritisere den von Neumann- og programbaserede Kognitionsforskning.11 Denne kritik retter sig bl.a. mod Kognitionsforskningens udeladelse af både det biologiske og det fænomenologiske niveau.

Hvad angår det biologiske niveau kan man anføre at Kognitionsforskningens manglende interesse i det medium, som kognition foregår i (hjernen), er udtryk for følgende efterrationalisering. Da "smarte" maskiner blev opfundet i 1940'erne og 50'erne syntes mange computerfolk og psykologer (de kommende Kognitionsforskere) at det var oplagt at bruge dem som modeller for menneskelig kognition. Men desværre lignede deres hardware overhovedet ikke menneskets: vi har ikke en central styringsenhed som er adskilt fra et lager, vore nerveceller er tæt forbundet, de ligger ikke pænt på række som radiorør, erindringer har ikke præcise adresser i hjernen osv.

Altså: skulle man bruge von Neumann-computeren til at forstå menneskelig kognition blev man nødt til at hævde at hjernens konkrete biologi er irrelevant for hvorledes kognitionen fungerer, og at det er abstrakte, legemsfrigjorte, logiske principper der gælder. Heraf fødtes "funktionalismen" i kognitiv psykologi, som hævder at kun funktioner (processer og deres principper), og ikke deres realisering i tilfældigt hardware (hjerne eller computer), er vigtigt i forståelsen af kognition.

Konnektionismen gør op med funktionalismen og påpeger at man udmærket kan have en biologisk plausibel model der også er intelligent12 - og endda på områder hvor den klassiske computer er helt ueffen: mønstergenkendelse, sprogevne, indlæring, distribueret hukommelse, parallel informationsbehandling og meget mere. 13

Hvad angår det fænomenologiske niveau har en fremtrædende kritiker af Kunstig Intelligens (der som nævnt er Kognitionsforskningens forlængede arm blandt computerfolk), filosoffen Hubert Dreyfus, henvist til neurale netværk som en mulig "non-von"-forklaring på menneskelig intelligens. Han har i over 25 år kritiseret KI for uafvidende at benytte sig af den kartesiske repræsentationisme, der ser subjektet som stående uden for og over objektet, med viden defineret som en statisk afbildning af den ydre virkelighed og intelligens som afkørsel af logikprogrammer. 14

Dreyfus har i stedet med Heidegger i hånd hævdet at det særlige ved intelligensen ligger i menneskets forankring i sociale sammenhænge, en kontekst, en praktisk og konkret levet verden. Vi handler intelligent ikke fordi vi deducerer os frem til rigtige responser ud fra abstrakte, logiske regler, men fordi vi har en mangeårig erfaring med tusinder af konkrete situationer. Når vi handler intelligent, er det simpelt hen fordi vi gør dét der virkede sidste gang vi var i en lignende situation. Vi har lært af erfaringen.

Indtil for få år siden havde Dreyfus ikke noget godt svar på hvorledes hjernen kan huske tusindvis af konkrete eksempler og handle adækvat derudfra. Men det har han nu, for det er netop den måde et neuralt netværk fungerer på. 15 Dreyfus mener at hermed ser det ud til at psykologien måske slet ikke har brug for det repræsentationsniveau mellem det biologiske og det fænomenologiske, som har været KIs og Kognitionsforskningens kongstanke og eksistensberettigelse. 16

Andre filosoffer har ladet sig inspirere af konnektionismen til at gøre op med "folkepsykologiske" begreber på det symbolske repræsentationsniveau. 17 Videnskabsjournalisten Jeremy Campbell18 påpeger at i et konnektionistisk perspektiv er hukommelse og viden ikke dét passive lager det er i von Neumann-computeren. Inputstrømmen i netværket mødes af den lagrede information (vægtene), som forsøger at presse den indkommende information ind i et af de globale vægtmønstre, som udgør erindringer. Perception er ikke bare en aflejring af rå information, men en aktivt formende proces, hvor stimuli udefra bearbejdes af den i netværket forefindende information. Først i mødet mellem input og hukommelse opstår der betydning eller mening.

"Netværket er et hermeneutisk system", siger Campbell. Det vil sige det er et betydningsskabende system, hvor kognition (eller tænkning) ikke er væsensforskellig fra perception og genkendelse, fordi det altsammen foregår i den samme proces af neural aktivitet der ledes i bestemte baner af dynamiske konnektionsvægte. Tænkning følger ikke logiske, præprogrammerede slutningsregler, men er måske snarere en form for perception eller mønstergenkendelse, en "intuitiv" fornemmelse af meningsfyldte helheder.

 

Varela: Kognition må forstås ud fra evolution og historie

Konnektionismen er blevet kritiseret "bagfra", af von Neumann-tro Kognitionsforskere og KI-folk, 19 og den er blevet kritiseret "fra siden" af mere traditionelle hjerneforskere, der finder netværksmodellerne overidealiserede. Men den er også blevet kritiseret "forfra", dvs. karakteriseret som et skridt i den rigtige retning, men ikke et langt nok skridt fremad.

Den chilenske biolog Francisco Varela står for denne kritik. Han er et dansk publikum bekendt fra bogen "Kundskabens træ"20, skrevet med læremesteren Humberto Maturana. Heri udviklede de et perspektiv på den menneskelige erkendelses biologiske rødder, som Varela sidenhen har anvendt i en kritik af både Kognitionsforskningen og konnektionismen. 21 Det er et perspektiv der i endnu højere grad inddrager både biologiske og det fænomenologiske niveau end konnektionismen gør det.

Varela peger på at neurale netværk kun fungerer i situationer der er lige så kunstige og idealiserede som de eksperimenter Kognitionsforskere anstiller. Et netværk skal stilles en veldefineret opgave, som løses i isolation fra resten af verden. Det skal under træningen mades med en række spørgsmål der alle har præcise svar, dvs. der skal være en instans (en træner) der har defineret visse spørgsmål som sande og andre som falske.

I modsætning hertil befinder rigtige organismer (f.eks. mennesker) sig altid midt i en flydende og diffus verden, hvor man kun sjældent bliver præsenteret for klart definerede opgaver. Lige så sjældent findes der en træner til at guide een igennem livets daglige udfordringer ved at bestemme entydigt rigtige svar på givne spørgsmål.

Et neuralt netværk har ligesom en klassisk computer nøje definerede input- og outputflader, samt et indre lager af information. Et godt svar på et stillet spørgsmål er også i konnektionismen et svar der trofast afspejler en ydre tingenes tilstand. Denne model indebærer en alt for stor afstand mellem organisme og omverden, mener Varela. Vi står stadig med det kartesiske svælg mellem subjekt og objekt.

For at komme om ved den kunstige problemløsningssituation med det abstrakte kartesiske intellekt foreslår Varela at man tager udgangspunkt i organismens (menneskets) evolutionære og historiske forbundethed med verden; dvs. dét faktum at vi hver især har en artsmæssig såvel som en individuel historie der har gjort os til dét, vi er. Vi er blevet til og vokset frem i en verden og kan ikke forstås uafhængigt af denne. Vores kognition er derfor udtryk for vor væren og handlinger i verden og kan ikke betragtes som løsrevet fra denne, højt hævet over den i et fornuftens abstrakte domæne. Skal man forstå kognition skal man inddrage evolution og historie - hele den tidslige dimension som ignoreres i Kognitionsforskningen og som ifølge Varela ikke tages tilstrækkeligt alvorligt i konnektionismen.

Som støtte for dette argument trækker Varela på sine studier af immunsystemet.22 Immunsystemet er kognitivt i den forstand at det genkender indtrængende antigener som fremmede for organismen. Hvordan forklarer man dets evne til at genkende millioner og atter millioner af nye antigener og producere antistoffer der passer til dem? Ikke ved at hævde at immunsystemet har et lager af repræsentationer af den ydre virkelighed, men ved at anskue organismen evolutionært. Det er i et samspil med miljøet at netop denne evne er vokset i organismen i løbet af evolutionen, og det er denne kobling med omgivelserne der giver organismen dens kognitive evne.

Tilsvarende kan menneskets farveoplevelse ikke forklares ved at den ydre virkelighed "besidder" bestemte farver, for det er ikke tilfældet. 23 Vor oplevelse af en given genstands farve er ikke entydigt bestemt af bølgelængden i det reflekterede lys, som man hidtil har ment, men er resultatet af en kompleks neural proces hvori indgår både lysinformation fra genstandens umiddelbare omgivelser samt visse indre forventninger om hvilken farve genstanden burde have. Disse forventningerer er kulturelt bestemte og derfor ligeså meget et produkt af en historisk kobling mellem en organisme og dets miljø som immunsystemets kognitive evner er det.

Dette ses blandt andet også af, at menneskets farvesans forudsætter tre primærfarver, mens fuglenes opererer med fire. Farver er ikke givet i en ydre virkelighed, men opstår som resultat af en dynamisk forbundethed mellem organismer og miljø (om denne dynamik så er biologisk og hedder evolution eller kulturel og hedder historie).

I løbet af evolutionen og historien opstår der regelmæssigheder i forholdet mellem organisme og miljø og mellem organismer indbyrdes. Det er disse regelmæssigheder der definerer (biologisk) liv og kultur. Man kan trække dem ud af deres evolutionære og historiske sammenhænge og placere halvdelen af dem i en ydre virkelighed og kalde dem naturlove eller facts og placere den anden halvdel inde i organismernes hoveder og kalde dem mentale repræsentationer. Men dette er og bliver en abstraktion og en forsimpling. Tidsligheden og det levendes forbundethed går tabt og rationalismens statiske figurer står tilbage.

I stedet for rationalismens subjekt der står over for et passivt objekt lægger Varela altså vægt på det tidslige, på udvikling, dynamik og aktiv handling. Forholdet mellem menneske og verden er ikke statisk og givet, men realiseres løbende i de handlinger mennesker foretager. Vores verden "bringes frem" ("is brought forth", som Varela udtrykker det) gennem vores aktive deltagen i de historiske situationer vi befinder os i. Derfor kalder Varela sit perspektiv "enactment", som nærmest må oversættes det "at realisere gennem aktivitet eller handling": "Through enactment we bring forth a world", ville Varela udtrykke sig.24

Med skiftet fra en tidløst fikseret verden til een der er "bragt frem" historisk kan intelligens og kognition ikke længere forstås som informationsbehandling og problemløsning i kunstige statiske eksperimenter, men må forstås som evnen til at deltage i en ægte, meningsbåret fællesverden. Varela siger:

Cognitive capacities are inextricably linked to a history that is lived, much like a path that does not exist but is laid down in walking.... Since representations no longer play a central role, intelligence has shifted from being the capacity to solve a problem to the capacity to enter into a shared world.... A cognitive system is functioning properly... [when] it becomes part of an existing ongoing world of meaning (as the young of every species does) or shapes a new one (as it happens in evolutionary history) [udhævning tilføjet].25

Denne betoning af en "shared world", dvs. kulturel "meaning" og baggrundsviden, som basis for en forståelse af kognition udbygges i en mere humanistisk pendant til Varelas biologisk funderede kritik af Kognitionsforskningen. Terry Winograd og Fernando Flores sammenfører i deres meget anbefalelsesværdige bog "Understanding Computers and Cognition"26 tre forskellige traditioner: Maturanas biologi (udarbejdet sammen med Varela), fænomenologien og hermenuetikken hos Heidegger og Gadamer, samt Austins talehandlingsteori.

Fra denne tilsyneladende umage mikstur brygger Winograd og Flores en forståelse af kognition som historisk og kontekstuelt betinget, en forståelse der understreger betydningen af uudtalt baggrundsviden, erfaring og konkret situationskendskab, alt sammen egenskaber der ingen plads har fundet i den von-Neumannske Kognitionsforskning. Winograd hører i øvrigt med i samme kreds af fænomenologisk orienterede KI-kritikere som Hubert Dreyfus.

 

Mennesket hinsides computere, konnektionisme og Varela

Varela og hans medforfattere indleder deres kritik med et diagram med tre koncentriske cirkler: den inderste er Kognitionsforskningen ("cognitivism"), den næste er konnektionismen, og den yderste er "enactment"-perspektivet. I den inderste befinder sig bl.a. Chomsky, Fodor, Herbert Simon og Hubel & Wiesel. I den konnektionistiske cirkel har vi Rumelhart, Douglas Hofstadter og Daniel Dennett m.fl. I den yderste cirkel findes Varela selv og dem han opfatter som sine ligesindede: Winograd og Flores, Dreyfus, Richard Rorty, Piaget (!), John Searle og andre.

Kardinalpunktet i Varelas kritik af både Kognitionsforskning og konnektionisme er, at begge anvender sig af computerarkitektur til udlede grandiose konklusioner om menneskets kognition. Det er sandt - men den samme type anklage kan fremføres mod Varela. I stedet for at føre bevidstheden tilbage til teknologi fører han den tilbage til biologi. Der er i begge tilfælde tale om en henvisning til lavere kompleksitetsniveauer, dvs. en reduktion af humane fænomener til mekaniske eller biologiske.

Ligesom Dreyfus og Campbell gør brug af de neurale netværk (lavt kompleksitetsniveau) til at understøtte deres smukt humanistiske fænomenologi (højt niveau), således gør også Varela god brug af argumenter fra evolution, immunologi og visuel perception til at argumentere for kognition som udspringende af menneskelig handling og historie. Men, kan man lige god ret hævde, der er i begge tilfælde tale om at der fra lav-niveau-systemer hentes argumenter til et forsvar for bestemte høj-niveau-filosofier.

Varelas strategi er acceptabel i den forstand, at der jo på en eller anden måde skal skabes sammenhæng i vores forståelse af biologi og kultur, idet vi mennesker immerhen er rundet af vor biologiske grundlag og fortid (dette argument ikke kan komme Kognitionsforskningen til gode, da der jo næppe er nogen lige linje fra computer til menneske, og det kan kun komme konnektionismen til gode i det omfang neurale netværk er biologisk plausible). Men denne strategi er i det lange løb utilfredsstillende, fordi fænomener der er unikt menneskelige kun bliver bragt under behandling i den udstrækning forløbere for dem kan spores i dé lav-niveau-systemer man har som sin primære interesse. Findes der overhovedet ikke antydning af fænomen X i von-Neumann-computerne, netværket eller immunsystemet, ja så er chancen for at Fodor, Dreyfus og Varela vier det deres opmærksomhed tilsvarende ringe.

Blandt sådanne X'er kan nævnes en del som humanistiske forskere er eller burde være professionelt interesserede i: sociale relationer, moral og værdier, emotionalitet, kærlighed, fremmedgørelse/meningsfyldthed, tilværelsens tydning, religiøsitet og så videre. Alle er de ret "uvidenskabelige" X'er, og man kan spørge om det skal være en endog udvidet kognitionsforsknings (med lille k) opgave at undersøge disse fænomener. Umiddelbart kan man fristes til at sige nej, men da en kognitionsforskning der definerer sig som det videnskabelig studium af menneskets bevidsthedsfunktioner jo i kraft af videnskabernes generelle anseelse i samfundet synliggør og legitimerer de valgte studieobjekter, er det også dens ansvar at inddrage slige uomtvisteligt vigtige høj-niveau-fænomener og bidrage til at give dem den status og legitimitet de fortjener. Betragtet fra dette højere omdrejningspunkts større forventninger lader selv ellers så fortrinlige anti-kognitivister som Dreyfus og Varela en del tilbage at ønske.27

 

Noter og litteratur

1. Kognitionsforskningens historie (med vægt på amerikanske forhold) berettes loyalt i Howard Gardner: The Mind's New Science. New York: Basic Books, 1985. En kortere fortrinlig oversigt er Eckart Scheerer: "Towards a History of Cognitive Science", International Social Science Journal, nr. 115, s. 7-19, februar 1988.

2. Se deres oversigtsartikel: D. H. Hübel & T. N. Wiesel: "Brain Mechanisms of Vision", Scientific American, vol. 241, s. 150-162, 1979.

3. Et særnummer af Paradigma, årg. 3, nr. 3, juni 1989, beskæftiger sig kritisk med Kunstig Intelligens.

4. The Mind's New Science, s. 6 og 38.

5. Ulric Neisser: Cognitive Psychology. New York: Appleton-Century-Crofts. Se Gardner: The Mind's New Science, s. 33.

6. Zenon W. Pylyshyn: "Information Science: Its Roots and Relations as Viewed from the Perspective of Cognitive Science". I: F. Machlup & U. Mansfield (red.): The Study of Information: Interdisciplinary Messages. New York: Wiley, 1983.

7. En kompakt introduktion til feltet findes i Ib Ravn: "Neurale netværk", Paradigma, nr. 3, årg. 3, s. 36-46, 1989, samt endnu kortere af samme i Politikens kronik, 26.1.89. Søren Brunak & Benny Lautrups lille underholdende bog: Neurale netværk: Computere med intuition. Nysyn/Munksgaard, 1988, behandler desuden grundlæggende informations- og computerteori. Feltets bibel er D. E. Rumelhart, J. L. McClelland & the PDP Research Group: Parallel Distributed Processing: Explorations in the Microstructure of Cognition, vols. 1-3. Cambridge, Mass: MIT Press, 1986.

8. Se H. Dreyfus & S. Dreyfus: "Making a Mind vs. Modelling the Brain: Artificial Intelligence Back at a Branchpoint". Daedalus, vinter 1988, s. 15-43; og S. Papert: "One AI or Many?". Daedalus, vinter 1988, s. 1-14. Et rids gives i Ib Ravn: "Neurale netværk", [se note 7].

9. D. E. Rumelhart & J. L. McClelland: "On Learning the Past Tense of English Verbs", i PDP-bogen, vol. 2, s. 216-271 [se note 7].

10. Denne model er blevet skarpt kritseret i S. Pinker & A. Prince: "On Language and Connectionism: Analysis of a Parallel Distributed Processing Model og Language Acquisition". Cognition, vol. 28, s. 73-193, 1987 (genoptrykt i S. Pinker & J. Mehler (red.): Connections and Symbols. Cambridge, Mass.: MIT Press, 1988.) For en oversigt, se G. Kolata: "Associations or Rules in Learning Language?" Science, vol. 237, s. 133-134, 10. juli, 1987.

11. F.eks. J. A. Feldman & D. H. Ballard: "Connectionist Models and Their Properties". Cognitive Science, vol. 6, s. 205-254, 1982; og D. E. Rumelhart & J. L. McClelland: "PDP Models and General Issues in Cognitive Science", i PDP-bogen, vol. 1. s. 110-146 [se note 7].

12. Et lovende eksempel herpå er biologen Walter Freemans netværksmodel for kaniners lugtgenkendelse, som også trækker på kaosteori: C. A. Skarda & W. J. Freeman: "How Brains Make Chaos in Order to Make Sense of the World". Behavioral and Brain Sciences, vol. 10, s. 161-173, 1987. Se min diskussion af denne artikel i rubrikken "Kaos" i Kimmingen, Paradigma, nr. 4, årg. 2, s. 44, sept. 1988.

13. Hertil skal siges at godt nok er et neuralt netværk mere lig et biologisk nervesystem end en klassisk computer, men den repræsenterer stadigvæk en betydelig idealisering, der kun udnytter nogle ganske få af de dusinvis af variable der kendetegner en rigtig nervecelle. Dette er et stridens æble mellem de nye konnektionister og traditionelt arbejdende hjerneforskere, som overraskede har set deres gebet invadereret af en hoben fysikere, computerfolk og psykologer bevæbnet med kunstige neurale netværk.

14. Hubert & Stuart Dreyfus: Intuitiv ekspertise. Nysyn/Munksgaard, 1991. Se også mit interview med Dreyfus'erne i Paradigma: "Intelligens er ikke at have teorier om verden", nr. 3, årg. 3, s. 4-10, 1989.

15. Min samtale med Dreyfus'erne i foråret 1988 afslørede dem som glødende konnektionister, selv om de udtrykker sig mere forsigtigt på print.

16. Denne pointe fremføres i interviewet med Dreyfus'erne i Paradigma, s. 9 [se note 14].

17. Se Patricia Smith Churchland: Neurophilosophy. Cambridge, Mass.: MIT Press, 1986, og Paul Churchland: Matter and Consciousness. Rev. udg. Cambridge, Mass.: MIT Press, 1988.

18. Jeremy Campbell: Sindets netværk: Fra verdensfjern logik til verdensnær erfaring. Prisme/Munksgaard, 1990.

19. Se M. L. Minsky & S. A. Papert: Perceptrons. Expanded edition. Cambridge, Mass.: MIT Press, 1987; og J. Fodor & Z. Pylyshyn: "Connectionism and Cognitive Architecture: A Critical Analysis". Cognition, vol. 28, s. 3-71, 1988. Genoptrykt i Pinker & Mehler, 1988 [se note 10].

20. Forlaget Ask, 1987. En indføring findes i Ib Ravn: "Autonomi og helhed i levende systemer", Paradigma, nr. 1, årg. 1, s. 23-30, 1986.

21. Francisco Varela, Evan Thompson og Eleanor Rosch: The Embodied Mind: Cognitive Science and Human Experience. Cambridge, Mass.: MIT Press, 1991.

22. F. J. Varela, A. Coutinho, B. Dupire & N. N. Vaz: "Cognitive Networks: Immune, Neural. and Otherwise". I: A. S. Perelson (red.): Theoretical Immunology, Part II, s. 359-375. Reading, Mass.: Addison-Wesley, 1988.

23. Varela, Thompson og Rosch, s. 157ff [se note 21)

24. Dette aspekt af Varelas position diskuteres nærmere i Ib Ravn: "Erkendelse uden fundament", Højskolebladet, nr. 17, 116. årg., 6. maj 1989, s. 264-267.

25. Francisco Varela: "Cognitive Science: A Cartography of Current Ideas", CREA, Paris, 1987 (upubliceret manuskript), s. 59-60.

26. Reading, Mass.: Addison-Wesley, 1987. Se endvidere mit interview med Winograd i Paradigma: "At samtale er at forpligte sig over for den anden", nr. 3, årg. 3, s. 12-17, 1989.

27. For en "mytologisk" fortolkning af Varelas forskning der kommer ind på nogle af de her nævnte X'er, se William Irwin Thompson: Mytisk landskab - med kaos, symbiose, autonomi - og en klokkeblomst. Prisme/Munksgaard, 1990.