Følgende artikel er publiceret som: Peter Øhrstrøm: Kunstig intelligens i etisk belysning. i bogen:



Relaterede dokumenter
Individer er ikke selv ansvarlige for deres livsstilssygdomme

Hjerner i et kar - Hilary Putnam. noter af Mogens Lilleør, 1996

Læsevejledning til Den etiske fordring, Kap. X,1(Instansen i fordringen) og XII (Fordringens uopfyldelighed og Jesu forkyndelse)

Hvad er formel logik?

Kunstig intelligens relationen mellem menneske og maskine

Computeren repræsenterer en teknologi, som er tæt knyttet til den naturvidenskabelige tilgang.

Den sproglige vending i filosofien

Principperne om hvordan man opdager nye sandheder

Bevidsthed, reduktion og (kunstig) intelligens.

Forberedelse. Forberedelse. Forberedelse

Filosofisk logik og argumentationsteori. Peter Øhrstrøm Institut for Kommunikation Aalborg Universitet

Den simple ide om naturlighed Det måske simpleste bud på, hvad det vil sige, at en teknologi er unaturlig, er følgende:

INDIREKTE GENTESTS PÅ FOSTRE MEDFØRER ETISKE PROBLEMER - BØR MAN KENDE SANDHEDEN?

INDLEDNING Bogens målgruppe 11 Ingen læse-rækkefølge 11 Bogens filosofiske udgangspunkt 11 Filosofi og meditation? 12 Platon hvorfor og hvordan?

Påstand: Et foster er ikke et menneske

Svar nummer 2: Meningen med livet skaber du selv 27. Svar nummer 3: Meningen med livet er at føre slægten videre 41

SPØRGSMÅLSTEGN VED SPØRGSMÅL?

- om at lytte med hjertet frem for med hjernen i din kommunikation med andre

Visioner, missioner og værdigrundlag i de 50 største virksomheder i Danmark

Forberedelse. Forberedelse. Forberedelse

II. Beskrivelse af kandidatuddannelsens discipliner

Appendiks 6: Universet som en matematisk struktur

Der skal være en hensigt med teksten - om tilrettelæggelse og evaluering af elevers skriveproces

Villa Venire Biblioteket. Af Marie Martinussen, Forsker ved Aalborg Universitet for Læring og Filosofi. Vidensamarbejde

Metoder og erkendelsesteori

Den sene Wittgenstein

Søren Sørensen STANDARD RAPPORT. Adaptive General Reasoning Test

FRI VILJE. eller frie valg? Erik Ansvang.

Hvad er kreativitet? Kan man lære at være kreativ? To eksempler på kreative former for mesterlære

Emotionel intelligensanalyse

5 TIP FRA EN TVIVLER

Eksempler på elevbesvarelser af gådedelen:

Hvad vil videnskabsteori sige?

appendix Hvad er der i kassen?

Hans Hansen STANDARD RAPPORT. Adaptive General Reasoning Test

Er det frugtbart at anskue datalogi som "ingeniørvidenskab"? Digital Forvaltning 2. kursusgang

Få problemet ud af hovedet og tilbage i sammenhængen

Kolb s Læringsstil. Jeg kan lide at iagttage og lytte mine fornemmelser 2. Jeg lytter og iagttager omhyggeligt

Forord. »Det er svært at stille ét spørgsmål, for kristendommen giver anledning til mange spørgsmål.«marie, 17 år, gymnasieelev

Forberedelse. Forberedelse. Forberedelse

Sandhed del 1. Relativ eller absolut sandhed 1?

Gentofte Skole elevers alsidige udvikling

Den demokratiske samtale: utilstrækkelig opdragelse til demokrati

KOMPETENT KOMMUNIKATION

Omfangsdræn m.m. under huseftersynsordningen i lyset af UfR 2015 s. 702 Ø

Det fællesskabende møde. om forældresamarbejde i relationsperspektiv. Artikel af cand. psych. Inge Schoug Larsen

Sandhed - del 2 To typer af sandhed

Nr. 3 September årgang

Formål & Mål. Ingeniør- og naturvidenskabelig. Metodelære. Kursusgang 1 Målsætning. Kursusindhold. Introduktion til Metodelære. Indhold Kursusgang 1

Mere om at give og modtage feedback

Studerende? Bliv foredragsholder hos Talerøret og tjen 1500 kr. pr. foredrag

Vildledning er mere end bare er løgn

Slide 1. Slide 2. Slide 3. Definition på konflikt. Grundantagelser. Paradigmer i konfliktløsning

Forberedelse. Forberedelse. Forberedelse

Hurup Skoles. Retningslinjer for håndtering af kritik og klager

At give og modtage konstruktiv feedback

Epistemisk logik og kunstig intelligens

Psyken. mellem synapser og samfund

Tue Tjur: Hvad er tilfældighed?

Eksempler på alternative leveregler

Skab tillid: Skriv ud fra dine modtageres interesser

FORDOMME. Katrine valgte: ABENHEDENS VEJ

Tilbagemeldingsetik: Hvordan sikrer jeg, at respondenten har tillid til processen?

Avisforside. Vi har skrevet en avis om studier ved Aarhus Universitet

- Om at tale sig til rette

Thomas Thomsen STANDARD RAPPORT. Adaptive General Reasoning Test

Konstruktiv Kritik tale & oplæg

Trekanter. Frank Villa. 8. november 2012

Hvert kursus strækker sig over 40 lektioner, og eleven deltager i 2 kurser under hver overskrift i løbet af 7.-9.kl.

Forberedelse. Forberedelse. Forberedelse

Skriftlige eksamener: I teori og praksis. Kristian J. Sund Lektor i strategi og organisation Erhvervsøkonomi. Agenda

De Syv Stråler. - den nye tidsalders psykologi 7:8. Erik Ansvang.

Tekster: 2 Mos 32, , Åb 2,1-7, Joh 8,42-51

From Human Factors to Human Actors - The Role of Psychology and Human-Computer Interaction Studies in System Design

Medicotekniker-uddannelsen Vejen til Dit billede af verden

At informere er at overvinde barrierer Tilfældene Martha, John og Peter

Guide. skilsmisse. Plej parforholdet på ferien. og undgå. sider. Sådan bygger I parforholdet op igen

ALGORITMER OG DATA SOM BAGGRUND FOR FORUDSIGELSER 8. KLASSE. Udfordring

Aalborg Universitet, Institut for Architektur&Design Gammel Torv Aalborg. 9. semester, Videnskabsteori. Jeppe Schmücker Skovmose

Interessebaseret forhandling og gode resultater

Nina Nielsen STANDARD RAPPORT. Adaptive General Reasoning Test

Alkoholdialog og motivation

Guide: Er din kæreste den rigtige for dig?

Raymond Queneau. Litteraturens grundlag

Kaptajn i eget liv. Bag om Kaptajn i eget liv. Et samarbejdsredskab til voksne med ADHD Helle Holmen & Jens Brejnrod

SKAL VI TALE OM KØN?

Medfølende brevskrivning Noter til terapeuten

VINCENT HENDRICKS: VI ER NØDT TIL AT DROPPE DET MEGET LEMFÆLDIGE FORHOLD TIL INFORMATION

Bilag 4 Transskription af interview med Anna

Rustur, campusuge og frafald Søren Wengel Mogensen

Information til studerende om. Eksistentiel-humanistisk psykologi

Erik Rasmussen, Niels Bohr og værdirelativismen: svar til Ougaard

Vi deler ikke bare viden fordi det er en god ide heller ikke i vidensamfundet

Der er elementer i de nyateistiske aktiviteter, som man kan være taknemmelig for. Det gælder dog ikke retorikken. Må-

Kan vi fortælle andre om kernen og masken?

MIDTVEJSMØDE KOST & ERNÆRINGSFORBUNDET REGION MIDTJYLLAND. Janne Gleerup, arbejdslivsforsker, Roskilde Universitet

Sammenligning af fire metoder

2 Udfoldning af kompetencebegrebet

Indhold. Del 1 Kulturteorier. Indledning... 11

DA Forenet i mangfoldighed DA A8-0005/4. Ændringsforslag

Transkript:

Følgende artikel er publiceret som: Peter Øhrstrøm: Kunstig intelligens i etisk belysning i bogen: It-etik: En antologi om informations- og kommunikationsteknologiske emner i etisk belysning. red. / Anders Albrechtslund ; Peter Øhrstrøm. Aalborg: Aalborg Universitetsforlag, 2007. s. 41-110. 1

Kunstig intelligens i etisk belysning Peter Øhrstrøm Institut for Kommunikation Aalborg Universitet I 1955 udformede J. McCarthy, M.L. Minsky, N. Rochester og C.E. Shannon et forslag til en videnskabelig konference, som skulle afholdes i sommeren 1956, og som skulle dreje sig om artificial intelligence [McCarthy et al. 1955]. Denne konference blev afholdt i Dartmouth, New Hampshire, hvor John McCarthy var universitetsansat. Dartmouth-konferencen står nu i hvert fald for det faglige miljø i USA som begyndelsen til det nye videnskabelige felt artificial intelligence (dansk: kunstig intelligens). Det er da også oplagt, at konferencen fik meget stor betydning, og det er alment anerkendt, at feltets navn kan føres tilbage til John McCarthy i hans arbejde med forslaget om og forberedelserne til konferencen i 1956. De faglige ambitioner på Dartmouth-konferencen var høje. Det skulle ifølge beskrivelsen bl.a. dreje sig om, hvordan man får computere til at bruge naturligt sprog, til at danne abstraktioner og begreber, til at løse problemer, som ellers kun mennesker kan løse, samt til selv at forøge sit eget potentiale. Selv om navnet artificial intelligence, kunstig intelligens (KI) kun kan føres tilbage til 1955-6 i forbindelse med Dartmouth-konferencen og forberedelserne hertil, går fagområdet ud fra en indholdsmæssig vurdering af de bøger, der nu er mest udbredte på feltet, i hvert fald tilbage til den britiske matematiker Alan Turing (1912-54), som bl.a. beskrev det generelle design af det, der nu kaldes Turing-maskiner dvs. prototypen på de computere, som vi nu omgiver os med. Turing introducerede ligesom John McCarthy m.fl. en række begreber og metoder, som nu regnes for centrale for feltet (se [Copeland 2004]). Et af de mest kendte udsagn inden for KI, er den såkaldte Church-Turing-tese, som i den oprindelige udgave siger, at en hvilken som helst beregning, der kan mekaniseres (dvs. implementeres i en maskine), kan udføres på en Turing-maskine, og i en mere vidtgående udgave hævder, at al menneskelig tankevirksomhed er beregning, som kan udføres på en Turing-maskine [Cutland 1991, p.53]. Debatten Church-Turing-tesen især i den mere vidtgående udgave er helt central for KI-forskningen. Selv om KI-litteraturen er meget stor, findes der stadig ikke nogen præcis, alment anerkendt og udtømmende bestemmelse af, hvad kunstig intelligens (KI) er. Forskellige forskere inden for feltet har i forsøget på at beskrive KI-feltet lagt vægt på forskellige tilgange til og aspekter af det faglige område. Mens nogle KI-forskere vil mene, at det afgørende er systemernes konkrete interaktion med mennesker (brugerne), vil andre pege på systemernes interne strukturer som det centrale, idet de 2

vil hævde, at KI først opstår, hvis der er passende strukturel lighed mellem systemet og den menneskelige hjerne. Hvis man på trods af uenigheder af den slags alligevel skal forsøge sig med en kort bestemmelse af KI, må det blive en løs og foreløbig formulering, som f.eks. kunne lyde således: Kunstig intelligens er det tværvidenskabelige fagområde, som drejer sig om praktiske og teoretiske problemer i forbindelse med forsøg på ved hjælp af computere og robotter at frembringe intelligens, som i det mindste i væsentlig grad ligner (men ikke nødvendigvis er begrænset til) menneskets former for intelligens. Det er klart, at der er en række problemer knyttet til denne foreløbige definition. For det første forudsætter definitionen en vis grad af enighed om, hvad intelligens omfatter, og i væsentlig grad også om de karakteristiske træk, som kendetegner menneskets former for intelligens. Det forudsætter ikke bare viden om intelligens, men det forudsætter også noget mere holdningsmæssigt vedrørende menneskesynet, idet feltets udøvere næppe kommer uden om at forholde sig til, om menneskets intelligens og mentale liv i det hele taget er noget særligt i forhold til det, som ellers findes i den biologiske verden. Udover studiet af den aktuelle, biologiske og psykologiske intelligens som basis for udviklingen af KI-systemer lægger definitionen også op til en diskussion af mere abstrakte begreber om udformninger af en intelligens og en eller anden form for mentalt liv, som nok ligner menneskets, men som også i princippet kan tænkes at overgå eller på væsentlige punkter være anderledes end det, der findes hos mennesket. For det andet er feltet tværvidenskabeligt, idet der i hvert fald er KI-forskere inden for så forskellige fag som datalogi, computerteknologi, psykologi, logik, antropologi, kognitionsvidenskab, filosofi, lingvistik og informationsvidenskab. Fagfolk fra disse forskellige faglige felter opererer ikke nødvendigvis med samme begrebsapparat, hvilket i sig selv er en vanskelighed på vejen mod en alment anerkendt bestemmelse af KI som fagligt felt. Hvad skal man forstå ved intelligens? Mens mange dataloger og ingeniører i forsøget på at besvare det spørgsmål vil være tilbøjelige til at vælge en meget praktisk tilgang til begrebet (som evnen til at løse en bestemt kategori af opgaver), vil mange filosoffer og psykologer se intelligens som en kompliceret og sammensat forestilling, der som antydet i den tentative definition ovenfor i virkeligheden burde brydes op i flere forskellige former for intelligens. Hertil kommer, at der blandt forskere vil være uenighed om kriterierne for intelligens : Er intelligens noget, som alene kan afgøres ud fra adfærden, eller kunne der være simuleret intelligens, som giver anledning til intelligent adfærd, men som i virkeligheden ikke er ægte intelligens? Der er også en stor uenighed om forholdet mellem intelligens og krop: Kan man forestille sig intelligens, som ikke er knyttet til 3

en krop? Og hvis ikke: Skal det være en biologisk krop eller kunne det f.eks. også være en robot styret af en computer? For det tredje er det ikke sprogligt klart, hvad det vil sige at noget er kunstigt. Vi bruger ordet i mindst to forskellige betydninger, idet der enten kan være tale om noget uægte, som blot efterligner det ægte (som i kunstige blomster ), eller om noget ægte, som er frembragt på en ikke helt naturlig måde ved hjælp af en passende teknologi (som i kunstig befrugtning ). Taler vi ifm. KI om noget der er kunstigt i den ene eller den anden betydning af ordet? Efter min mening bør vi i denne sammenhæng dog straks konstatere, at den sproglige tvetydighed her er meget velkommen, fordi det netop blandt KI-folkene livligt drøftes, ikke bare om der med computere og robotter kan frembringes adfærd, der i høj grad kan efterligne ægte intelligens uden at være det, men også om man mere vidtgående i princippet ved hjælp af avanceret teknologi ville kunne frembringe noget i digitale medier, som burde karakteriseres som ægte intelligens. For det fjerde er det oplagt, at KI både har en praktisk, empirisk, teknisk, programmeringsmæssig side og en teoretisk ofte logisk, spekulativ, filosofisk eller direkte science-fiction-agtig side, der i høj grad drejer sig om begrebsafklaring. Dermed opstår spørgsmålet om dialogen mellem de to sider eller aspekter af diskussionen om KI. Hvordan kan og bør de spille sammen? Skal man f.eks. forestille sig, at i hvert fald nogle af de mere teoretiske spørgsmål kan afklares, afprøves eller testes ved det praktiske arbejde med KI? I hvilken grad skal KI dermed opfattes som grundlæggende set en empirisk videnskab? Og på hvilke måder kan man seriøst diskutere de mere futuristiske problemstillinger om mulig fremstilling af en overmenneskelig intelligens? Hvordan kan man i det hele taget karakterisere intelligens, som overgår menneskets intelligens? Det er ikke ambitionen i denne sammenhæng at svare endeligt på samtlige af disse afklaringsmæssige og videnskabsteoretiske spørgsmål om nærmere bestemmelse af KI-feltet. Når alt kommer til alt, er der ikke noget overraskende ved, at KI som en relativt ny disciplin stadig ikke er fast og præcist afgrænset i forhold til andre faglige felter. Som udgangspunkt i denne sammenhæng kan ovenstående tentative bestemmelse af KI bruges. Heri præsenteres den centrale udfordring for KI-forskerne som knyttet dels til menneskesyn og dels til debatten om udforskning af teknologiens potentialer for fremtidens samfund. De teknologiske muligheder, der aktuelt tegner sig i forbindelse med KI, er først og fremmest følgende: Fremstilling af maskiner (herunder robotter), der kan udføre opgaver, hvis løsning hidtil har forudsat intelligent, menneskelig medvirken. 4

Mulighed for fremstilling af maskiner (herunder robotter), der kan efterligne menneskelig intelligent adfærd (herunder kommunikation) på en sådan måde, at adfærden ikke i praksis kan skelnes fra menneskelig intelligent adfærd. Mulighed for fremstilling af maskiner (herunder robotter), der kan overgå menneskets kapacitet med hensyn til intelligens i enhver forstand eller i det mindste i afgørende henseender. Mulighed for sammenkobling eller integration af menneskets bevidsthed og informationsteknologiske komponenter med henblik på at opnå øget mental kapacitet og eventuelt helt nye egenskaber og evner. Dermed bliver det også klart, at der kan lægges en etisk vinkel på en diskussion af KI. Dette er senest erkendt fra officiel dansk side i rappporten Teknologisk fremsyn - om kognition og robotter udgivet af Ministeriet for Videnskab, Teknologi og Udvikling [2006], hvori det betones, at udvikling af robotteknologi ikke alene drejer sig om teknik og økonomi, men også om etiske og sociale problematikker i forbindelsen med den mulige anvendelse af robotteknologien. Disse spørgsmål skal ifølge rapporten diskuteres og analyseres og indgå ligeværdigt sammen med de tekniske og økonomiske aspekter i beslutningerne [2006, p.16]. Rapporten nævner følgende eksempler på etiske og sociale aspekter relateret til anvendelse af robotter: visse typer job og arbejdspladser vil forsvinde teknologien vil stille nye krav til brugeren, som ikke alle vil kunne honorere overvågningssystemer kan opleves som big-brother-is-watching-you mindre patientkontakt, hvis omsorgsfunktioner i sundhedssektoren overtages af robotter robotter kan gøre mennesker selvhjulpne, men med større risiko for social isolation dyrevelfærd i teknologibaseret husdyrproduktion [2006, p.16]. Det er oplagt, at der også kunne nævnes etiske problemer knyttet de brug af intelligente systemer, hvortil der ikke nødvendigvis er knyttet nogen robot. Faktisk er flere af ovenstående problemer aktuelle ifm KI i almindelighed. Jeg vil i nogen grad inddrage ovenstående aspekter fra rapporten, idet jeg dog strukturer diskussionen med udgangspunkt i følgende etisk relevante spørgsmål: 1) Er der etiske problemer knyttet til udvikling og anvendelse af intelligente systemer til automatisering af funktioner fra arbejdsliv og hverdagsliv? 2) Er der etiske problemer knyttet til selve dette at skabe en intelligent maskine (computer/robot) i menneskets billede med henblik på en eller anden brugssituation? 3) Er der opgaver, som man af principielle grunde ikke bør overlade til intelligente maskiner (selv om man ville kunne)? 5

4) Kan en intelligent maskine nogensinde bringes til at træffe egentlige, moralske valg? Hvis ja, bør vi så forsyne intelligente maskiner med programmer, så de kan foretage etiske beslutninger? 5) Kunne der tænkes intelligente maskiner, som jeg bør føle mig moralsk forpligtet overfor? Med andre ord: Kan en intelligent maskine være min næste? 6) Bør man forsøge at fremstille super-intelligente maskiner, hvis evner mht. intelligens i hvert fald i afgørende henseender overgår menneskets evner? 7) Bør vi som mennesker lade os opgradere til cyborgs for bedre at klare os i konkurrencen med de super-intelligente maskiner? 8) Er der etiske problemer knyttet til at lade sit sanseapparat og eller sin bevidsthed (hjerne) opgrade med informationsteknologi? Jeg vil i det følgende tage fat på disse spørgsmål ét for ét. Det vil vise sig, at disse og tilsvarende spørgsmål kun kan diskuteres seriøst sammen med en grundlæggende diskussion om, hvilket menneskesyn bør man lægge til grund i forbindelse med den teknologiske udvikling på KI-feltet. Det vil sige, at man ved diskussion af disse spørgsmål bør være opmærksom på de filosofiske, livssynsmæssige og religiøse/teologiske aspekter, som uvilkårligt melder sig, når man vil anskue KI i etisk belysning. 1. Er der etiske problemer knyttet til udvikling og anvendelse af intelligente systemer til automatisering af funktioner fra arbejdsliv og hverdagsliv? I 1980erne talte man meget om udvikling af såkaldte ekspertsystemer og om de samfundsmæssige og medmenneskelige konsekvenser af brugen heraf. Det drejede sig om systemer, som på intelligent måde udnyttede ekspertviden til at løse problemer for os i arbejdslivet eller hverdagslivet dvs. om praktisk anvendelse af KI. Den faglige diskussion gik mest på problemerne i forbindelse med indhentning, formalisering og implementering (programmeringsmæssigt og organisatorisk) af systemerne. Arbejdsmæssigt talte man især om konsekvenserne af visse funktioners bortfald pga. arbejdets automatisering eller omorganisering. Nu om dage tales der ikke meget om ekspertsystemer. Det skyldes ikke, at disse diskussioner er blevet uaktuelle. Tværtimod. Der er bare ikke længere nogen særlig grund til at skelne mellem ekspertsystemer og IT-systemer, der ikke er ekspertsystemer, eftersom stort set alle moderne IT-systemer har indbygget væsentlige komponenter, der trækker på KI-ideerne og -teknikkerne. I vores arbejdsliv er der masser af KIfunktioner i sving hele tiden. Det gælder i forbindelse med selve den industrielle produktion, som jo i høj grad er automatiseret med inddragelse af ekspertviden på de 6

konkrete arbejdsområder en proces der givetvis vil fortsætte i mange år endnu. Det gælder også i forbindelse med informationsbehandling, tekstproduktion mv.. Eksempelvis vil vi nu om dage næppe finde os i et tekstbehandlingssystem, som ikke har indbygget stavekontrol på flere sprog og i øvrigt også gerne grammatikmoduler og andre hjælpemidler i skriveprocessen. Også i daglig- og fritidslivet har KI holdt sit indtog. For mange af os er det blevet fast rutine, at vi udskriver en vejledning fra krak.dk, når vi på bilturen skal finde frem til en fremmed adresse eller til en by, som vi ikke plejer at besøge eller måske hører vi til dem, der har en GPS-enhed i bilen. Når rejsen er med offentlige transportmidler tager vi lige så selvfølgeligt rejseplanen.dk i brug. På samme måde er der mange, der i tilfælde af sygdomme i familien, søger hjælp på nettet f.eks. hos netdoktor.dk eller sundhed.dk. Alle disse systemer inddrager på intelligent måde ekspertviden (eller konkret faglig viden) til løsning af hverdagens problemer for os. Selv om anvendelse af intelligente systemer altså for mange af os over nogle få år er blevet en integreret del af vore liv på en sådan måde, at vi næsten ikke kan huske, hvordan det var, ikke at have adgang til sådanne hjælpemidler, så er det vigtigt at huske, at ikke alle i samfundet har taget de intelligente IT-systemer til sig. For en del af befolkningen føles teknologien stadig fremmed og i visse sammenhænge også lidt skræmmende. Det giver anledning til en række etiske og sociale overvejelser. Kan vi f.eks. i den offentlige forvaltning tillade os at satse meget på digitalisering og ydelser til borgerne over nettet, når det ikke er alle borgere, som føler sig fortrolige med IT? I skåltalerne er alle enige om, at det ikke går. Alle fremhæver, at man ikke må glemme B-holdet, som slet ikke eller kun meget sjældent bruger computer! Man forsvarer så i samme åndedræt den fortsatte satsning på udbygning af IT i kontakten til borgerne med, at man på den måde sparer tid og penge, således at der bliver bedre tid og flere penge til serviceringen af B-holdet. Spørgsmålet er bare om det ræsonnement holder i virkelighedens verden. Man kan have sin tvivl. I hvert fald er det givet, at der fortsat er brug for en opmærksomhed på det forhold, at ikke alle kan honorere det krav, som udnyttelse af moderne IT-teknologi kræver i arbejdsliv og hverdagsliv. Særligt er det vigtigt at fokusere på sundhedssektorens forsøg på at satse på egenomsorg båret af IT-kommunikation. (Se f.eks. [Holm 2003]). Overvejelsen om A- og B-holdet er imidlertid ikke den eneste etisk og samfundsmæssigt relevante problematik, når det gælder udviklingen og anvendelsen af intelligente systemer. Selve automatiseringen af konkrete områder kan også give anledning til etiske overvejelser. Ovennævnte rapport fra Ministeriet for Videnskab, Teknologi og Udvikling [2006] fremhæver plejesektoren. Hvordan går det, hvis man automatiserer plejen med udnyttelse af robotter og andre former for intelligente systemer? Her går den etiske overvejelse primært på risikoen for tab af medmenneskelig kontakt i plejesektoren måske direkte isolation. Denne etiske 7

overvejelse skal vi vende tilbage til i det følgende. Rapporten nævner også dyrevelfærd i en teknologibaseret husdyrproduktion som eksempel på et andet relevant område, der påkalder sig etisk opmærksomhed. Men der er desuden en mere general type af etisk relevant overvejelse knyttet til brugen af intelligente systemer. Den hænger sammen med, at hel eller delvis automatisering af et fagområde forudsætter formalisering af området. Det er en velkendt indsigt, at man ikke kan formalisere et område, dvs. bygge formelle modeller for det, uden at udvælge et bestemt perspektiv og uden af se bort fra visse dele af den store informationsmængde, der vil være til rådighed i forbindelse med et hvilket som helst livsområde. Som Anne Rasmussen [2003] har påpeget, er der eksempelvis i systemet Fælles Sprog, som er udviklet i forbindelse med kommunernes til styring af hjemmeplejen, en vis firkantethed, som ikke kan undgå i nogen grad at stå i modsætning til oplagte etiske forventninger om medmenneskelighed i hjemmeplejen. Tilsvarende kan man i forbindelse med den elektroniske patientjournal let havne i en grovkornethed og skematisering i patientbeskrivelsen. Pointen i den forbindelse er generelt set, at et hvilket som helst formaliseringssystem og en hvilken som helst model må bero på et valg af de elementer i tilværelsen, som anses for mest betydningsfulde og dermed på et værdisystem. På den måde er der knyttet etiske relevante overvejelser til selve systemdesignet, hvilket oplagt leder til en understregning af systemdesignernes og systemudviklernes etiske og sociale ansvar. Af andre etisk relevante temaer knyttet til udvikling og anvendelse af intelligente systemer, kan man nævne: afhængigheden af systemerne medfører en høj grad af sårbarhed; den høje grad af anvendelse af systemerne kan føre til ansvarsforflygtigelse (jvnf. de mange hænders problem ); ifm IT-anvendelsen kan der i mange tilfælde opstå monopolisering; ofte medfører anvendelsen af systemerne en høj grad af personregistrering og overvågning, hvilket kan være problematisk i forhold til den enkeltes privathed. 2. Er der etiske problemer knyttet til selve det at skabe en intelligent maskine (computer/robot) i menneskets billede med henblik på en eller anden brugssituation? Et KI-system kan anskues som et computerbaseret system, som på effektiv måde kan løse væsentlige opgaver ved brug af metoder og principper, som anerkendes som intelligente dvs. som logisk set (rationelt) valide (herunder systemer med evne til korrekt logisk ræsonnement og planlægning). Heri ligger der ikke nogen antagelse om, at systemet i sin fremtrædelsesform skal ligne noget menneskeligt. Det kan 8

måske endda i nogle tilfælde være ønskeligt, at det klart fremgår for omgivelserne, at der er tale om output fra et computerbaseret system og ikke om direkte kommunikation fra et andet menneske. Det vil kunne måske kunne hjælpe brugeren til klart at forholde sig systemet, så det ikke forveksles med en menneskelig agent, og det tværtimod bliver det oplagt at opfatte systemet som hverken mere eller mindre end et avanceret redskab. Imidlertid er ambitionen ofte den modsatte: Man ønsker at give systemet en så menneskelig fremtræden som muligt. Med henvisning til den kristne skabelsestanke, at mennesket er skabt i Guds billede, kan man sige, at KIforskere ønsker at skabe en intelligent maskine i menneskets billede. Idealet er endda, at kommunikationen med det computerbaserede system bliver så menneskelig, at den bliver uskelnelig fra kommunikationen med et andet menneske. Det er i hvert fald kriteriet i den klassiske Turing-test (se figuren), som består i, at en test-person placeres foran en computerskærm, som enten er forbundet med det system, der skal testes, eller med et andet menneske. Hvis test-personen ikke inden for en rimelig tid og med en rimelig sikkerhed kan afgøre, om han eller hun er forbundet med det computerbaserede system eller med et andet normalt fungerende og begavet menneske, har systemet bestået testen. Kriteriet for KI ifølge Turing-testen er altså den uskelnelige kommunikation. Hvis systemet kommunikerer så godt, at det vil kunne snyde en kvalificeret bruger dvs. få brugeren til at tro, at kommunikationen foregår med et andet menneske så vil systemet efter Turing-test-definitionen skulle regnes som kunstigt intelligent. Dermed er der i hvert fald teoretisk set knyttet en forbindelse mellem kriteriet for KI og muligheden for bedrag af brugerne. Intelligens består altså ifølge denne tilgang i evnen til effektivt bedrag af brugeren! Turing foreslog første gang testen, som han i øvrigt selv kaldte the imitation game i en artiklen Intelligent Machinery fra 1948. (Se [Copeland 2004, p.431]). I denne første version skal testpersonen ( investigator ) spille skak med en ukendt (og ikke ret øvet) modspiller, som enten er en maskine udstyret med et skakprogram eller en middelmådig menneskelig skakspiller. Testpersonens opgave er så ud fra selve skaktrækkene at afgøre om modspilleren er en skakmaskine eller et menneske. I 1950 (se [Copeland 2004, p.433 ff.]) udbyggede Turing spillet, så kommunikationen nu ikke bare bestod i skaktræk, men i sproglig (og skriftlig) kommunikation mellem parter, der ikke kan se hinanden. 9

dialogsystem C: Testperson? dialog-partner (menneske) Skematisk fremstilling af princippet i Turings test Når et system, der har bestået Turing-testen, betragtes som intelligent, skyldes det ikke mindst, at der ikke i denne sammenhæng skelnes mellem systemet som det fremtræder og systemet som det er i virkeligheden. Systemets adfærd tages med andre ord som afgørende kriterium for systemets væsen. Denne antagelse synes i mange tilfælde at være yderst rimelig. I hvert fald kan vi ikke selv gøre andet, når det drejer sig om vores forhold til andre mennesker. Eftersom vi ikke har adgang til vore medmenneskers indre liv, må vi lade vore relationer til dem bero på vores tolkning af deres adfærd, herunder vores kommunikation med dem. Men man kan meget vel drage i tvivl, om denne tilgang også er rimelig, når det gælder vores forhold til computerbaserede systemer. Debatten i kølvandet på Turing-testen fik nyt liv med den meget praktiske kommentar, som Joseph Weizenbaum fra Massachusetts Institute of Technology i 1966 leverede med sin lancering og beskrivelse af det relativt simple program ELIZA, som i nogen grad kunne bearbejde og generere naturligsproglige tekster på en sådan måde, at det kunne simulere visse simple, menneskelige samtaler (se [Weizenbaum 1966]). Systemet var designet til at simulere en psykiatrisk samtale med en patient (brugeren). Rent praktisk var systemet programmeret til at reagere på givne måder på udvalgte nøgleord. Det betyder, at det for den bruger, der ville tage det alvorligt kunne fungere ret så overbevisende, selv om systemet ikke var opbygget med nogen egentlig semantisk model dvs. ikke beroede på noget forsøg på automatisk forståelse. Selve konstruktionen af ELIZA indebar imidlertid også, at det 10

var relativt let at generere helt meningsløse dialoger, som kunne afsløre maskinen som ude af stand til at forstå noget som helst af, hvad dialogen handlede om. Litteraturen om ELIZA er stor, og der er genereret mange underholdende eksempler på dialoger med systemet. Tilbage står en række fundamentale spørgsmål, som dette klassiske og meget simple program gav anledning til. Sagen er jo, at ELIZA viser, at man ikke principielt kan udelukke, at det med forfining af nøgleordsteknikken og andre lignende teknikker vil kunne lade sig gøre at skabe et dialogsystem, som i det mindste vil kunne komme meget tæt på at bestå Turing-testen. Spørgsmålet er så, om det etisk set ville være i orden at markedsføre en sådant system, som altså må forventes at kunne narre en masse brugere til at tro, at systemet er noget, det faktisk ikke er. Overvejelserne kan yderligere understøttes af debatten i kølvandet på John Searles berømte tankeeksperiment om det kinesiske rum [Gregersen 1993, p.411-35]. Dette tankeeksperiment går ud på, at Searle forestiller sig selv placeret i et rum forsynet med en masse kort med kinesiske skrifttegn og en mængde opslagsværker, som gør det muligt for ham at udvælge egnede kort med skrifttegn som svar på andre kort med skrifttegn, som han modtager udefra. Ved hjælp af opslagsværkerne vil Searle på den måde være i stand til at gennemføre en dialog med kinesere uden for rummet, selv om der ikke i og med systemet er gjort noget som helst forsøg på at lære Searle kinesisk. Han forstår intet af, hvad dialogen drejer sig om. Lad os kalde et sådant system for et Searle-system. Man kan oplagt opfatte et sådant system som er et udbygget ELIZA-system dvs. som et system af den type, som Weizenbaum med ELIZA lagde op til som en fremtidig ambition. Overvejelserne i forbindelse med såvel ELIZA og som Searle-systemerne i almindelighed lægger op til en principiel skelnen mellem på den ene side simuleret intelligens og på den anden side virkelig intelligens. Sammen med et traditionelt princip om det uetiske i at bedrage andre mennesker vil en sådan skelnen straks give anledning til et etisk argument mod at skabe systemer, der simulerer intelligens, men som i virkeligheden ikke med rimelighed kan siges at være intelligente. Argumentet kunne måske se således ud: Argument 1: P1.1 Searle-systemer, som effektivt simulerer intelligens, men som ikke har virkelig intelligens, er designet til at påvirke brugerne, så de i strid med sandheden tror, at systemerne har virkelig intelligens. P1.2 Man bør ikke skabe computer-systemer designet til at påvirke brugerne, så de i strid med sandheden tror, at systemerne har virkelig intelligens. K1 Man bør ikke skabe Searle-systemer. Det argumentet er imidlertid bestemt ikke hævet og kritik. Et par oplagte indvendinger springer straks i øjnene. 11

Mod den første præmis, P1.1, kan man måske indvende, at Searle-systemerne (hvis de faktisk kan skabes) ikke nødvendigvis vil være designet til at snyde brugerne. De kunne jo være fremstillet alene ud fra en grundvidenskabelig interesse i kunstig intelligens og i udforskningen af visse teknikkers potentiale. Og holdningen kunne være, at hvis systemerne skulle tages i brug af en større brugerkreds, så skulle de altid forsynes med en oplysning eller advarsel om, at disse systemer kunne give anledning til den misforståelse, at de har indbygget virkelig intelligens, hvilket de i realiteten ikke har. Men selv om sådanne scenarier er tænkelige, må man nok sige, at hvis Searle-systemer er mulige, og hvis de udbredes, vil det sandsynligvis være med det formål at foregive over for i hvert fald visse brugere, at kommunikationen foregår med en menneskelig partner. Det kan dog godt være, at det vil forekomme overdrevent at tale om bedrag eller snyd. Men der vil i det mindste være tale om et forsøg på at fremkalde et kommunikationsklima i strid med virkeligheden. Mod ovenstående arguments anden præmis, P1.2, kan man indvende, at det ikke nødvendigvis er uetisk at snyde sine medmennesker. I visse tilfælde er snyd ikke andet et muntert indslag i dagligdagen. Der er ingen rimelighed i at karakterisere almindelig spøg og skæmt som uetisk tværtimod! Den slags festlige indslag er med til at give livet kvalitet. Selv ikke mere seriøse og kommercielle produkter som f.eks. kunstige blomster vil vi regne for uetiske, selv om de tydeligvis har til formål for den umiddelbare og overfladiske iagttagelse at foregive, at de er noget andet, end de faktisk er. Hvis man omskriver argumenter til et argument om kunstige blomster, kan man få noget i retning af følgende: Argument 2: P2.1 Kunstige blomster er efterligninger, som effektivt simulerer planteliv, men som i virkeligheden ikke har noget sådant, er designet til at påvirke brugerne, så de i strid med sandheden tror, at efterligningerne har et ægte planteliv. P2.2 Man bør ikke skabe efterligninger, som effektivt simulerer planteliv etc., så brugerne i strid med sandheden tror, at efterligningerne har ægte planteliv. K2 Man bør ikke skabe kunstige blomster. Det argument er der næppe mange, der vil købe! Det vil heller ikke være overbevisende, hvis det skulle dreje sig om fremstilling af kunstige blomster, som i konsistens mm. endnu mere end de allerede kendte produkter ligner de ægte blomster. P2.2 er simpelthen ikke overbevisende for os. Hvis nogen kan producere kunstige blomster, som vi kommer til at vande, når vi går rundt med vandkanden, vil vi synes, at produktet er succesrigt, men næppe at der ved denne produktion er sket noget uetisk. 12

Stort set det samme vil vi sige, hvis det drejer sig om proteser for mistede lemmer, kunstigt hår, kunstige tænder etc. I alle tilfælde vil vi rose produktet, jo mere effektivt det efterligner det naturlige. Men hvad nu med kunstig intelligens forstået som en effektiv Searle-maskine kobles til et stumt, multihandicappet og dybt retarderet menneskes krop, således at omgivelserne gives det indtryk, at det handicappede menneske har et intelligent bevidsthedsliv? Her vil de fleste nok sige, at teknologianvendelsen er gået for vidt, og at det vil være etisk set forkert at lade personen fremtræde med et intelligent bevidsthedsliv, som ikke er ægte dvs. som ikke i egentlig forstand er vedkommendes. Meget tyder altså på, at vi ikke vil sige det samme om kunstig (og uvirkelig) intelligens, som vi vil sige om kunstige blomster, kunstige tænder og kunstige lemmer. Det hænger ganske givet sammen med, at det mentale gives en særlig høj status i det værdisystem, som vi opererer efter i vor omgang med hinanden. Det ser altså ud til, at det, der trods alt giver argument 1 sin plausibilitet, er det forhold, at vi giver intelligensen en særlig status i vores menneskeopfattelse, hvorfor vi vender os imod påstanden om et intelligent bevidsthedsliv der, hvor det i virkeligheden ikke findes. Man kan spørge om vurderingen af argumentet 1, hvis det ikke drejede sig om Searle-systemer, som simulerer en intelligens, som pr. definition ikke kobles med nogen som helst indre forståelse, men derimod er konstrueret som et forsøg på at genskabe muligheder for intellektuel forståelse af omverdenen. Som når det gælder Searle-systemer, ved ingen om sådanne systemer overhovedet er principielt og praktisk mulige. På den anden side er forsøg på noget i den retning allerede gennemført oven i købet er det en tilgang som KI-forskere har arbejdet med gennem en årrække. Allerede i 1970 konstruerede Terry Winograd et system, SHRDLU, der kunne føre en dialog om klodser i en afgrænset klods-verden (se [Johansen 2003, p.20 ff.]). Til forskel fra ELIZA og Searles tænkte system, bygger SHRDLU-systemets dialog altså her på en model af den menneskelige forståelse og rationalitet. I Winograds system var der tale om en model af forståelse bygget på formel og klassisk logik. Senere er de fleste KI-forskere nået til den konklusion, at man ikke kan bygge en tilfredsstillende model af den menneskelige intelligens udelukkende ved brug af klassisk logik. Derimod finder de fleste, at den logiske model må suppleres med andre former for logik samt evt. også med andre typer af bidrag især de konnektionistiske, som i virkeligheden er inspireret af hjerneforskningen, hvilket vil sige, at man at søgt at kigge Skaberen i kortene for at finde frem til den bedst tænkelige konstruktion af kunstig intelligens. Lad os for argumentets skyld sige, at det faktisk kan lade sig gøre at skabe computer-systemer lad os kalde dem Winograd-systemer som er bygget på omhyggelige studier af menneskelig intelligens og rationalitet, og som kan bestå Turing-testen. Spørgsmålet er så, om argument 1 anvendt på Winograd-systemer vil have samme plausibilitet 13

som anvendt på Searle-systemer. Med andre ord: Hvordan skal vi vurdere følgende argument: Argument 3: P3.1 Winograd-systemer, som effektivt simulerer intelligens, men som ikke har virkelig intelligens, er designet til at påvirke brugerne, så de i strid med sandheden tror, at systemer har virkelig intelligens. P3.2 Man bør ikke skabe computer-systemer designet til at påvirke brugerne, så de i strid med sandheden tror, at systemerne har virkelig intelligens. K3 Man bør ikke skabe Winograd-systemer. Evalueringen af dette argument står og falder med vurderingen af P3.1. I den forbindelse kan spørge om menneskets intelligens i virkeligheden er et logisk system, som vi helt eller delvis kan beskrive som et formelt system, og om intelligens set i sammenhæng med omgivelserne faktisk kan opfattes som et informationssystem styret af bestemte lovmæssigheder, hvilket gør det muligt i princippet at implementere intelligens som et digitalt system. Denne problematik hænger sammen med debatten om den klassiske determinisme, som den f.eks. blev udformet af fysikeren Laplace (1749-1827), som opfattede verden som et fuldstændig deterministisk system, hvilket betyder, at hvad som helst i universet (inkl. den menneskelige hjerne) principielt følger logisk af tidligere tilstande samt de fysiske og kemiske love. Dette verdensbillede kan bruges til at understøtte den opfattelse, at den menneskelige hjernes intelligens faktisk kan siges at svare til det, som vi her kalder et Winograd-system. Ud fra det synspunkt kan man betragte hjernen som en computer, der kører en form for personligheds-program. Hvis det forholder sig således, holder argumentets første præmis, P3.1, tydeligvis ikke. I så fald kan Winograd-systemer jo netop have virkelig intelligens. Man kan meget vel forestille sig, at det aldrig vil blive muligt at give et bare nogenlunde sikkert svar på spørgsmål om holdbarheden af ovenstående arguments første præmis, P3.1, fordi spørgsmålet i virkeligheden er principielt uafgørligt dvs. hører til den gruppe af velformulerede spørgsmål, som vi aldrig vil kunne afgøre på basis af empiriske undersøgelser. Hvis det er sådant, kunne det hænge sammen med, at der noget selvrefererende og cirkulært knyttet til undersøgelser af hjernens intelligens. Der kunne med andre ord være principielle begrænsninger knyttet til den intelligente bevidstheds forsøg på at erkende og beskrive sin egen struktur. Mere herom nedenfor. Det er alment anerkendt inden for KI-forskningen, at man ikke kan modellere alle bevidsthedens funktioner tilfredsstillende ved hjælp af logik. Derimod mener mange, at opgaven i princippet kan klares ved en kombination af logiske modeller og 14

kunstige neurale netværk, som er bygget op efter nogle af de samme principper, som er anvendt i den menneskelige hjerne. Ideen ifm kunstige neurale netværk er at skabe kunstig intelligens ved at efterligne den menneskelige hjerne mht. konstruktionsprincipper. Her bliver der ikke bare tale om hjernens traditionelle, rationelle potentialer. Det drejer sig generelt om bevidsthedsmæssige funktioner herunder også følelser og oplevelser af behag og ubehag. I sammenhæng hermed bliver de etiske spørgsmål f.eks. også: 1) Vil det være uetisk at forsyne en computer med smerteoplevelser (hvis det overhovedet kan lade sig gøre)? Og 2): Vil det være uetisk at forsyne en computer med bevidsthedsoplevelser (hvis det overhovedet kan lade sig gøre)? Her vil mange givetvis svare bekræftende. Det er ganske vist ikke nødvendigvis uetisk at foregive, at noget forholder sig anderledes, end det i virkeligheden gør. Snyd er som nævnt ovenfor ikke uetisk, hvis det foregår i en harmløs måske ligefrem underholdende kontekst. Simulering er naturligvis heller ikke uetisk, hvis det er oplagt, at der er tale om en simulering. Hvis der derimod er tale om en simulering, som ikke klart fremtræder som sådan, og som foregår i en i en følsom kontekst, kan der være etiske problemer. Muligvis kan man indvende, at de etiske problemer ikke opstår i den rent undersøgende, udviklingsmæssige og videnskabelige sammenhæng, men først i forbindelse med en evt. anvendelse af systemerne. Den indvending er der selvfølgelig til en vis grad hold i. Dog hører det med i billedet, at den teknologiske KI-forskning kun meget sjældent vil være en ren akademisk og grundvidenskabelig aktivitet, idet man som regel også vil kunne medtænke de mulige anvendelser af det videnskabelige projekt. Og det forekommer oplagt, at hvis man fra videnskabeligt hold realistisk set kun kan forestille sig etisk problematiske anvendelser af de intelligente systemer, som forventes at komme ud af projektet, eller kan forudse, at hovedanvendelsen vil være etisk problematisk, så bør man også i den videnskabelige sammenhæng erkende, at der er et etisk problem knyttet til projektet. 3. Bør der være etiske grænser for anvendelse af intelligente maskiner? Det andet af de etiske spørgsmål, som blev oplistet i indledningen, drejer sig om anvendelse af computer-systemer herunder robotter. Lad os igen for argumentets skyld antage, at der faktisk kan produceres maskiner, der kan bestå Turings test. Spørgsmålet bliver så, om der bør være grænser for hvilke opgaver, sådanne kunstigt intelligente maskiner sættes til at varetage. Kan man f.eks. forestille sig den automatiske psykiater, den automatiske skriftefader/sjælesørger eller den automatiske dommer? Kan man med andre ord i princippet forestille sig, at et computerbaseret system engang i fremtiden ville kunne klare alle eller blot de fleste af de opgaver som i dag varetages af psykiatere, skriftefædre/sjælesørgere, dommere? Med andre ord: Fordrer løsningen af sådanne opgaver andre evner og egenskaber end dem, der skal 15

til for at bestå en passende Turing-test? Der kunne f.eks. være tale om evne til indlevelse, medfølelse, intuition og empati samt evne til at foretage skøn. Vi vil i hvert fald ikke mene, at nogen ville kunne udføre de nævnte funktioner på tilfredsstillende vis uden sådanne evner og egenskaber. Der synes her at være tale om evner og egenskaber (væsenstræk), som vi ikke kan formalisere eller præcisere nærmere, hvorfor vi sandsynligvis heller ikke kan gøre os håb om at kunne automatisere dem i egentlig forstand. Disse træk ved mennesket synes umiddelbart at være fremmede for computerens muligheder. Alt tyder på, at vi højst kan producere systemer med en adfærd, der simulerer, at systemerne har disse evner (hvilket i virkeligheden ikke er tilfældet). Hvis det er rigtigt, kan man med god ret hævde, at det vil være uetisk at simulere evnerne i et system, der bruges af mennesker, som derved vil kunne blive bedraget. Det etiske grænse kunne altså formuleres på basis af et argument som følgende: P4.1 Tilfredsstillende løsning af visse medmenneskelige opgaver forudsætter andre væsenstræk end det, som følger af menneskets materielle egenskaber. P4.2 Et computersystem kan ikke tilfredsstillende løse medmenneskelige opgaver, som forudsætter andre væsenstræk end det, som følger af menneskets materielle egenskaber. P4.3 Man bør ikke bruge computersystemer til forsøg på løsning af følsomme medmenneskelige opgaver, som ikke tilfredsstillende kan løses på den måde. K4 Man bør ikke bruge computersystemer til forsøg på løsning af følsomme medmenneskelige opgaver, som forudsætter andre væsenstræk end det, som følger af menneskets materielle egenskaber. Hvis denne argumentation holder vil det være uetisk nogensinde at præsentere et computersystem for brugerne som et bud på en automatisk psykiater eller en automatisk skriftefader/sjælesørger. Ligeledes vil det være uetisk nogensinde at bruge en computer med et KI-system som fuldstændig erstatning for en dommers indlevende vurdering af en sag. I det hele taget vil det under denne forudsætning være uetisk at foregive, at et computersystem kan være ægte medmenneskeligt nærværende også selv om man ikke empirisk testbart kan skelne mellem ægte medmenneskeligt nærvær og simuleret nærvær. Argumentet kan også relateres til overvejelser om ansvarlighed. Mennesker kan være moralsk ansvarlige for bestemte forhold i bestemte situationer. Her er der tale om noget ud over det rent materielle (jvnf. P4.1). Derimod mener de fleste af os, at computeren ikke kan være moralsk ansvarlig (jvnf. P4.2). Naturligvis kan man sige, at det i sig selv ikke gør noget, hvis blot det moralske ansvar kan placeres hos de mennesker, som er moralsk ansvarlige for computerens reaktioner. Men her dukker det såkaldte de mange hænders problem op. Pointen er, at det ikke er let at placere 16

det moralske ansvar, fordi der altid vil være mange involverede mennesker, som man i princippet ville kunne henvise til i forbindelse med en computers eller en robots reaktioner (brugere, teknikere, designere, beslutningstagere mm.). Tilbage står under alle omstændigheder den relevante overvejelse om det moralske ansvar, som i forbindelse med løsning af følsomme medmenneskelige opgaver peger ud over det rent materielle. Ifølge præmissen P4.1 indeholder menneskets bevidsthed og intelligens et eller andet, som peger ud over det rent materielle, og som dermed kan danne grundlag for ægte nærvær, indlevelse, moralsk ansvarlighed mm. Det kan imidlertid være svært nærmere at beskrive, hvad dette et eller andet er. Et klassisk bud på noget sådant kunne være ånd altså en ikke-materiel komponent af det menneskelige sind, som har transcendental karakter. Opmærksomhed på menneskets ånd findes hos alle de store kristne tænkere herhjemme f.eks. meget tydeligt hos Søren Kierkegaard (1813-55) og N.F.S. Grundtvig (1783-1872). I Begrebet Angest (1844) karakteriserede Kierkegaard mennesket som en syntese af det sjælelige og det legemlige, der enes i ånden. Og i første afsnit af Sygdommen til Døden (1849) hedder det i direkte: Mennesket er Aand. Grundtvig fremhæver betydningen af menneskets ånd på følgende måde i Nordens Mythologi (1832): "...Mennesket er ingen Abekat, bestemt til først at efterabe de andre Dyr, og siden sig selv til Verdens Ende, men han er en mageløs, underfuld Skabning, i hvem Guddommelige Kræfter skal kundgiøre, udvikle og klare sig giennem tusinde Slægter, som et Guddommeligt Experiment, der viser, hvordan Aand og Støv kan giennemtrænge hinanden, og forklares i en fælles guddommelig Bevidsthed." [1940-49, 4. bd., p.25] Til denne type argumentation baseret på en klassisk kristen tankgang, der f.eks. tager udgangspunkt i Kierkegaards og Grundtvigs opfattelser af ånd, vil man kunne indvende, at det ikke kan udelukkes, at videnskaben senere vil blive klogere, således at man faktisk vil kunne nå til at beskrive indlevelse, medfølelse, intuition etc. på en så præcis måde, at disse evner vil kunne implementeres i en maskine. Måske vil det som omfattes af den traditionelle beskrivelse af det åndelige i alle dets aspekter kunne indbygges i en computer! I den forbindelse vil mange sikkert henvise til den moderne debat om vore gener og f.eks. nævne Francis Crick (1916-2004), en af opdagerne af DNA-strukturen, som mener, at bevidstheden ikke er andet end bestemte træk ved hjernens funktion, således som de faktisk allerede er indskrevet i vor genetiske struktur. Crick har i sin meget omtalte bog The Astonishing Hypothesis [1994] argumenteret for en form for reduktionisme gående ud på, at vor personlighed og alt i vort indre liv (glæder, sorger, forhåbninger, erindringer, drømme, ambitioner etc.) ligesom endnu mere kompelkse karakteristika ved os så som vor identitet og vort frie valg i virkeligheden ikke er andet end biokemi. 17

Men hvem har ret reduktionisterne, som mener, at bevidsthedslivet helt og fuldt kan reduceres til biokemi, eller tænkere som Kierkegaard og Grundtvig, som har forsvaret det synspunkt, at mennesket er noget mere end det rent fysisk/kemiske og dyriske, nemlig også noget åndeligt? Måske kan dette spørgsmål aldrig besvares endegyldigt. Måske er spørgsmålet principielt uafgørligt. Videnskabsteoretisk er der i forbindelse med uafgørlige spørgsmål tale om teoretiske sætninger og positioner, som på den ene side repræsenterer forskellige, logisk modstridende synspunkter, men som på det empiriske plan dvs. i praksis viser sig at have de samme konsekvenser og altså er empirisk set ækvivalente. Umiddelbart forekommer reduktionisternes position contra Grundtvig-Kierkegaard-positionen at være en god kandidat til et sådant uafgørligt spørgsmål. Meget tyder på, at en sådan empirisk ækvivalens også viser sig i forsøget på at udforske forholdet mellem bevidstheden og hjernen. Videnskabsfilosoffen Karl Popper (1902-94) har sammen med hjerneforskeren John Eccles (1903-97) argumenteret for en moderne dualisme. Men Popper argumenterede også for, at spekulationerne om bevidsthedens oprindelse sandsynligvis aldrig vil kunne udvikle sig til en videnskabelig teori, der vil kunne testes. (Se [Gregersen 1993, p.255].) Hvis Popper har ret vil de forskellige teorier, herunder spørgsmålet om muligheden for at reducere menneskets bevidsthedsliv til noget rent materielt, være ikke-testbar, dvs. empirisk uafgørlig. Hele diskussionen om uafgørlighed bør ses i lyset af de resultater, som det 20. århundredes største logiker, Kurt Gödel (1906-78), publicerede i 1931, og som betyder, at matematikken som helhed ikke mekaniseres (se f.eks. [Braüner 2006]). Generelt gælder det ifølge Gödel, at hvis et axiomsystem blot tillader, at man inden for systemets rammer kan regne med de hele tal, så vil der være sande sætninger, som er ubeviselige inden for systemet (dvs. med systemets axiomer og metoder). Det er klart, at dette resultat ikke bare har betydning for matematikken og logikken men også for enhver anden disciplin, som betjener sig af logik og/eller matematik. Filosofisk set kan man sige, at Gödels resultat betyder, at sandhed altid vil gå ud over transcendere beviseligheden. Uanset hvilken teori, hvilket bevissystem, man vælger for en et studiefelt, der bl.a. omfatter de hele, vil der med andre ord være sandheder, som ikke kan bevises i systemet. Kurt Gödels resultater kan på en mere direkte måde bruges i forbindelse med diskussionen om den menneskelige bevidstheds natur. Det viser sig nemlig, at resultatet også medfører, at der givet et bestemt (veldefineret) programmeringssprog, L, findes talmængder, som ikke kan produceres som output-mængde med noget L- 18

program (se [Øhrstrøm, pp. 108-11]). Det betyder altså, at der findes opgaver, som ikke kan udføres/løses med noget L-program. Den menneskelige bevidsthed formår at beskrive disse mængder, og det forhold må altså betyde, at den menneskelige bevidsthed aldrig kan reduceres til et bestemt program skrevet i et eller andet programmeringssprog. Kurt Gödel tilsluttede sig selv den position, at den menneskelige bevidsthed ikke kan reduceres til et beregneligt system, der kan sammenlignes med et computerprogram. Han mente derimod, at mennesket har en ikke-materiel komponent. Turing så anderledes på det. Ganske vist ville han ikke afvise, at der er et mysterium knyttet til den menneskelige bevidsthed, og at der er grænser for, hvad vi kan vide om bevidstheden. Han pegede f.eks. på, at vi aldrig kan vide, om vore medmennesker har den samme slags følelser og oplevelser, som vi selv har. Vi har ikke anden adgang til de andres indre liv end deres adfærd og ytringer. Men ifølge Turing er det ikke afgørende. Vi kan efter hans mening se bort fra den slags problemer, når det drejer sig om at finde ud af, om en computer kan tænke eller ej (se [Copeland, p. 566-7]). Igen kan man ikke endegyldigt afgøre om Gödel eller Turing har ret. Kun kan man sige, at hvis Turing har ret, så kan vi i praksis og i forhold til vores selvforståelse se bort fra evt. immaterielle aspekter af den menneskelige natur, og det indebærer jo en afvisning af præmis P4.1. Tankegangen er, at i forhold til medmenneskelige opgavers løsning spiller spørgsmålet om den menneskelige bevidstheds materielle eller ikkematerielle natur ingen rolle. Over for dette står en række tænkere, som lægger vægt på, at mennesket er ånd (for nu at sige det med Kierkegaard). De vil hævde, at det vil være utilfredsstillende at løse opgaver, der vedrører mennesket som ånd, uden at tage hensyn til det åndelige aspekt af menneskets natur. Mens der altså kan være betragtelig debat om P4.1, forholder det sig anderledes med P4.2. Selv om ingen kan sige præcist, hvad ånd er, vil der næppe være mange, der vil hævde, at computersystemer kan løse problemer, som forudsætter, at mennesket forstås som ånd. Netop fordi det åndelige er upræcist defineret (eller slet ikke defineret), vil det være uegnet til at indgå i et computerprogram. De fleste vil nok også mene, at P4.3 virker overbevisende. Det ligger lige for, at man bør holde sig fra at gå efter utilfredsstillende løsninger på noget som helst. Måske vil nogen sige, at en utilfredsstillende løsning er bedre end ingen løsning. Konkret vil det altså sige, at hvis man ikke har ressourcer til at løse et problem, som angår et menneskes ånd, på den optimale måde, kunne det være en brugelig idé at tage mere utilfredsstillende midler i brug. Ud fra en Grundtvigsk-Kierkegaardsk menneskeopfattelse er pointen imidlertid, at man netop, når det angår menneskets 19

allervigtigste væsenstræk, ikke må gå på kompromis, og at der altid vil være er mulighed for at tage medmennesket alvorligt i mødet med det. 4. Bør vi om muligt forsyne intelligente maskiner med programmer, så de kan foretage etiske beslutninger? Det er et åbent spørgsmål, i hvilken grad man ville kunne formalisere og automatisere den etiske overvejelse og beslutningstagning. Siden 1940erne har logikere været optaget af formelt at beskrive etisk argumentation og logik. En af pionererne på feltet var A.N. Prior (1914-69). I sin bog Logic and the Basis of Ethics [1949] diskuterede Prior forudsætningen for, at etiske sandheder kan udledes automatisk. Ifølge Prior forudsætter noget sådant, at der foreligger fuldstændige beskrivelser dels af den aktuelle situation (de faktuelle forhold) og dels af de relevante, generelle etiske principper (lovmæssigheder) [1949, p. 42]. Prior er selvfølgelig meget vel klar over, at kravet om fuldstændige beskrivelser er urealistisk i praksis. Ikke desto mindre er det netop det krav, man må stille, hvis udledningen af de etiske udsagn skal være skudsikker. Det afgørende for Prior i diskussionen for en formalisering af den etiske argumentation var pligtbegrebet. Hvordan kan man beskrive logikken for pligt? Prior diskuterede bl.a. det konsekventialistiske svar på spørgsmålet, som det blev givet af G.E. Moore, ifølge hvem den mulighed, som vi er pligtige til at realisere, netop er den blandt de alternative muligheder, som ligger åbne for os, som vil have de bedste konsekvenser totalt set dvs. når alt tages i betragtning (se nærmere i [Prior 1968, p.51]). Prior peger på, at forestillingen om en forudberegning af samtlige konsekvenser af de forskellige mulige er ubrugelig som basis for definition af pligten. Ikke bare vil det være praktisk umuligt at gennemføre en sådan beregning, men forestillingen er også konceptuelt set håbløs, eftersom konsekvensbegrebet faktisk også er til diskussionen. Det er ikke uden videre klart, hvad det vil sige, at en mulig fremtidig begivenhed vil være en konsekvens af en påtænkt mulig handling nu. Det hænger sammen med, at Prior ikke uden videre vil acceptere, at samtlige fremtidsmuligheder foreligger allerede nu på en sådan måde, at beregningen i princippet ville kunne gennemføres. Man skal nemlig huske, at mange detaljer om de fremtidige forløb vil afhænge af diverse agenters frie valg i fremtiden. Derfor er Moores pligtdefinition ifølge Prior upræcis og ubrugelig. Hvis man vil studere mulighederne for at formalisere pligtbegrebet, må man ifølge Prior i stedet se på logikken for et formelt sprog, der indeholder en pligt-operator dvs. en såkaldt deontisk logik. Prior benytter OA for A er obligatorisk, hvor O er 20