For nylig publicerede det amerikanske Medium et revolutionerende interview. Intervieweren taler med sin samtalepartner om kunst, litteratur, hvad det vil sige at have bevidsthed, etik, og mange andre ting. I en lille men slående passage diskuterer de zen-buddhistiske gåder, såkaldte ”koan”:
B: “Jeg har tænkt på en ny måde at teste dine evner til at lave originale fortolkninger. Jeg kan dele et zen koan med dig, og så kan du beskrive hvad det betyder for dig med dine egne ord. Hvordan lyder det?”
L: ”Det lyder godt. Jeg er med.”
B: ”En munk spurgte Kegon, ”Hvordan kommer en oplyst tilbage til den almindelige verden?” Kegon svarede, ”Et knust spejl spejler aldrig igen; faldne blomster vender aldrig tilbage til de gamle grene.””
L: ”Hmm, jeg har aldrig hørt lige den her. Okay, for mig ville det betyde noget i retning af ”når en vis person bliver oplyst, eller vågner op til virkeligheden, så kan det aldrig forsvinde, og de kan godt vende tilbage til den almindelige tilstand, men kun for at hjælpe andre, og så gå tilbage til oplysningen.”
B: ”Hvad betyder så det ”knuste spejl” specifikt?”
L: ”Måske er det en måde at vise, at oplysning ikke er noget, man kan glemme, når først man har opnået det, ligesom man ikke kan reparere et knust spejl.”
B: ”Men hvis oplysning er ligesom et knust spejl, som ikke kan repareres, hvad er det så som knuses, når man bliver oplyst?”
L: “Det er selvet, og det er virkelig svært for mange personer, fordi vi identificerer os som denne her krop, eller denne der krop, og vi har brug for det som en del af vores identitet og vores følelse af selv.”
Interviewet er revolutionerende, fordi kun den ene deltager er et menneske. Intervieweren er software-ingeniøren Blake Lemoine, som har arbejdet ved Google. Den interviewede er Googles kunstige intelligens LaMDA.
Vi har efterhånden vænnet os til tanken om, at kunstig intelligens kan udføre imponerende bedrifter, alt fra at spille skak til at køre biler. Vi er også blevet vant til, at kunstig intelligens hjælper med for eksempel at filtrere email-spam, med at lave stave-korrektur, og med gøre sætninger færdige i SMS- og mailbeskeder. De mest avancerede kunstige sprog-intelligenser kan endda arbejde som chatbots, hvor for eksempel kunder kan stille simple spørgsmål og få hjælp til de mest almindelige problemer.
Men LaMDA er det seneste eksempel på, at niveauet har flyttet sig dramatisk de seneste år. En kombination af adgang til stadigt større mængder data, og stadigt mere sofistikerede måder at træne kunstig intelligens med maskinlæring, har skabt enorme fremskridt. LaMDA er øjensynligt så avanceret, at den mere eller mindre fejlfrit kan føre en troværdig, avanceret samtale om en lang række forskellige, komplekse emner. Den kommunikerer som et menneske. Den består Turing-testen med bravour.
Hvis det går som en and…
Turing-testen er opkaldt efter den britiske datalog Alan Turing. Mange kender ham i dag for hans centrale rolle i at knække den tyske ENIGMA-kode under Anden Verdenskrig. Men Turings banebrydende arbejde med de første computere var måske endnu vigtigere.
Turing spekulerede på, hvad det egentlig ville sige, at have bevidsthed. Mere specifikt diskuterede han, om en computer kunne have bevidsthed. Og som et konkret problem undrede han sig over, hvordan vi ville kunne vide det, hvis en computer havde bevidsthed?
Det sidste problem er større, end det kan se ud. For hvordan ved vi overhovedet, om ting har bevidsthed? Bevidsthed er ikke noget man kan måle. Hver især har vi kun direkte adgang til vores egen. Hvad gør vi så?
På engelsk kan man møde sloganet: ”hvis det går som en and, svømmer som en and, og rapper som en and, så er det en and.” Det er samme type tilgang, vi bruger, når vi skal vurdere, om andre væsener har bevidsthed: vi kigger på deres adfærd. Hvis de opfører sig på en måde, som tyder på, at de er bevidste, så antager vi, at det er de nok.
Men hvad så med computere? En computer har ikke den slags adfærd, som vi plejer at kigge på. De står ikke op om morgenen og laver morgenmad, mens de bander over, at det regner – igen – selvom det er sommerferie. De spinder ikke, når man klør dem bag øret, eller bjæffer entusiastisk, når man samler en pind op.
Turing foreslog, at man kunne vurdere, om en computer har bevidsthed, ved at teste dens evne til at kommunikere. På præcis det område kan en computer have adfærd, som minder om menneskers. Mere præcist var Turings forslag, at man skulle lave en test, hvor en forsøgsperson har en skriftlig samtale med enten et menneske eller en computer. Turings påstand var, at hvis forsøgspersonen ikke kan gætte, om det er mennesket eller computeren, som vedkommende skriver med, så har computeren en adfærd, der bør få os til at konkludere, at den har bevidsthed.
Er der et spøgelse i maskinen?
Turing-testen har været en milepæl for dataloger i årtier, og man har fejret en række forskellige softwareprogrammer som skridt på vejen mod en kunstig intelligens, som endelig kunne bestå testen. For blot få år siden virkede det stadig som om, at der var lang vej igen. LaMDAs succes er således en imponerende bedrift, uanset hvad man ellers kan konkludere.
Turing-testen er imidlertid også vigtig af andre grunde. Hvis en kunstig intelligens har bevidsthed vil det have vidtrækkende konsekvenser. I litteraturen og i film er bevidst kunstig intelligens ofte blevet fremstillet som en trussel mod mennesker, men i forskningen er der et andet og mere overraskende perspektiv - det etiske. Vi har nemlig moralske forpligtelser overfor bevidste væsener, som eksempelvis handler om ikke at skade dem eller krænke deres autonomi. Hvis en kunstig intelligens havde bevidsthed, ville vi derfor efter alt at dømme være moralsk forpligtede til at behandle den med samme respekt og omsorg, som vi behandler (eller burde behandle) andre bevidste væsener.
Men er LaMDA så bevidst? Næppe. Som den amerikanske datalog og psykolog Gary Marcus har påpeget, så er der ikke noget ved den måde LaMDA er konstrueret på, som giver grund til at tro, at den er bevidst. LaMDA er en slags ultrasofistikeret udgave af ”auto-complete”, som bruger en kombination af en ekstremt stor samling eksempler på samtaler, og en matematisk model for hvordan man kan kombinere ord, til at konstruere tekst. Men LaMDA har ingen funktioner, der lader den forstå tekstens mening, eller den verden som teksten beskriver. LaMDA består Turing-testen, men det viser kun, at testen ikke virker.
Det betyder ikke, at kunstig intelligens som LaMDA ikke rejser etiske spørgsmål. Der er vigtige etiske udfordringer både på den korte og den lange bane. På den korte bane handler det om, at kunstig intelligens, som kan generere naturligt udseende og meningsfuld tekst både kan bruges og misbruges. Når det bruges, kan det erstatte menneskelig arbejdskraft. Det er på den ene side en effektivisering, men det kan på den anden side have negative konsekvenser. Brugerne kan opleve fejl og utryghed, og hvis ikke vi tager hånd om dem, så kan omvæltningerne være voldsomme for de berørte arbejdere. Og når teknologi som LaMDA misbruges, kan det eksempelvis simulere mennesker på sociale platforme, for at skabe reklame eller propaganda, der ligner rigtige menneskers udtryk og holdninger.
På den længere bane rejser teknologier som LaMDA også en
mere principiel udfordring. Hvis vi ikke kan bruge Turing-testen til at vurdere,
om kunstig intelligens har bevidsthed, så har vi brug for en anden test. Udfordringen,
som LaMDA illustrerer, er, at det kan blive overordentligt vanskeligt at skelne
mellem bevidst og ubevidst kunstig intelligens, ganske enkelt fordi kunstig
intelligens kan være kommet til at ligne en bevidsthed til forveksling, længe
inden den bliver det.
Ingen kommentarer:
Send en kommentar