fredag den 17. juni 2022

Zen og kunsten at maskinlære en kunstig intelligens

For nylig publicerede det amerikanske Medium et revolutionerende interview. Intervieweren taler med sin samtalepartner om kunst, litteratur, hvad det vil sige at have bevidsthed, etik, og mange andre ting. I en lille men slående passage diskuterer de zen-buddhistiske gåder, såkaldte ”koan”:

B: “Jeg har tænkt på en ny måde at teste dine evner til at lave originale fortolkninger. Jeg kan dele et zen koan med dig, og så kan du beskrive hvad det betyder for dig med dine egne ord. Hvordan lyder det?”

L: ”Det lyder godt. Jeg er med.”

B: ”En munk spurgte Kegon, ”Hvordan kommer en oplyst tilbage til den almindelige verden?” Kegon svarede, ”Et knust spejl spejler aldrig igen; faldne blomster vender aldrig tilbage til de gamle grene.””

L: ”Hmm, jeg har aldrig hørt lige den her. Okay, for mig ville det betyde noget i retning af ”når en vis person bliver oplyst, eller vågner op til virkeligheden, så kan det aldrig forsvinde, og de kan godt vende tilbage til den almindelige tilstand, men kun for at hjælpe andre, og så gå tilbage til oplysningen.”

B: ”Hvad betyder så det ”knuste spejl” specifikt?”

L: ”Måske er det en måde at vise, at oplysning ikke er noget, man kan glemme, når først man har opnået det, ligesom man ikke kan reparere et knust spejl.”

B: ”Men hvis oplysning er ligesom et knust spejl, som ikke kan repareres, hvad er det så som knuses, når man bliver oplyst?”

L: “Det er selvet, og det er virkelig svært for mange personer, fordi vi identificerer os som denne her krop, eller denne der krop, og vi har brug for det som en del af vores identitet og vores følelse af selv.”

Interviewet er revolutionerende, fordi kun den ene deltager er et menneske. Intervieweren er software-ingeniøren Blake Lemoine, som har arbejdet ved Google. Den interviewede er Googles kunstige intelligens LaMDA.  

Vi har efterhånden vænnet os til tanken om, at kunstig intelligens kan udføre imponerende bedrifter, alt fra at spille skak til at køre biler. Vi er også blevet vant til, at kunstig intelligens hjælper med for eksempel at filtrere email-spam, med at lave stave-korrektur, og med gøre sætninger færdige i SMS- og mailbeskeder. De mest avancerede kunstige sprog-intelligenser kan endda arbejde som chatbots, hvor for eksempel kunder kan stille simple spørgsmål og få hjælp til de mest almindelige problemer.  

Men LaMDA er det seneste eksempel på, at niveauet har flyttet sig dramatisk de seneste år. En kombination af adgang til stadigt større mængder data, og stadigt mere sofistikerede måder at træne kunstig intelligens med maskinlæring, har skabt enorme fremskridt. LaMDA er øjensynligt så avanceret, at den mere eller mindre fejlfrit kan føre en troværdig, avanceret samtale om en lang række forskellige, komplekse emner. Den kommunikerer som et menneske. Den består Turing-testen med bravour.

Hvis det går som en and…

Turing-testen er opkaldt efter den britiske datalog Alan Turing. Mange kender ham i dag for hans centrale rolle i at knække den tyske ENIGMA-kode under Anden Verdenskrig. Men Turings banebrydende arbejde med de første computere var måske endnu vigtigere.

Turing spekulerede på, hvad det egentlig ville sige, at have bevidsthed. Mere specifikt diskuterede han, om en computer kunne have bevidsthed. Og som et konkret problem undrede han sig over, hvordan vi ville kunne vide det, hvis en computer havde bevidsthed?

Det sidste problem er større, end det kan se ud. For hvordan ved vi overhovedet, om ting har bevidsthed? Bevidsthed er ikke noget man kan måle. Hver især har vi kun direkte adgang til vores egen. Hvad gør vi så?

På engelsk kan man møde sloganet: ”hvis det går som en and, svømmer som en and, og rapper som en and, så er det en and.” Det er samme type tilgang, vi bruger, når vi skal vurdere, om andre væsener har bevidsthed: vi kigger på deres adfærd. Hvis de opfører sig på en måde, som tyder på, at de er bevidste, så antager vi, at det er de nok.

Men hvad så med computere? En computer har ikke den slags adfærd, som vi plejer at kigge på. De står ikke op om morgenen og laver morgenmad, mens de bander over, at det regner – igen – selvom det er sommerferie. De spinder ikke, når man klør dem bag øret, eller bjæffer entusiastisk, når man samler en pind op.

Turing foreslog, at man kunne vurdere, om en computer har bevidsthed, ved at teste dens evne til at kommunikere. På præcis det område kan en computer have adfærd, som minder om menneskers. Mere præcist var Turings forslag, at man skulle lave en test, hvor en forsøgsperson har en skriftlig samtale med enten et menneske eller en computer. Turings påstand var, at hvis forsøgspersonen ikke kan gætte, om det er mennesket eller computeren, som vedkommende skriver med, så har computeren en adfærd, der bør få os til at konkludere, at den har bevidsthed.

Er der et spøgelse i maskinen?

Turing-testen har været en milepæl for dataloger i årtier, og man har fejret en række forskellige softwareprogrammer som skridt på vejen mod en kunstig intelligens, som endelig kunne bestå testen. For blot få år siden virkede det stadig som om, at der var lang vej igen. LaMDAs succes er således en imponerende bedrift, uanset hvad man ellers kan konkludere.

Turing-testen er imidlertid også vigtig af andre grunde. Hvis en kunstig intelligens har bevidsthed vil det have vidtrækkende konsekvenser. I litteraturen og i film er bevidst kunstig intelligens ofte blevet fremstillet som en trussel mod mennesker, men i forskningen er der et andet og mere overraskende perspektiv - det etiske. Vi har nemlig moralske forpligtelser overfor bevidste væsener, som eksempelvis handler om ikke at skade dem eller krænke deres autonomi. Hvis en kunstig intelligens havde bevidsthed, ville vi derfor efter alt at dømme være moralsk forpligtede til at behandle den med samme respekt og omsorg, som vi behandler (eller burde behandle) andre bevidste væsener.

Men er LaMDA så bevidst? Næppe. Som den amerikanske datalog og psykolog Gary Marcus har påpeget, så er der ikke noget ved den måde LaMDA er konstrueret på, som giver grund til at tro, at den er bevidst. LaMDA er en slags ultrasofistikeret udgave af ”auto-complete”, som bruger en kombination af en ekstremt stor samling eksempler på samtaler, og en matematisk model for hvordan man kan kombinere ord, til at konstruere tekst. Men LaMDA har ingen funktioner, der lader den forstå tekstens mening, eller den verden som teksten beskriver. LaMDA består Turing-testen, men det viser kun, at testen ikke virker.

Det betyder ikke, at kunstig intelligens som LaMDA ikke rejser etiske spørgsmål. Der er vigtige etiske udfordringer både på den korte og den lange bane. På den korte bane handler det om, at kunstig intelligens, som kan generere naturligt udseende og meningsfuld tekst både kan bruges og misbruges. Når det bruges, kan det erstatte menneskelig arbejdskraft. Det er på den ene side en effektivisering, men det kan på den anden side have negative konsekvenser. Brugerne kan opleve fejl og utryghed, og hvis ikke vi tager hånd om dem, så kan omvæltningerne være voldsomme for de berørte arbejdere. Og når teknologi som LaMDA misbruges, kan det eksempelvis simulere mennesker på sociale platforme, for at skabe reklame eller propaganda, der ligner rigtige menneskers udtryk og holdninger.

På den længere bane rejser teknologier som LaMDA også en mere principiel udfordring. Hvis vi ikke kan bruge Turing-testen til at vurdere, om kunstig intelligens har bevidsthed, så har vi brug for en anden test. Udfordringen, som LaMDA illustrerer, er, at det kan blive overordentligt vanskeligt at skelne mellem bevidst og ubevidst kunstig intelligens, ganske enkelt fordi kunstig intelligens kan være kommet til at ligne en bevidsthed til forveksling, længe inden den bliver det.

torsdag den 16. december 2021

Hvem holder øje med algoritmerne?

Den hastige udvikling af algoritmer, som støtter eller træffer vigtige beslutninger, gør det nødvendigt at etablere nationale myndigheder, som overvåger udvikling og anvendelse, etablerer standarder, sikrer udførlige tests, og godkender algoritmer inden de tages i brug.

Den som ikke lærer af historien...

I 1937 lancerede den amerikanske medicinalvirksomhed Massengill et antibiotika, som blev døbt Elixir Sulfanilamid. Produktet indeholdt et nyt opløsningsmiddel, såkaldt diethylenglycol, som har en let sødlig smag. Det var hensigten, at den søde smag skulle gøre produktet mere egnet til børn.

Det kan være svært at forstå i dag, men i 1937 stillede myndigheder ikke krav til medicinalvirksomheder, om at teste nye produkter. Massengill udførte ikke en eneste test af Sulfanilamid, hverken på mennesker eller dyr. De gjorde sig ikke engang den ulejlighed, at undersøge det nye opløsningsmiddels kendte egenskaber. Hvis de havde gjort det, ville de have opdaget, at det er giftigt.

Resultatet var så tragisk som man kunne frygte. Over 100 personer døde af at indtage Sulfanilamid før produktet blev taget af markedet, heraf langt de fleste børn. Som direkte resultat af skandalen indførte man i Danmark i 1941 lovgivning, som stillede krav til medicinalvirksomheder om, at produkter skulle testes før de blev sendt på markedet.

Det krævede imidlertid en ny skandale godt tyve år senere, den langt mere kendte sag om Thalidomid, før man tog det næste skridt. Thalidomid var ganske vist blevet testet, før det blev sendt på markedet, men de udførte test var pinagtigt mangelfulde, og havde af samme grund ikke registreret en række katastrofale bivirkninger. Især gravide kvinder, som tog produktet for at dæmpe graviditetskvalme, var udsat for en meget høj risiko for alvorlige misdannelser på fostret. Globat blev omkring 10.000 børn født med alvorlige skader af Thalidomid.

Thalidomid-skandalen førte til, at der blev indført præcise og krævende standarder for hvordan lægemidler skal testes, før de sættes på markedet, og der blev oprettet specialiserede myndigheder, med ansvar for at godkende produkterne, og den institutionaliserede ekspertise, som er nødvendig, for kritisk at kunne vurdere, om testkravene er overholdt.

Resultatet findes i dag i Danmark i form af Lægemiddelstyrelsen. Den har lidt over 600 medarbejdere, mange af dem højt specialiserede forskere og eksperter. Det koster naturligvis ikke bare én men en hel del bondegårde, at drive en sådan institution. Begrundelsen for at gøre det er ligetil: den almindelige forbruger har hverken kompetence eller ressourcer til at kunne vurdere lægemidlers virkning, og uden en kritisk og kompetent myndighed til at sikre testning og godkende produkter risikerer vi, at patienter og forbrugere lider alvorlige skader, ganske som ved fortidens skandaler.

Når det i dag virker indlysende, at regulering, overblik og kontrol er afgørende for at sikre lægemidlers kvalitet, kan det måske undre, at det tog så lang tid at indføre det. Hvorfor indførte man ikke en lægemiddelstyrelse allerede i begyndelsen af det 20. århundrede? Svaret er, at de nye lægemidler var en del af en medicinsk revolution, hvor ny viden og teknologi dramatisk udvidede mulighederne for at udvikle og udbrede lægemidler. Som i så mange andre tilfælde haltede lovgivning og institutioner efter den hastige teknologiske udvikling.

Algoritmiske midler

Hvor den moderne lægemiddelindustris udvikling var en af det 20. århundredes teknologiske gennembrud, så er udviklingen af avancerede former for kunstig intelligens med maskinlæring en igangværende teknologisk revolution for det 21. århundrede. Selvkørende biler, tale- og billedgenkendelse, og selvlærte skakprogrammer er blot nogle af de mest prominente eksempler på sådan kunstig intelligens, som for få årtier siden var så godt som science fiction.

Maskinlæring er en måde at udvikle kunstig intelligens, hvor én algoritme lærer af data, og bruger denne læring til at “træne” en anden algoritme, så denne bedst muligt kan løse en opgave. Deepminds berømte skak- og go-spillende program, Alphazero, lærte at vinde, ved at spille tusindevis af spil mod sig selv, og gradvist justere den algoritme, som vurderer hvad det bedste træk er.

Algoritmer udviklet med maskinlæring kan bruges til mange forskellige ting, mange af dem trivielle. Men i stadigt flere tilfælde bruges de også til at træffe eller støtte meget vigtige beslutninger. Det kan for eksempel være medicinske diagnoser, godkendelse af lån, sortering af jobansøgere, eller endda vurdering af risici i forbindelse med varetægtsfængsling og prøveløsladelse.

Algoritmiske risici

I de tilfælde, hvor en algoritme har indflydelse på vigtige beslutninger, medfører anvendelsen også en række risici. Algoritmer kan helt enkelt begå fejl, men de rejser også udfordringer knyttet til eksempelvis privatliv og diskrmination. Lad os kigge på et par eksempler.

For 10 år siden udfordrede IBM to stormestre til at konkurrere mod deres kunstige intelligens, Watson, i det amerikanske quiz-program “Jeopardy”. Jeopardy blev betragtet som et ekstremt udfordrende spil for en kunstig intelligens, fordi det kræver at algoritmerne fortolker og forstår naturligt sprog. Derudover skal spilleren kunne trække på et højt niveau af bred, kontekstfølsom viden. Ikke desto mindre vandt IBMs Watson overbevisende over de menneskelige stormestre.

Kampene viste imidlertid også nogle af svaghederne ved den kunstige intelligens. Watson var ikke i stand til at forstå sine medspilleres svar, og kunne derfor gentage deres fejl. En medspiller forsøgte sig med svaret ”Hvad er ’20’erne?”, fik at vide det var forkert, hvorpå Watson forsøgte ”Hvad er 1920’erne?”, hvilket naturligvis også er forkert. Og på anden-dagen foreslog Watson den canadiske by Toronto som svar på et spørgsmål i kategorien ”Byer i USA”.

Når Watson begår fejl i Jeopardy kan man nøjes med at trække på smilebåndet, men IBM havde større ambitioner for deres opfindelse. Det første store forsøg var, at få Watson til at hjælpe med at stille medicinske diagnoser, især af kræft. Desværre viste det sig, at kræftdiagnoser er en langt større udfordring for en kunstig intelligens end Jeopardy. De medicinske data var mere komplekse og fejlbehæftede, så Watsons diagnoser fik stærkt svingende kvalitet. Det var (og er) et alvorligt problem, for  hvis Watson stiller den forkerte diagnose, så risikerer patienter at dø. Det giver sig selv, at når det drejer sig om så vigtige beslutninger, så er det helt afgørende, hvor mange fejl en algoritme laver.

Sexistiske og snagende algoritmer

En anden risiko er, at algoritmer kan forskelsbehandle udsatte grupper. Det kan ofte ske helt uden, at udvikleren har nogen intentioner om at forskelsbehandle. I et meget omtalt eksempel viste det sig eksempelvis, at Amazons algoritme til prioritering af ansøgere klart foretrak mænd frem for kvinder. Amazon havde designet algoritmen til at forsøge at finde ansøgere, som mindede om deres succesfulde medarbejdere. Men langt de fleste af firmaets hidtidige ansatte var mænd. Den forskel opfangede og anvendte algoritmen, ikke ved direkte at behandle mænd og kvinder forskelligt, men ved at forskelsbehandle på baggrund af mange andre små forskelle mellem mandlige og kvindelige ansøgere. Derved endte den med at gentage og måske endda forstærke historisk diskrimination.

Da forskelsbehandlingen blev opdaget skyndte Amazon sig at kassere algoritmen, men lignende udfordringer kan opstå for alle de grupper vi traditionelt er bekymrede for: etniske, religiøse og seksuelle minoriteter, børn, unge og ældre, personer med handicap, og forskellige køn. Maskinlæring er virkelig godt til at finde statistiske forskelle i data, og hvis sådanne forskelle findes, så trænes normalt en algoritme som forskelsbehandler. Det betyder at alle algoritmer har risiko for at forskelsbehandle alle grupper.

Den tredje risiko er, at algoritmer kan udfordre vores privatliv. Meget af debatten om privatliv har handlet om indsamling og deling af private data. Den problemstillig er også vigtig, blandt andet fordi indsamling og deling af data i stigende grad er rmotiveret af de muligheder, som maskinlæring og algoritmiske beslutninger giver. Men en måske endnu mere væsentlig risiko, er udvikling og anvendelse af algoritmer, som kan udlede privat information.

De fleste af os kender de algoritmer, som anbefaler film, baseret på hvad man tidligere har set. Fordi anbefalingerne afspejler algoritmens vurdering af en persons interesser, kan det være afslørende alene at vise andre personer hvilke film streamingtjenesten anbefaler. De fleste af os ville eksempelvis nok rynke en smule på panden, hvis vi ved et besøg hos en ny bekendt tænder fjernsynet, og opdager at Netflix alene anbefaler dokumentarfilm om seriemordere.

Et mere alvorligt eksempel er, at algoritmer ofte kan udlede meget private informationer om personer på baggrund af tilgængelige data. Det kan eksempelvis være seksualitet eller politisk overbevisning.Det giver sig selv, at det kan være problematisk, hvis sådanne informationer afsløres, i nogle lande endda livsfarligt.

Hvorfor en specialiseret styrelse for datamidler?

Man kan spørge, om det virkelig er nødvendigt, med en specialiseret styrelse for datamidler. Kan man for eksempel ikke overlade det til eksisterende institutioner som Datatilsynet og Ligebehandlingsnævnet at overvåge algoritmerne og håndhæve standarder?

Når det kan være nødvendigt med en specialiseret myndighed, skyldes især to forhold. For det første, at algoritmer ofte kan være teknisk uigennemskuelige, og for det andet, at det i mange tilfælde er vanskeligt at vurdere, om relevante standarder og krav er overholdt.

Algoritmisk uigennemskuelighed betyder, at det er vanskeligt eller umuligt, at forstå hvordan en algoritme virker. Det kan have tre forskellige årsager. For det første, at udvikleren kan have gode grunde til at holde detaljer om algoritmen hemmelige, for eksempel for at beskytte forretningshemmeligheder. For det andet, at det typisk kræver et højt niveau af datalogiske kompetencer, at forstå selv relativt simple algoritmer. Og for det tredje, at nogle algoritmer er så komplekse, at det selv for eksperter er umuligt at overskue hvordan alle de forskellige dele virker til sammen.

En specialiseret myndighed har mulighed for at tackle alle tre udfordringer. Dels kan den fortroligt analysere og vurdere algoritmer, uden at udvikleren behøver at dele detaljer om algoritmen med andre. Dels vil myndigheden kunne ansætte eksperter med de tekniske forudsætninger for at analysere og forstå algoritmer. Og endelig vil den kunne afsætte de nødvendige ressourcer til at analysere teknisk uigennemskuelige algoritmer med tekniske redskaber, så kaldt ”explainable AI”. Det er typisk muligt, at få svar på vigtige spørgsmål om uigennemskuelige algoritmers risici ved at analysere dem, men for en institution kræver det både at den ved hvad man skal spørge om, at den har eksperter ansat med de tekniske kompetencer som er nødvendige for at foretage analyserne, og at den har mulighed for at afsætte de betydelige ressourcer, som er nødvendige for at lave sådanne analyser.

Uklare regler og standarder

Det andet forhold, som taler for en specialiseret myndighed er, at det ofte er vanskeligt at vurdere om relevante standarder og krav er overholdt. Det skyldes i nogle tilfælde, at eksisterende lovgivning ikke er udformet med blik for algoritmiske beslutningssystemer. I sådanne tilfælde kan loven være vanskelig at anvende. Den juridiske beskyttelse mod indirekte diskrimination er eksempelvis væsentligt svagere og mindre præcis end beskyttelsen mod direkte diskrimination. Men netop indirekte diskrimination er den mest presserende risiko ved algoritmiske beslutningssystemer. Det er således nødvendigt at foretage komplekse fortolkninger af eksisterende lovgivning og de særlige forhold som knytter sig til lige præcis algoritmiske beslutninger, hvis man skal anvende diskriminationsforbuddet på algoritmer.

I andre tilfælde skyldes det, at selv målrettet lovgivning er uklar. EU's persondataforordning opsætter eksempelvis stramme regler, som skal beskytte borgeres privatliv. Men beskyttelsen er ofte underlagt en proportionalitetsafvejning, hvor visse indskrænkninger af privatlivet kan forsvares, hvis de i tilstrækkelig grad tjener et sagligt formål. Det er imidlertid uklart hvordan man konkret skal afveje proportionalitet, og dermed meget vanskeligt at sige hvornår man faktisk kan forsvare algoritmiske indskrænkninger i privatlivet.

En specialiseret myndighed vil have mulighed for dels at ansætte den nødvendige faglige ekspertise til at vurdere og håndhæve standarder og krav. Men den vil også, hvis den gives det rigtige grundlag, have mulighed for at udvikle og etablere standarder, der hvor de er principielt uklare.

Hvorfor ikke en datamiddelstyrelse?

I lyset af den success, som Lægemiddelstyrelsen har haft, og de åbenlyse risici som udvikling og anvendelse af algoritmer rejser, synes det oplagt at spørge, hvorfor Datamiddelstyrelsen ikke holder styr på algoritmerne? Hvorfor sætter den ikke lovpligtige standarder, gennemfører omfattende obligatoriske test før en algoritme kan tages i anvendelse, og løbende overvågning af anvendte algoritmer, med krav om at justere eller tage algoritmen ud af drift, når der viser sig at være relevante problemer?

Det korte svar er selvfølgelig, at der ikke findes en Datamiddelstyrelse. Udvikling og anvendelse af algoritmer er groft sagt overladt til den enkelte aktør, uden klare standarder og systematisk myndighedskontrol. Eksisterende myndigheder kan bidrage, men de skal løfte de nye, krævende opgaver oven i deres eksisterende og uden de institutionelle rammer. Ligesom det var tilfældet for lægemidler i begyndelsen og midten af det 20. århundrede, så halter regulering og institutioner bagefter den teknologiske og sociale udvikling

Så hvorfor ikke en datamiddelstyrelse? Det mest almindelige argument imod regulering og kontrol er, at det vil begrænse eller forsinke innovation. Den opfattelse er imidlertid udtryk for et for snævert perspektiv på udviklingen. Ikke al innovation er teknologisk. Udviklingen af institutioner, regulering, test og standarder er også en innovationsprocess, som skal hjælpe os med at træne de rigtige algoritmer på den rigtige måde. 

Etableringen af en Datamiddelstyrelse vil være et vigtigt skridt på vejen. Jo før vi tager det, jo mindre vil vores efterkommere undre sig over, at det tog os så lang tid, at skabe en institution som er så åbenlyst en god ide.

tirsdag den 7. december 2021

Børnevaccinationer, Brandolinis lov og Corona-vaccineskepsis

The BS asymmetry principle - Sketchplanations

Danmark har netop åbnet for vaccination af 5-11 årige børn mod Corona-virus (min søn skal have det første stik Pfizer i næste uge). 

Det er en god udvikling i lyset af, at der bliver ved med at dukke nye varianter op (hej Omikron!), og at smitten i det meste af Europa igen er på et niveau, hvor det er nødvendigt at genindføre sociale restriktioner (hej igen mundbind!). Ved at udbrede vaccination til børnegruppen øger vi flokimmuniteten. Det beskytter de mest sårbare, begrænser behovet for sociale restriktioner, og reducerer den lille risiko vi alle sammen har, selv de unge og fuldt vaccinerede, for at blive alvorligt syge af COVID.  

Vaccineskeptikere har imidlertid behandlet dette som en kærkommen lejlighed, til at lufte både gamle klassikere og nye opfindelser. Desværre.

Desværre fordi de forskere, som arbejder med Corona har rigeligt andet at se til. De studerer selvfølgelig vacciner og deres effekter, men også for eksempel effekten af forskellige typer behandling, hvilke tiltag som bedst beskytter sundhedspersonale der arbejder med COVID-patienter, de bedste måder at begrænse smitte i forskellige sammenhænge (plejehjem, børnehaver, etc.), effekten af rejserestriktioner, kvaliteten af forskellige tests, og meget mere. Det er vigtigt arbejde, som de gerne skulle bruge deres tid på. Hvis de i stedet skal bruge tiden på at punktere vaccineskeptisk misinformation, så går deres egentlige forskning langsommere.

Problemet forstørres af det fænomen, som ofte kaldes Brandolinis lov: det er let og hurtigt at fremsætte en følelsesladet nonsens-påstand. Det er besværligt og tidskrævende, at formidle en grundig og sober demonstration af, hvorfor påstanden er nonsens. Det skaber en ubalance mellem arbejdsbyrden for vaccineskeptikere og forskere (som jeg selv har erfaring med, f.eks. her, her, her og her). Resultatet er, at der altid vil være mere vaccineskeptisk misinformation i omløb, end forskere kan imødegå og punktere. Selvom der findes utroligt dygtige forskere, der påtager sig ansvaret for oplysning af den offentlige debat (Roberto Burioni! Ben Goldacre!), så er der ganske enkelt ikke nok forskere, med nok tid til overs, til at luge ud i ukrudtet.

Af de samme grunde har jeg forsøgt at holde mig fra, at blande mig i debatten igen. Det er noget tid siden jeg rigtigt har fulgt litteraturen (andet end på hobby-niveau), og jeg har travlt med min egentlige forskning (lige nu om hvordan vi helt præcist skal definere straf, samt om diskrimination i kunstig intelligens). 

I dag faldt jeg så i alligevel. Selvom man ikke kan forvente at udrydde vaccineskeptisk misinformation, så kan man godt fra tid til anden tage en tørn, og fjerne nogle af de værste tidsler. Og der er et par tidsler i debatten, som stikker mig så meget i øjet, at jeg ikke kan holde det ud. Så lad os kigge på et par af de værste ideer, som netop nu florerer.

(De værste? Okay, måske ikke de allerværste. Der findes en række myter om Corona-vacciner, som er så skøre, at de ikke er værd at bruge tid på, f.eks. at det er vaccinerne, som skaber de nye virusvarianter, at vaccination gør den vaccinerede infertil, at de omskriver den vaccineredes DNA(!), at de indeholder microchips designet til at spore personer(!?), og at de gør den vaccinerede magnetisk(!?!))

"Vi bruger børn til at beskytte de voksne!"

 Argumentet er her følgende: 

1) Vaccination af børn skader samlet set børnene, men gavner voksne, som nyder godt af øget flokimmunitet.

2) Det er forkert at skade børn, for at gavne voksne.

K) Det er forkert at vaccinere børn. 

Argumentet er logisk gyldigt, så hvis præmisserne er sande, så er konklusionen det også. Der er imidlertid grund til at tvivle på begge præmisser. 

Præmis 2 kan hvile enten på en generel ide, om at vi ikke må skade en person eller gruppe, for at gavne en anden person eller gruppe. Den generelle ide er imidlertid indlysende problematisk, for den type handling og politik er helt almindelig, og i de fleste tilfælde ukontroversiel. Hvis for eksempel byrådet beslutter at lave kommunens golfbane om til fodboldbaner, fordi langt flere vil få gavn af det sidste end af det første, så gavner de jo derved fodboldfans på bekostning af golffans. Det opfatter de færreste af os som problematisk. 

Der hvor det typisk er oplagt problematisk at skade nogle, for at gavne andre, er hvis der er tale om en handling, som forårsager mere skade end gavn. Det kan dels skyldes handlingens karakter, men det kan også skyldes at handlingen rammer en særligt sårbar gruppe. Hvis en regering eksempelvis skærer i velfærdsydelser for en udsat gruppe, for at finansiere skattesænkninger for en allerede priviligeret gruppe, så kan det ofte være tilfældet, at omfordelingen skader langt mere end den gavner.

Den bedste måde at forsvare præmis 2 på er derfor nok at hævde, at børn er en særligt sårbar gruppe, som vi har særlige moralske forpligtelser overfor.

Selv hvis det er tilfældet, så er det ikke indlysende, at præmissen er sand i netop denne sammenhæng. Der må indlysende være grænser for, hvor meget vægt hensynet til børn skal have. Vi kan for eksempel forestille os, at Corona var langt mere dødbringende for voksne, men fortsat havde samme lave risici for børn. Hvis valget eksempelvis stod mellem at lade hundredetusindevis af voksne danskere dø eller at vaccinere børn, så ville de fleste nok mene, at vi var nødt til at vaccinere børnene. Uanset hvor stærkt behov man som forælder har for at beskytte sine børn (og det er imponerende stærkt, i hvert fald når man som lige præcis jeg, har været så heldig at få de uden tvivl mest vidunderlige børn i hele verden), så er det køligt betragtet altid et åbent spørgsmål, om vi i en given situation bør skade børn for at gavne voksne, hvis svar afhænger af balancen mellem hvor meget børn skades og de voksne gavnes.

Er vi så nødt til at lave den vanskelige afvejning? Nej, det er vi ikke. For det første præmis er falsk. Det er nemlig efter alt at dømme forkert, at vaccination af børn skader dem mere end det gavner dem. Tværtimod gavner Corona-vaccination både voksne og børn.

Gavn og risici ved Corona-vacciner

Hvorfor gavner vaccination efter alt at dømme børn? Fordi Corona-vacciner har en virkelig god risikoprofil. Det betyder at kun meget milde bivirkninger er almindelige, mens milde bivirkninger er sjældne, og alvorlige bivirkninger er så sjældne, at de næsten ikke kan måles pålideligt (her under i meget runde tal):

Omkring 30% af vaccinerede oplever tilsyneladende ingen bivirkninger overhovedet.

Omkring 50% oplever kortvarig (1-2 dage) stivhed og ømhed i skulderen.

Omkring 10-15% oplever kortvarig træthed, hovedpine og hævelse i skulderen.

Omkring 5-7% oplever kortvarige led- og muskelsmerter, kuldgysninger, kløe og/eller udslæt.

Omkring 3-4% oplever kortvarig feber og kvalme.

Det er naturligvis rarest at undgå alle bivirkninger, men selv de værste af de almindelige (omend relativt sjældne) bivirkninger er kun på niveau med eller mildere end de almindelige symptomer ved COVID. Hvis valget alene stod mellem at få en vaccine eller at blive smittet, så er der ingen tvivl om at det almindeligvis er langt værre at få sygdommen. Den giver større risiko for mere alvorlige symptomer i længere tid. 

Det samme gør sig gældende for de mere alvorlige, men mere sjældne bivirkninger. Nyere studier har eksempelvis kigget på de alvorlige problemer med blodpropper, som har været rapporteret som bivirkning ved især AstraZeneca og Johnson & Johnson vaccinerne. Det viser sig, at risikoen for sådanne er langt højere, når man bliver smittet med Corona, end ved vaccinen.

Børn bliver som det er almindelig kendt mindre syge af COVID end voksne, men selv for børn er bivirkningerne ved vaccination så små eller sjældne, at det efter alt at dømme er bedst for børn at blive vaccineret. Det betyder, at vi i virkeligheden skal vælge, om vi vil gavne børn og gavne voksne, ved at vaccinere begge grupper, eller om vi vil skade begge grupper, ved ikke at vaccinere. Det valg er ikke vanskeligt.  

"Vi kender ikke de langvarige risici ved vaccinerne!"  

De væsentligste yderligere indvendinger forsøger at udfordre ideen om, at vaccination gavner børn. Den ene almindelige variant er påstanden, at vi ikke kender de langvarige risici ved at vaccinere. 

Selvom de data vi har viser, at det på kort sigt er en fordel for børn at blive vaccineret, så kunne der godt vise sig at være langsigtede bivirkninger. Dem kan vi naturligvis ikke kende endnu. Men hvad nu hvis vaccinerne giver risiko for alvorlige bivirkninger, som først viser sig om 5 eller 10 år? Hvad nu, hvis vaccinen for eksempel forårsager autisme?

Indvendingen kan ikke afvises empirisk. Vi kan helt principielt ikke vurdere, hvilke ukendte, langsigtede risici en vaccine medfører. Men det betyder ikke, at den er en god grund til at afvise, at vaccinere. For at forklare hvorfor, er vi nødt til at snakke lidt om beslutningsteori.

I beslutningsteori skelner man mellem risici og usikkerheder. Risici er ting der kan ske, hvor vi kan sige i hvert fald et eller andet om, hvor sandsynligt det er, at de vil ske. Når vi ovenfor siger, at ca. 3-4% af vaccinerede, oplever feber og/eller kvalme, så er der tale om en risiko. Det har den fordel, at vi kan sammenligne fordele og ulemper, og eksempelvis beregne den forventede samlede effekt med såkaldt "expected utility theory". 

Usikkerheder ("uncertain outcomes") er ting der kan ske, hvor vi ikke kan sige noget om, hvor sandsynligt det er, at de sker. Det kan være, at Corona-vacciner viser sig på lang sigt at give nogle mennesker blå pletter over hele kroppen. Men vi kan ikke på nuværende tidspunkt sige hvad risikoen for dette er. Er den 1/1.000.000? Måske 1/1.000.000.000.000? Eller 1/1.000.000.000.000.000.000? Vi har ingen anelse, og ingen oplagt måde at få nogen anelse om det. Hvad stiller vi så op?

I de situationer, hvor der er usikkerheder der taler imod en handling, og de (kendte) risici iøvrigt er i balance, der er det rimeligt at lade usikkerhederne tippe balancen. Måske er fordele og ulemper ved Corona-vaccination af børn endda så tæt, at man kunne argumentere for, at usikkerhederne bør tippe balancen (det tror jeg ikke, men der kunne måske være begrundet uenighed). 

Men hvad med de situationer, hvor der er usikkerheder der både taler for og imod? For Corona-vaccination kender vi ikke, end ikke tilnærmelsesvis, sandsynligheden for endnu ukendte, langsigtede bivirkninger. Men vi kender heller ikke sandsynligheden for endnu ukendte, langsigtede skadevirkninger af Corona. Umiddelbart er der ingen grund til at tro, at de første skulle være mere (eller mindre) sandsynlige end de sidste. 

Tilsvarende kender vi ikke sandsynligheden for endnu ukendte, langsigtede gavnlige effekter af vaccinerne, eller endnu ukendte, langsigtede gavnlige effekter af sygdommen (de kan lyde uplausible, men vi kigger på noget i den dur om et øjeblik). 

Der er altså en række usikkerheder om ukendte langsigtede virkninger ved både sygdommen og vaccinen, som kunne være både skadelige og gavnlige. Hvad gør vi i den situation?

Det oplagte, og i forskningen alment anerkendte svar er, at vi ignorerer dem. Det ville være besynderligt kun at lægge vægt på nogle af dem, når vi ikke har grund til at tro, at nogle er mere sandsynlige end andre, eller at nogle er større effekter end andre. Og hvis vi tillægger dem alle samme vægt, så udligner de hinanden.

"Immunforsvaret bliver stærkere af sygdommen end af vaccinen!"

En sidste indvendig forbindes i dansk kontekst især med professor Christine Stabell Benn. Benns arbejde fokuserer i almindelighed på at vise, at det har gavnlige effekter, når immunforsvaret "trænes". 

Mere specifikt er hendes hypotese, som meget af hendes forskning undersøger, at der kan være sundhedsmæssige fordele ved at blive smittet snarere end vaccineret, eller ved at blive vaccineret med de typer vacciner, som indeholder levende, svækkede patogener fremfor andre typer vacciner. Hypotesen er, lidt bredt formuleret, at immunforsvaret bliver stærkere af at tage kampen op mod et egentligt patogen, end ved at slås med stedfortrædere. 

I sammenhæng med børnevaccinationer er ideen så følgende: 

1) Bivirkningerne ved Corona-vaccination er mindre skadelige end symptomerne ved smitte med Corona. 

2) Den gavnlige effekt ved smitte med Corona (immunitet) er større end ved Corona-vaccination.

3) For netop børn er forskellen mellem symptomer og bivirkninger (jf. 1) så lille, at den bedre immunitet ved smitte overstiger de større ulemper ved smitte.

K) Vi skader børn ved at vaccinere dem, fordi vi derved berøver dem en stor fordel (øget immunitet) for at give dem en lille fordel (færre ulemper ved bivirkninger end ved symptomer).

Argumentet er (næsten) gyldigt (strengt taget er de to første præmisser blot baggrund for den tredje præmis, og der er en implicit præmis, om at vi skader nogen, hvis vi tager en stor fordel fra dem for at give dem en lille fordel, men det her er ikke en fagtidsskriftsartikel). Hvad med præmisserne?

Det er værd at bemærke, at præmis 1) ofte ikke anerkendes af vaccine-skeptikere. Det bør den imidlertid, som vi ovenfor har set, så det er gavmildt overfor dem, at anvende den her, når argumentet stadig kan gennemføres. 

Præmis 3) er empirisk usikker (det afhænger af en præcis vurdering), men lad os blot for argumentets skyld sige, at hvis de to første præmisser var sande, så ville den også være det. Det efterlader kun præmis 2). Hvad skal vi mene om den?

Man skal være overordentlig forsigtig med at kaste sig ud i at vurdere videnskab udenfor sit eget fagområde. Det kræver som minimum, at man er villig til at afsætte meget væsentlige ressourcer (læs: flere måneders fuldtidsarbejde). Af samme grund tør jeg ikke vurdere Benns arbejde, eller om den generelle hypotese er plausibel.

Til gengæld kan man godt kigge på, hvad forskningen siger om Corona-vacciner specifikt. Der er nemlig lavet en lang række studier af, hvor god beskyttelse man opnår ved at blive henholdsvis vaccineret og smittet. De opsummeres af blandt andet de britiske immunologers selskab, og det amerikanske Centre for Disease Control. Særligt interessant er to nyere studier, som samler op på forskningen, henholdsvis Shenai et al. og Bozie et al

Hvis man kort skal opsummere hvad vi ved lige nu, så er det sådan cirka:

Der er fortsat så lidt data, og meget af det har så ringe kvalitet, at det er vanskeligt at vurdere spørgsmålet med høj sikkerhed.

De foreliggende data synes at vise, at vacciner og smitte er nogenlunde lige gode til at forhindre, at man bliver smittet igen. Det gælder også for de nyere varianter af Corona. 

Til gengæld vil yderligere vacciner med stor sikkerhed give endnu bedre beskyttelse, uanset om der er tale om det tredje stik for allerede vaccinerede, eller det første for tidligere smittede (se især Shenai et al.).

Vaccination er måske lidt bedre end tidligere smitte til at forhindre de mest alvorlige symptomer ved Corona, herunder hospitalsindlæggelse (se især Bozie et al.).

Man kan altså mene hvad man vil om den mere generelle hypotese, men der synes ikke at være noget, i de forhåndenværende data, som tyder på, at smitte med netop Corona giver væsentligt bedre (eller værre) beskyttelse end vaccination. Præmis 2 er falsk, og argumentet slår fejl. 

Vaccine-skepsis redux redux

Tre af de mest almindelige indvendiger mod Corona-vaccination af børn slår fejl. Det vil næppe anfægte skeptikerne. Vaccine-skeptikere er (ligesom andre mennesker i lignende situationer) så godt som umulige at få til at skifte mening med noget så luftigt som argumenter. 

Men de som blot måtte være usikre, og de der (som jeg selv) bliver gnavne over dårlige ræssonementer i den offentlige debat, kan med ro i sjælen ignorere strømmen af misinformation, og give sig selv og deres børn vaccinen. Også selvom der faktisk findes statistisk signifikante sammenhænge mellem vacciner og autisme.

torsdag den 2. december 2021

Fra LA til Chicago - om ytringsfrihed på universiteterne

Liberal Alliance har netop fremsat et beslutningsforslag i folketinget, om at indskrive de såkaldte "Chicago-principper" i universitetsloven.

Forslaget rejser i hvert fald tre spørgsmål: Er LA de rette til at stille et sådant forslag? Er det faktisk Chicago-principperne, som LA foreslår indført? Og sidst, men absolut vigtigst, er det en god ide, at indskrive Chicago-principperne (i en eller anden form) i universitetsloven?

Hvorfor LA..?

Hvad det første spørgsmål angår, må svaret være et klart og utvetydigt nej. Ved at føre en aldeles useriøs og substansløs kampagne mod fingeret pseudovidenskab har LA i almindelighed, og ordføreren Henrik Dahl i særdeleshed, effektivt diskvalificeret sig selv fra at blive taget alvorligt i forskningspolitikken (for en god ordens skyld: der er masser af ting, man kan kritisere i dansk forskning, og jeg er meget kritisk overfor meget af den forskning, som foregår i visse forskningsmiljøer, problemet var at Dahls kritik var tyndt belagt, forvridende og fejlbehæftet).

Lidt groft sagt, så kan LA komme tilbage, når de trukket beskyldningerne i land, undskyldt, og taget den uundgåelige konsekvens ved at skille sig af med Dahl. Indtil da kan de ikke forvente, at blive taget seriøst (hvilket realistisk set betyder, at vi aldrig kommer til at kunne tage LAs forskningspolitik seriøst - det tab må vi se, om vi kan finde styrke til at leve med...).

Det, at mange vil bedømme forslaget på grund af afsenderen generer imidlertid næppe LA, ligesom det formodentlig udgør en decideret fordel i den nuværende situation. Forslaget har nemlig en karakter, der gør det sandsynligt, at det først og fremmest er tænkt som et middel til at skabe opmærksomhed.

Hvis forskere og politikkere provokeres af, at netop LA stiller forslaget, og deraf foranlediges til at skrive om det, tjener det således antageligt LAs formål med forslaget. Jo mere larm og ballade, jo bedre for det lille parti, som flirter med spærregrænsen. I den henseende er indlæg som dette (desværre) vand på LAs mediemølle.

Chicago eller ej

Når det alligevel er værd at diskutere skyldes det, at den mere principielle diskussion er relevant og interessant. Men er det så faktisk Chicago-principperne, som vi snakker om? Som Thomas Brudholm har påpeget, er svaret også her nej. Først og fremmest fordi Chicago-principperne er et dokument i klartekst, ikke en række principper.

Den forskel kan naturligvis forsvares, hvis de principper, som LA foreslår, optræder i teksten, så de alene er fremsat i punktform. Men det er heller ikke tilfældet. LA foreslår følgende principper (her nummereret, for at gøre det lettere at henvise til dem): 

1) "Universitetet bygger på et grundlæggende princip om fuldstændig ytringsfrihed på alle områder."

1) er ikke et princip, som forfægtes i dokumentet, men en let omskrivning af et citat fra en tale fra 1902 af den daværende præsident for universitetet, William Rainey Harper, som anføres som inspiration for udviklingen af principperne.

2) "Uddannelse er ikke beregnet til at gøre folk komfortable."

3) "Uddannelse er beregnet til at få folk til at tænke."

2) og 3) er ligesom 1) lette omskrivninger af et nyere citat af universitetets præsident Hanna Holborn Gray, der også optræder som inspiration snarere end som principper.

4) "Det er ikke universitetets opgave at forsøge at beskytte enkeltpersoner mod ideer og meninger, som de finder uvelkomne, er uenige med eller endda finder dybt stødende."

4) er en oversættelse af "[I]t is not the proper role of the University to attempt to shield individuals from ideas and opinions they find unwelcome, disagreeable or even deeply offensive."Denne oversættelse er, så vidt jeg kan vurdere, loyal.

5) "Universitetet bærer et stort ansvar ikke kun for at fremme en livlig og frygtløs fri debat, men også for at beskytte denne frihed, når andre forsøger at begrænse den."

5) er en oversættelse af "[T]he University has a solemn responsibility not only to promote a lively and fearless freedom of debate and deliberation, but also to protect that freedom when others attempt to restrict it." Her er det påfaldende, at friheden til at tænke/overveje ("deliberation") udelades.

6) “Universitetet, og de personer som er tilknyttet det, deler ansvaret for at opretholde et klima med gensidig respekt. Dog kan ønsket om gensidig respekt aldrig bruges som en begrundelse for at begrænse den frie samtale, uanset hvor stødende eller uenige resten af samfundet måtte være i det sagte.”

6) er en oversættelse af "Although  the  University  greatly  values  civility,  and  although  all members  of  the  University  community  share  in  the  responsibility  for  maintaining  a climate of mutual respect, concerns about civility and mutual respect can never be used as a justification for closing off discussion of ideas, however offensive or disagreeable those ideas may be to some members of our community." Her er det især påfaldende, at den oprindelige tekst henviser til, at man ikke bør begrænse muligheden for at diskutere ideer, selv når disse ideer er kontroversielle, mens oversættelsen udvider princippet til at gælde "den frie samtale" som hele, og "det sagte". Der er væsentlig forskel på at beskytte muligheden for at diskutere kontroversielle ideer, og på at beskytte muligheden for at sige hvad man vil.

7) “Universitetet modarbejder dårlige ideer gennem åben diskussion frem for gennem censur.”

8) “Universitetets grundlæggende forpligtelse er at opretholde princippet om fri debat, og denne debat må ikke undertrykkes. Selv hvis de idéer, der fremsættes og debatteres, af nogle – eller selv af de fleste på universitetet – anses for at være stødende, ukloge, umoralske eller uetiske.”

7) og 8) er oversættelser og omskrivninger af "[T]he University’s fundamental commitment is to the principle that debate or deliberation may not be suppressed because the ideas put forth are thought by some or even by most members of the University community to be offensive, unwise, immoral, or wrong-headed. It is for the individual members of the University community, not for the University as an institution, to make those judgments for themselves, and to act on those judgments not by seeking to suppress speech, but by openly and vigorously contesting the ideas that they oppose." Oversættelsen er i 8) klodset, men nogenlunde tro. Til gengæld ændrer 7) indholdet radikalt, ved at pålægge universitetet en pligt, hvor den oprindelige tekst taler om, at de enkelte medlemmer af universitetsmiljøet skal danne deres egen mening, og handle på baggrund af denne ved at opponere mod ideer de er uenige med.

9) “Universitetet kan begrænse ytringer, der er i modstrid med loven, groft bagvasker et bestemt individ, eller indeholder trusler samt chikane, som mærkbart skader den enkeltes privatliv.” 

9) er en selektiv oversættelse af "The University may restrict expression that violates the law, that falsely defames a specific individual, that constitutes a genuine threat or harassment, that unjustifiably  invades substantial privacy or confidentiality interests, or that is otherwise directly incompatible with the functioning of the University." Her er det især interessant, at den sidste klausul udelades, da den jo giver mulighed for ikke nærmere specificerede begrænsninger.

Overordnet er der altså tale om et forslag, som på væsentlige måder er inspireret af, men absolut ikke identisk med de egentlige Chicago-principper. Det behøver naturligvis ikke være en ulempe – LAs forslag kunne være bedre end Chicago-principperne (det kigger vi på i næste afsnit, men jeg kan godt afsløre konklusionen: det er de ikke). Til gengæld er det falsk varebetegnelse, at sælge dem som Chicago-principperne.

Nok så interessant er der væsentlige dele af den oprindelige tekst, som er udeladt. Det gælder eksempelvis den indledende formulering, at "[b]ecause the University is committed to free and open inquiry in all matters, it guarantees all members of the University community the broadest possible latitude to speak, write, listen, challenge, and learn." Denne pointe er vigtig, fordi den blandt andet kan tolkes således, at eksempelvis forskere bør have mulighed for at tænke og ytre sig, herunder skrive forskningsartikler, uden at blive udsat for trusler eller pres fra politikere.

En anden pointe, som ikke er nået med er, at "fostering the ability of members of the University community to engage in such debate and deliberation in an effective and responsible manner is an essential part of the University’s educational mission." Den er også vigtig, fordi den peger på i hvert fald én central begrundelse for ytringsfrihed. Derved understreges også den ofte oversete pointe, at ytringsfrihed ikke er en rettighed mejslet i en stentavle, indført ved guddommeligt dekret. 

Ytringsfrihed er en konkret rettighed, som har fordele og ulemper. Afvejningen af disse fordele og ulemper er afgørende, når vi skal definere de præcise grænser for ytringsfrihed. Lejlighedsliberalister i den danske debat har en tendens til at forsimple og forfladige diskussionen ved at afvise eller ignorere dette forhold.

Skal ytringsfrihed ind i universitetsloven?

Det sidste, og absolut vigtigste spørgsmål, er hvad vi skal mene om LAs forslag. Skal ytringsfrihed, i en eller anden form, ind i universitetsloven? I givet fald hvilken form, og hvorfor?

Et første spørgsmål i den henseende, som er værd at tænke over, er følgende: hvis en lovændring er løsningen, hvad er så problemet? Det vil sige, hvad er det konkret, som vi kunne ønske os anderledes, og som en lovændring skal forsøge at lave om på?

Spørgsmålet er relevant, fordi den almindelige ytringsfrihed naturligvis også gælder for universitetsansatte. Forskere har endda en særlig udvidet ytringsfrihed, fordi de forventes at beskæftige sig med vanskelige og ofte også kontroversielle emner, og forventes at formidle deres forskningsresultater til resten af samfundet. Dette hensyn blev blandt andet fremhævet i den nylige injuriesag mellem landbrugslobbyen Bæredygtigt Landbrug og Professor Stiig Markager. Hvis et lovforslag skal være relevant skal det tilføre noget til den eksisterende lovgivning, ved enten at udvide eller indskrænke ytringsfriheden.

I praksis er motivationen for lovforslaget nok de sager der har været - mest på universiteter i det store udland - om ændring af pensum og aflysning af kontroversielle gæsters oplæg, såkaldt "no-platforming". Hvordan ser forslaget ud i den optik?  

Det første princip (1), som hævder "fuldstændig ytringsfrihed på alle områder" er indlysende forkert. Det illustreres da også af, at forslaget netop anerkender de almindelige grænser for ytringsfriheden (f.eks. injurier og trusler). 9) og 3) er til gengæld trivielle, 9) idet det alene anerkender disse grænser, og 3) fordi påstanden er ukontroversiel ("Uddannelse er beregnet til at få folk til at tænke"), og ikke berører ytringsfrihed.
 
Principperne 2) og 4) fremsætter nært beslægtede påstande om, at universitet ikke bør tage hensyn til, om nogen (læs: studerende) bliver stødt af ideer, som de præsenteres for. Det er en overfladisk tiltalende, men ved nærmere eftertanke besynderlig ide.
 
Et sobert synspunkt er, at det sjældent vil være tilstrækkeligt, at nogle bliver stødt af at få en ide præsenteret, til at universitetet (dvs. undervisere) bør afstå fra at præsentere ideen. Det skyldes ganske enkelt, at der normalt er stærke forhold der taler for, at præsentere de ideer, som bringes i spil på universiteterne (f.eks. at de er sande og relevante). Hvis det f.eks. i en bestemt kontekst er en væsentlig pointe, at der er statistiske forskelle på de to klassiske køn, så er det værd at fremføre, selv hvis pointen støder nogen.
 
Imidlertid er det svært at se, hvorfor det slet ikke skulle spille nogen rolle, at personer stødes af en ide. I almindelighed mener vi jo, at det er en dårlig ting at støde andre mennesker, og tager af samme grund en lang række hensyn til dem, når vi beslutter hvad vi siger. Det er ikke oplagt, at det skulle være anderledes på universitetet. Hvis for eksempel forestiller os en situation, hvor en underviser udelukkende har mulighed for at præsentere én af to ideer, og ideerne i alle andre sammenhænge er lige gode, men den første vil være voldsomt stødende, mens den anden ikke vil støde nogen, så synes det oplagt, at det er bedst at præsentere den sidste (undtagen hvis vi forestiller os for eksempel, at det i sig selv er med til at danne studerende, at møde stødende ideer, men så er ideerne ikke længere lige i alle andre sammenhænge).
 
Principperne 5) og 8) fremsætter også beslægtede påstande om, at universitet er forpligtet til at beskytte "den fri debat" mod de, som måtte søge at "undertrykke" eller "begrænse" den. Med så brede formuleringer kan de læses på flere måder. Det er et problem, for i en svag fortolkning er principperne trivielle, og i en stærk fortolkning er de uplausible.
 
En svag fortolkning er, at universiteterne er forpligtede til at respektere og (i den udstrækning de har mulighed for det) håndhæve de almindelige bestemmelser om ytringsfrihed. De bør for eksempel ikke tillade, at nogen fysisk forhindrer en person i at fremsætte lovlige ytringer. Men givet at disse forpligtelser allerede findes, bliver principperne trivielle.
 
En stærkere fortolkning er følgende: universiteterne skal sikre, at kontroversielle og stødende synspunkter optræder på universiteterne, eksempelvis ved at give gæster adgang til at fremsætte dem ved oplæg og lignende. Det er et langt stærkere synspunkt.
 
Overvej eksempelvis hvad vi skal mene, om et dansk universitet, som vælger ikke at invitere en kontroversiel taler - lad os sige den canadiske professor i Psykologi Jordan Peterson - til at holde en gæsteforelæsning. Enten ved ganske enkelt ikke at invitere Peterson, eller ved først at invitere ham, og derpå aflyse invitationen efter at studerende protesterer.
 
Under den svage fortolkning har universitetet ikke forbrudt sig mod principperne. De gældende bestemmelser om ytringsfrihed er overholdt.
 
Under den stærke fortolkning har universitet imidlertid krænket principperne. Alene ved at vælge ikke at give plads til at bestemte synspunkter kan fremsættes, har det krænket ytringsfriheden. Er det plausibelt?
 
Der findes tilsyneladende en del personer, som mener det, men det forekommer nu ved eftertanke, at være svært at forsvare den stærke tolkning. Bemærk først og fremmest, at der findes et næsten uendeligt antal synspunkter, som kan gives plads på universiteterne. Givet begrænset tid og ressourcer kan universiteterne ikke inkludere dem alle. I mange situationer kan fravalg af at præsentere eller give plads til (næsten alle) synspunkter således forklares med, at universitetet fokuserer på at give plads til de vigtigste og mest berigende ideer. 

Der er naturligvis en levende diskussion af, præcis hvilke synspunkter som er de vigtigste og mest berigende, herunder hvor meget det i sig selv er berigende at møde en bred vifte af forskellige synspunkter. Ikke desto mindre er det indlysende, at universitets hensyn til ytringsfrihed ikke kan fordre, at alle synspunkter gives lige meget plads. Det er en simpel konsekvens af en begrænset opmærksomhedsøkonomi og dramatiske forskelle i kvaliteten af ideer. Universitetet krænker ikke Petersons ytringsfrihed, hvis det ikke inviterer ham, fordi det vurderer, at hans ideer er langt mindre interessante, end de ideer man i stedet ønsker at give plads til.
 
Hvad så i den hypotetiske situation, hvor der er hul i kalenderen? Det vil sige, hvor man kunne præsentere netop et bestemt synspunkt, uden at miste noget andet, men vælger ikke at gøre det? Selv i sådanne situationer, kan der være hensyn som taler for ikke at præsentere visse ideer. Som vi ovenfor så, bør dét, at et synspunkt er stødende give i hvert fald én grund til ikke at præsentere det, omend måske en relativt svag grund.

En anden og stærkere begrundelse er, at universitetet som platform uundgåeligt giver ideer og synspunkter som præsenteres der en epistemisk status, som det i nogle sammenhænge er dårligt, at disse ideer eller synspunkter har. Det er et fænomen som vi også kender fra udfordringen med falsk ækvivalens i den offentlige debat: Når journalister inviterer en klimaforsker til at debattere med en klimaskeptiker, kommer de to synspunkter uforvarende til at virke mere epistemisk ligebyrdige, end de reelt er (det første er videnskab, det anden nonsens).
 
Tilsvarende kan ideer som er både forkerte og farlige låne epistemisk status, og få større gennemslagskraft, ved at få plads i debatten på prestigefyldte institutioner som universiteter. Hvis der ikke var grund til at tage synspunktet alvorligt, så ville det jo næppe have fået plads i debatten på en sådan institution (qua pointen om en begrænset opmærksomhedsøkonomi ovenfor). Det er en pointe, som er blevet fremragende forsvaret af den australske filosof Neil Levy.

Hvad med det sidste princip (6), om at hensynet til gensidig respekt ikke kan være en begrundelse for "at begrænse den frie samtale"? I den danske version er formuleringen uklar, i en grad så det bliver muligt at ikke blot indholdet (ideen), men også formen er disrespektfuld. Det er naturligvis problematisk. Universiteter håndhæver med god grund respektfulde måder at diskutere ideer på, også og måske især når ideerne selv er kontroversielle. Hvis en deltager i en debat nægter at behandle de andre deltagere med respekt, for eksempel ved at afbryde dem, angribe deres personlighed, eller råbe ad dem, så ikke blot kan men bør universitetet som institution gribe ind.

Men er det så i det mindste korrekt, at respekt aldrig kan udgøre en begrundelse for at begrænse den respektfulde præsentation af en kontroversiel ide? Også dette synspunkt er tvivlsomt. Nogle ideer er disrespektfulde i sig selv. Selv den formmæssigt mest respektfulde præsentation af det synspunkt, at jøder er undermennesker, der bør udryddes som skadedyr, er disrespektfuld på en måde, som giver os stærke grunde til at begrænse muligheden for at fremsætte synspunktet (for eksempel ved at insistere på, at de tåber som måtte forsøge at fremsætte det, holder deres mund).
 
Den relevante pointe er snarere, at der i nogle tilfælde - især i det store udland - har været grupper som hævdede, at visse ideer på lignende vis var disrespektfulde i sig selv, og derfor burde begrænses, og at dette har været forkert. Det giver sig selv, at hvis det ikke er korrekt, at en ide i sig selv er disrespektfuld, så er det heller ikke korrekt, at vi derfor bør begrænse mulighederne for at fremsætte den. Men det er et konkret spørgsmål hvornår dette er og ikke er tilfældet, som ikke kan begrunde et princip af den type, som LA ønsker indskrevet i loven.  

Upræcist, trivelt og uplausibelt. Der er desværre ikke meget godt at sige om det aktuelle forslag. Det betyder ikke, at man ikke kunne fremsætte et bedre forslag. De sidste ti år har der været en lang række eksempler på danske forskere, som er blevet angrebet af arbejdsgivere (dvs. universitetet), myndigheder og interesseorganisationer for deres ytringer. En stærkere beskyttelse mod denne type begrænsninger ville være et væsentlig fremskridt. Til gengæld ville det næppe tjene til at høste mange stemmer. Af samme grund tror jeg ikke man skal holde vejret, mens man venter på at LA fremsætter det.

tirsdag den 17. august 2021

Hvem er bange for den sorte kasse?

En hyppigt fremført pointe om kunstig intelligens er, at en algoritme kan være en "sort kasse". Vi kan se hvilke data der kommer ind, og hvilke resultater der kommer ud, men ikke hvad der foregår inde i kassen. 

Algoritmer bruges i stigende grad til at træffe eller støtte beslutninger, også ind imellem meget vigtige beslutninger, for eksempel om banklån, medicinske diagnoser, og risici for mistrivsel i familier. I sådanne situationer kan det vække bekymring, hvis vi ikke kan få indsigt i grundlaget for beslutningen.

Mange institutioner og eksperter støtter derfor en bred fortolkning af GDPR-forordningen artikel 15. Den stiller krav om at personer, som bliver påvirket af en beslutning truffet med kunstig intelligens, får adgang til ”meningsfulde oplysninger om logikken [i den automatiske afgørelse]”.

EU’s Højniveau Gruppe for Kunstig Intelligens konkluderer for eksempel, i deres etiske retningslinjer for pålidelig AI, ”at procedurer skal være gennemsigtige, at AI-systemers kapaciteter og formål skal formidles åbent, og at beslutninger — så vidt muligt — [skal kunne] forklares til alle, der er direkte eller indirekte berørt.”

Men hvad - helt præcist - er egentlig problemet med den sorte kasse? Blandt andet fordi dette spørgsmål ofte kun behandles helt overfladisk er der en tendens til, at diskussionen overser væsentlige nuancer og mulige løsninger. Når vi tænker udfordringen ordentligt igennem, så er det ikke sikkert, at den sorte kasse er så farlig igen.

Hvorfor er kassen sort?

En algoritme kan blive en sort kasse af flere grunde. Helt banalt kan det skyldes, at udvikleren ikke vil lade andre kigge ind. Algoritmer udvikles ofte af virksomheder eller institutioner, som har god grund til at holde detaljerne om hvordan de fungerer hemmelige. For eksempel for at forhindre at konkurrenter kopierer teknologien, eller for at forhindre, at personer udnytter kendskab til algoritmen til at snyde den.

Den væsentligste grund til, at algoritmer kan udgøre en sort kasse er imidlertid en anden. I nogle tilfælde er en algoritme så kompleks at ingen, ikke engang udvikleren selv, kan forstå præcis hvordan den fungerer. I sådanne tilfælde taler man om, at algoritmen rent teknisk er uigennemsigtig. 

Uigennemsigtige algoritmer udvikles typisk ved såkaldt maskinlæring, hvor udvikleren bruger én algoritme - læringsalgoritmen - til at træne den anden algoritme. Maskinlæring har den fordel, at en læringsalgoritme kan arbejde med langt større mængder data, end mennesker typisk kan overskue. Maskinlæring kan træne en algoritme, som arbejder med hundredevis eller tusindvis af forskellige informationer. Når en algoritme anvender så mange data, og især hvis den også behandler data på komplekse måder, så bliver den samlede funktion aldeles uoverskuelig.

Hvad er der galt med uigennemsigtighed? 

Udfordringen er altså virkelig nok, men hvorfor udgør uigennemsigtighed et problem? Der er overordnet tre grunde til, at vi kan ønske os, at vigtige beslutninger er gennemsigtige.

Den første grund er, at gennemsigtighed gør det muligt at have tillid til beslutningsprocessen. Det er klart en omkostning, hvis anvendelsen af kunstig intelligens svækker tilliden til myndigheder og virksomheder.

Den anden grund er, at gennemsigtighed gør det lettere at udfordre beslutninger. Ingen beslutningsproces er perfekt, og især for vigtige beslutninger er det en omkostning, hvis anvendelsen af kunstig intelligens gør det vanskeligt at rette fejlagtige beslutninger.

Den tredje grund er, at gennemsigtighed, og den mulighed for kritik som den giver, skaber et stærkt incitament hos udvikleren til at træne den bedst mulige algoritme. Ingen ønsker at udvikle en dårlig algoritme, men gennemsigtighed kan tilskynde, at der bliver taget behørigt hensyn til de personer, som berøres af beslutningen.

Det nye sort er ikke så sort endda

Der er altså gode grunde til at ønske sig gennemsigtige algoritmer. Alligevel er det ikke sikkert, at vi bør være bange for den sorte kasse. For det første fordi uigennemsigtighed ofte overvurderes eller misrepræsenteres.

Selv for en uigennemsigtigt kompleks algoritme er der mange detaljer, som vi godt kan finde ud af. Ved at teste algoritmen kan vi få information om hvordan bestemte typer information bliver behandlet - for eksempel om algoritmen behandler mænd og kvinder forskelligt - og om hvordan en bestemt sag er blevet vurderet - for eksempel hvilken information algoritmen har lagt mest vægt på i den pågældende sag.

Den sorte kasse har, metaforisk talt, små huller rundt omkring, hvor vi kan kigge ind. Sådanne teknikker til at forklare uigennemsigtig kunstig intelligens udvikles i rivende hast i disse år.

Er mennesker gennemsigtige?

For det andet, så er alternativet til en algoritme ofte en menneskelig vurdering. I den forbindelse glemmer vi tit, at mennesker også er en slags sorte kasser. Det skyldes helt oplagt, at det er umuligt at kigge ind i hovedet på et menneske, og se hvordan vedkommende træffer en beslutning.

Mennesker har til gengæld evnen til at forklare hvordan de har truffet en beslutning. Er menneskelige beslutninger så alligevel ikke mere gennemsigtige? Ikke nødvendigvis.

Fra socialpsykologien ved vi, at mennesker kan give forkerte forklaringer om hvordan de træffer beslutninger. Det kan dels skyldes, at de ønsker at føre andre bag lyset. Men det skyldes ofte snarere, at det er meget vanskeligt for os selv at forstå, hvordan vi træffer vores beslutninger.

Især viser en omfattende nyere forskning, at menneskers beslutninger kan påvirkes af ubevidste bias og irrelevante faktorer, ofte uden at vi er bevidste om denne påvirkning.

I et berømt studie fra 2008 satte en amerikansk forskergruppe forsøgspersoner til at vurdere en lang række etiske dilemmaer. Èn gruppe personer foretog vurderingen mens de sad i et almindeligt kontormiljø. En anden gruppe personer sad i det samme kontormiljø, bortset fra at der var snavset og rodet. Resultatet var, at den sidste gruppe utvetydigt var langt mere konservative og hårdhændede i deres vurderinger af de etiske dilemmaer, uden at de var klar over, at deres ubevidste ubehag ved snavs og rod havde påvirket dem.

Selvom algoritmisk uigennemsigtighed er en ulempe, så kan det menneskelige alternativaltså være lige så uigennemsigtigt, eller endda værre. 

Gennemsigtighed har en pris

For det tredje, så betaler man ofte en pris for gennemsigtighed. Den amerikanske datalog Cynthia Rudin har vist, at det i mange situationer er muligt, at få lige så gode resultater med enkle og let forståelige algoritmer som med komplekse og uigennemsigtige algoritmer. Men det er ikke altid tilfældet. Og i nogle tilfælde er en mindre præcis algoritme en høj pris at betale.

Man kan for eksempel overveje følgende situation. Hvis man er patient, og skal have diagnosticeret en kræftknude, for at finde ud af om den er godartet eller ondartet, hvad ville man så foretrække: en enkel og gennemsigtig algoritme, der laver fejl i 2% af diagnoserne, eller en kompleks og uigennemsigtig algoritme, der laver fejl i 1% af diagnoserne? Jeg forestiller mig at mange trods alt vil foretrække diagnosen fra den uigennemsigtige algoritme.

En anden ulempe ved gennemsigtighed er, at personer i nogle tilfælde kan udnytte viden om algoritmen, til at snyde den. For eksempel er det klart, at skattesvindlere vil være interesserede i at vide, præcis hvordan en algoritme der forsøger at opdage uregelmæssigheder i selvangivelsen fungerer. I sådanne situationer kan prisen for gennemsigtighed være, at algoritmen får sværere ved at træffe gode beslutninger.

Hvor sort må det blive?

Uigennemsigtighed er en væsentlig udfordring ved brugen af algoritmer til at træffe og støtte beslutninger. Udfordringens størrelse og karakter afhænger imidlertid af situationen, blandt andet af hvilken information det er, som vi har brug for, og hvad alternativerne er.

Fordi fordele og ulemper ved uigennemsigtighed afhænger af flere forhold, må balancen mellem dem vurderes fra situation til situation. Den vurdering er vanskeligere og mere krævende, end et simpelt krav om, at kunstig intelligens der støtter eller træffer vigtige beslutninger skal kunne forklares. Til gengæld giver den os mulighed for at træffe nuancerede, grundigt gennemtænkte valg om den nye teknologi.

Vi bør gøre udfordringen ved den sorte kasse så stor som den er - hverken mere eller mindre. Kun derved giver vi os selv de bedste muligheder for at tackle den.

torsdag den 8. juli 2021

Algoritmerne udfordrer vores forbud mod diskrimination

 

Næsten alle er enige om, at det er forkert at diskriminere. Hvis en patient ikke vil tro på lægens vurdering alene fordi hun er kvinde, et diskotek ikke vil lukke unge ind alene fordi de er muslimer, eller en arbejdsgiver ikke vil ansætte en ansøger alene fordi hun er sort, så fordømmer vi vedkommende.

Forbuddet mod diskrimination er da også slået fast i en lang række regelsæt, inklusiv den europæiske menneskerettighedskonvention (artikel 14) og EU's charter om grundlæggende rettigheder (artikel 21).

De mest klassiske eksempler på diskrimination, som eksemplerne ovenfor, er såkaldt direkte diskrimination. I moderne regulering af og teori om diskrimination arbejder man imidlertid også med en anden form for diskrimination.

Vi kan forestille os en arbejdsgiver, som lurer at sorte ansøgere typisk er håndboldfans, mens hvide ansøgere typisk er fodboldfans (sådan er det naturligvis ikke, men eksemplet skal kun vise en pointe). For samtidigt at undgå sorte medarbejdere og fordømmelsen af direkte diskrimination indfører arbejdsgiveren en politik om ikke at ansætte håndboldfans.

Arbejdsgiveren diskriminerer ikke direkte på baggrund af race, men effekten er (næsten) den samme. Man plejer at sige, at hun indirekte diskriminerer mod sorte.

Diskrimination har historisk været en udfordring som knyttede sig til menneskers handlinger. De sidste ca. 10 år er der kommet fokus på, at det også kan optræde, når algoritmer støtter eller træffer beslutninger. Algoritmiske beslutningssystemer findes i stadigt flere sammenhænge, fra diagnosticering i sundhedssektoren, over vurdering af risici i finanssektoren, og til screening af ansøgere på arbejdsmarkedet.

Selvom algoritmisk diskrimination på mange måder er ligesom menneskelig diskrimination – den kan være direkte eller indirekte, og ramme de samme beskyttede grupper – så rejser den også en række udfordringer. Konkret giver algoritmisk diskrimination os behov for at overveje:

  • Hvad stiller vi op med uigennemsigtig diskrimination?
  • Diskriminerer algoritmer eller vurderer de fakta?
  • Hvorfor er direkte diskrimination værre end indirekte diskrimination?
  • Hvad betyder det, at blive stillet dårligere?
  • Hvad er standarden for hvornår forskelsbehandling er dårlig?
Lad mig præsentere hver af disse udfordringer i denne rækkefølge.

Uigennemsigtig diskrimination

Den første udfordring er, at det kan være vanskeligt at afgøre, om en algoritme direkte forskelsbehandler beskyttede grupper. Det skyldes at algoritmer kan være uigennemsigtige.

Problemet med at algoritmer kan udgøre ”sorte kasser” har været meget omdiskuteret. Ofte er fokus på den udfordring, at en algoritme kan være så kompleks, at det er meget vanskeligt at forstå hvordan den virker. Det er imidlertid ikke dette, som udgør den væsentligste udfordring for at regulere algoritmisk diskrimination, for det er ofte relativt enkelt at fastslå, om selv en kompleks algoritme direkte forskelsbehandler, blandt andet ved at bruge metoder udviklet indenfor såkaldt ”explainable AI”.

Til gengæld kan den nødvendige information om algoritmen være utilgængelig ganske simpelt fordi udvikleren beskytter den. Mange algoritmer udvikles og anvendes af private virksomheder, der ofte med god grund betragter algoritmens funktion som en forretningshemmelighed. Men udvikleren kan også beskytte information om algoritmen, fordi offentliggørelse kan føre til, at personer ændrer adfærd på uønsket vis. Vi kan eksempelvis forestille os en arbejdsgiver, som anvender en algoritme, til at forsøge at identificere den bedste ansøger. Hvis ansøgerne har adgang til information om hvordan algoritmen virker, så vil de kunne ændre deres ansøgning, for at narre algoritmen. Der kan altså være flere grunde til at nægte adgang til information om algoritmen, og hvis udvikleren afviser adgang til informationerne, er det umuligt at slå fast, om algoritmen direkte forskelsbehandler.

Til gengæld vil det ofte være relativt let at slå fast at algoritmen enten direkte eller indirekte forskelsbehandler. For at vurdere dette behøver man nemlig kun at kigge på, hvordan algoritmen faktisk behandler personer. Hvis den systematisk stiller visse grupper ringere end andre, så forskelsbehandler den på mindst én af de to måder.

Algoritmens resultater kan typisk formidles uden at afsløre algoritmens funktion. Vurderingen af forskelsbehandling behøver derfor ikke kompromittere udviklerens forretningshemmeligheder. Og hvis man ønsker at vurdere algoritmen før den tages i brug, så kan relativt enkle statistiske tests, for eksempel hvor man får algoritmen til at vurdere et stort sæt hypotetiske sager, give samme indsigt.

Kort fortalt: det kan ofte være vanskeligt, at finde ud af, om en algoritme direkte forskelsbehandler, men enkelt at fastslå at den enten direkte eller indirekte forskelsbehandler. Hvis direkte og indirekte diskrimination var sidestillede, ville det være tilstrækkeligt at vide, at mindste en af delene finder sted. Men fordi de behandles meget forskelligt, vil det ofte være afgørende om det er direkte eller indirekte forskelsbehandling, som er på spil.

Beslutninger vs. vurderinger af fakta

Den anden udfordring er, at det i mange situationer ikke er klart, at algoritmer diskriminerer. Det skyldes, at det ikke er diskriminerende at foretage en faktuel vurdering, men alene at behandle personer på den ene eller den anden måde. De algoritmer som støtter eller automatiserer beslutninger, foretager typisk faktuelle vurderinger.

Et eksempel kan illustrere. Vi kan forestille os et hospital, som anvender en algoritme til at hjælpe med at diagnosticere en bestemt type kræftknude. Hvis knuden er ondartet skal patienten opereres. Hvis knuden er godartet, er det bedst at lade den være. Vi kan endvidere forestille os, at algoritmen skelner mellem mænd og kvinder, for eksempel fordi visse symptomer peger stærkere på en ondartet knude, når de optræder hos kvinder, end når de optræder hos mænd. Algoritmens vurdering udtrykkes som en sandsynlighed for, at en kræftknude hos en given patient er ondartet. Diskriminerer algoritmen?

Det virker meget besynderligt, at hævde at dette skulle være tilfældet. Ganske vist skelner algoritmen mellem mænd og kvinder – den behandler dem i én bestemt henseende forskelligt – men dels gør den det fordi der faktisk er forskel på mænd og kvinder, dels stiller den derved alle patienter bedst muligt, fordi vurderingen for både mænd og kvinder er mere præcis på denne måde, og dels gør algoritmen ikke selv noget. Den beregner blot så præcist som muligt en risiko.

Når en læge efterfølgende tager stilling til, om patienten skal opereres eller ej benytter vedkommende denne risikovurdering. Og i den beslutning kan lægen diskriminere, hvis for eksempel hun er villig til at lade kvinder løbe større risici end mænd. Men det er vanskeligt at se, at den faktuelle vurdering i sig selv skulle være diskriminerende.

Anvendelsen af en algoritmisk vurdering kan også være indirekte diskriminerende. I eksemplet med arbejdsgiveren, som anvender en algoritme til at identificere den bedste ansøger, kan vi forestille os, at de kompetencer arbejdsgiveren efterspørger oftere findes hos mænd end hos kvinder. I dette tilfælde vil anvendelse af algoritmens vurdering føre til, at flere mænd end kvinder tilbydes ansættelse. Men igen er det ikke algoritmen som diskriminerer. Det er snarere arbejdsgiverens beslutning om at anvende algoritmen, valg af hvilke kompetencer hun efterspørger, og fokus på kompetencer (i stedet for eksempelvis hvilken ansøger som har mest gavn af at blive ansat), som fører til forskelsbehandling.

Kort fortalt: Algoritmer beregner en vurdering af et faktuelt forhold, for eksempel en risiko. I mange situationer er det tvivlsomt, om vi med rette kan sige, at algoritmen derved diskriminerer, og mere præcist at sige, at det er personers beslutning om, at lægge vurderingen til grund for beslutninger, som kan være indirekte diskriminerende.

Stedbarnet indirekte diskrimination

Begge de to første udfordringer handler på hver sin vis om, hvorvidt algoritmisk diskrimination er direkte eller indirekte. Man kunne måske få lyst til at spørge om dette virkelig er så vigtigt? Så længe vi ved, at der er diskrimination på spil, hvorfor skulle det så være afgørende, hvilken slags?

Svaret er, at mange er af den opfattelse, at der er afgørende forskel. Direkte diskrimination er forkert, og kan så godt som aldrig tillades. Undtagelsen er eksempelvis såkaldt positiv særbehandling, hvor sårbare minoriteter gives en fordel, for at hjælpe dem med at indhente det forspring, som andre har.

Indirekte diskrimination derimod, betragtes ofte som langt mindre alvorligt. Det ses blandt andet ved, at der i lovgivningen om diskrimination formuleres en række undtagelser. Under disse undtagelser udgør indirekte forskelsbehandling ikke ulovlig diskrimination.

I amerikansk lovgivning er en praksis som indirekte stiller en minoritet dårligere – som arbejdsgiverens politik om ikke at ansætte håndboldfans – således kun forbudt hvis det enten kan bevises, at formålet med praksissen er at diskriminere, eller hvis praksissen ikke tjener noget relevant formål.

Det første har, forståeligt nok, vist sig at være nærmest umuligt. Hvis ikke man decideret kan opsnuse en email, hvor arbejdsgiveren skriver, at formålet er at undgå at ansætte sorte, så er det svært at bevise, at dette skulle være tilfældet.

Den anden betingelse giver også meget plads for indirekte forskelsbehandling, fordi der ofte vil være mange måder indirekte at forskelsbehandle, som kan siges at tjene et eller andet relevant formål. Arbejdsgiveren kunne eksempelvis hævde, at hun selv er håndboldfan, og at hun ønsker at skabe en medarbejderkultur, hvor dette er en vigtig del af fællesskabet.

Jyske Finans

I Europa er forbuddet lidt anderledes defineret, men har nogle af de samme svagheder. Lidt forenklet kan man sige, at ligesom i USA kan indirekte forskelsbehandling være lovlig, hvis den tjener et legitimt formål. Men forbuddet er også begrænset af en snæver fortolkning af, hvad det vil sige, at en beskyttet minoritet stilles ringere. Det slog EU-domstolen fast i den opsigtsvækkende Jyske Finans dom fra 2017.

Sagsøgeren, Huskic, havde ansøgt Jyske Finans om et lån til en bil. Jyske Finans krævede i udgangspunktet kørekort som dokumentation. Huskic var dansk statsborger, men af kørekortet fremgik alene, at han var født i Bosnien-Herzegovina, som ligger udenfor EU. Derfor krævede Jyske Finans yderligere dokumentation for hans nationalitet.

Huskic kontaktede Ligebehandlingsnævnet, som indbragte sagen. Byretten i Viborg konkluderede, at der var tale om direkte diskrimination, men da Jyske Finans ankede anmodede Vestre Landsret EU-domstolen om en vurdering.

EU-domstolen konkluderede, at der ikke kunne være tale om direkte diskrimination. Det skyldes, at direkte forskelsbehandling kun kan være ulovlig diskrimination, når den er baseret på et såkaldt beskyttet personkarakteristika, for eksempel race, køn eller etnicitet. Omvendt er der masser af forhold, som ikke kan være grundlag for diskrimination. Antallet af stavelser i en persons navn, om man er Brøndby eller FCK-fan, eller de astrologiske stjernetegn, for eksempel. Man kan diskutere fordele og ulemper ved denne måde at regulere diskrimination, men under de givne regler, så virker domstolens fortolkning indlysende korrekt: det land, som en person er født i, er ikke et beskyttet karakteristika.

Men hvad så med indirekte diskrimination? Indirekte diskrimination kræver kun at en praksis har den effekt, at personer med et beskyttet karakteristika stilles dårligere end andre. Domstolen overvejede derfor, om Jyske Finans indirekte diskriminerede på baggrund af etnicitet.

Der er imidlertid to måder, hvorpå man kan forstå hvad det vil sige, at personer med et beskyttet karakteristika stilles dårligere end andre. I den første fortolkning er det tilstrækkeligt, at der findes forskellige etniske grupper, og at en praksis har forskellig effekt for de forskellige grupper, således at den forudsigeligt stiller medlemmer af nogle grupper ringere end medlemmer af andre grupper. Hvis man anlagde en sådan fortolkning, så ville Jyske Finans have indirekte diskrimineret, fordi etniske europæere (danskere, tyskere, franskmænd, etc.) typisk er født i et EU-land, mens personer med en etnicitet vi forbinder med andre dele af verden (arabere, latinamerikanere, japanere, etc.) langt oftere ikke er.

I den anden, langt mere restriktive fortolkning, skal en praksis påføre netop én bestemt etnisk gruppe en ulempe. Det er uklart hvordan man skal trække grænserne for forskellige etniciteter, men det er klart at ”ikke-europæer” ikke er en etnicitet. Domstolen anlagde den restriktive fortolkning, og afviste derfor, at der var tale om indirekte diskrimination i Jyske Finans.

Domstolens restriktive fortolkning betyder, at det er meget få former for indirekte forskelsbehandling, som udgør ulovlig diskrimination. Eksempelvis vil arbejdsgiveren, som forhindrer ansættelsen af sorte ved at diskriminere mod fodboldfans, kunne fortsætte lovligt, hvis blot også asiater typisk er fodboldfans. I denne situation stilles både sorte og asiater godt nok dårligere end hvide, men når hendes forskelsbehandling rammer både sorte og asiater er der ikke én bestemt race, som stilles ringere.

Der findes fremtrædende jurister, som mener, at domstolens restriktive fortolkning i Jyske Finans er forkert. Det er således ikke givet, at domstolen i fremtidige sager vil følge samme restriktive fortolkning.

Hvorfor forskelsbehandle direkte og indirekte diskrimination?

Men et nok så væsentligt spørgsmål er, hvorfor denne forskel på direkte og indirekte diskrimination? Hvorfor forbyde direkte diskrimination uanset hvilke grunde der kan være til det, men tillade indirekte diskrimination, når den tjener et legitimt formål? Tilsvarende ville domstolen med stor sandsynlighed have erklæret det ulovligt, hvis Jyske Finans direkte havde stillet ét sæt krav om dokumentation til personer med de etniciteter, som vi forbinder med EU-lande, og et andet sæt krav til andre. Hvorfor så tillade indirekte diskrimination, som berører de samme grupper?

Der er to oplagte forklaringer. Den første forklaring er, at vi har en tendens til at opfatte det som moralsk værre, hvis en person intentionelt stiller andre dårligt, end hvis det ikke er med vilje, at andre stilles dårligt. De fleste mener for eksempel at koldblodigt mord er værre end manddrab, netop fordi gerningsmanden i det første tilfælde har en intention om at slå ofret ihjel. Når det drejer sig om klassisk diskrimination kan der være mange tilfælde af indirekte forskelsbehandling, hvor diskrimination er utilsigtet, og mange tilfælde af direkte diskrimination, hvor den er intenderet. Men der er ikke nogen nødvendig sammenhæng mellem intentioner og direkte diskrimination, eller mellem utilsigtet diskrimination og indirekte diskrimination, især ikke når det gælder algoritmisk diskrimination.

Det viser sig især, i de stadigt flere tilfælde hvor algoritmer udvikles ved maskinlæring. Når en algoritme trænes ved maskinlæring, så gives den et stort datasæt med eksempler, og en masse information om hvert af eksemplerne. I træningsprocessen justeres algoritmens funktion, således at den lægger vægt på netop den information, som bedst muligt lader den løse sin opgave. For eksempel at identificere den bedste ansøger til en stilling.

Når en algoritme udvikles ved maskinlæring, er det en læringsalgoritme, som afgør hvilke forhold algoritmen skal lægge vægt på. Det betyder, at det er muligt for algoritmen direkte eller indirekte at forskelsbehandle uden at udvikleren intenderer det. I teorien kan det forekomme, uden at udvikleren overhovedet er opmærksom på det.

Omvendt så åbner anvendelsen af algoritmer nye muligheder for at erstatte direkte diskrimination med indirekte diskrimination. Det skyldes at det ofte vil være muligt at bruge en kombination af andre forhold, så man med stor præcision rammer netop den gruppe, som man ønsker at diskriminere. Eksempelvis kan arbejdsgiveren i vores eksempel kombinere forskellen på håndbold- og fodboldfans med andre forhold, hvor der statistisk er forskel på sorte og hvide ansøgere, for endnu bedre at sikre, at hun kun ansætter hvide ansøgere.

Kort sagt: når det gælder algoritmisk diskrimination, så er der ikke nogen grund til at tro, at direkte diskrimination i højere grad skulle være intentionel end indirekte diskrimination. Og derfor ikke denne grund til at behandle dem forskelligt.

Den anden forklaring er, at det ofte er sværere eller mere omkostningsfuldt at undgå indirekte forskelsbehandling, end at undgå direkte forskelsbehandling. En arbejdsgiver, som ønsker at undgå direkte forskelsbehandling på baggrund af race, behøver blot at ignorere ansøgernes race (hvis vi ser bort fra risikoen for implicit bias). En arbejdsgiver, som ønsker at undgå indirekte forskelsbehandling på baggrund af race har en langt vanskeligere opgave. For hvert forhold, som hun ønsker at lægge vægt på, skal hun vurdere om det statistisk set hænger sammen med ansøgernes race. Det kan i sig selv være en vanskelig og omstændelig opgave, at foretage denne vurdering. Men det kan også efterlade arbejdsgiveren med meget få eller måske ingen relevante forhold, som hun kan lægge vægt på.

Af samme grund tillader diskriminationslovgivningen indirekte forskelsbehandling, når den i tilstrækkelig grad tjener et legitimt formål. En arbejdsgiver, som skal ansætte piloter til et flyselskab, har lov til at insistere på at ansøgere skal have pilotcertifikat, også selvom det skulle vise sig, at kun hvide og ingen sorte har et sådant certifikat. Det skyldes helt oplagt, at det ville være livsfarligt for passagererne, hvis man ansatte piloter uden certificering.

Endnu engang illustrerer algoritmisk diskrimination, at dette er en forskel i grad, snarere end en kategorisk forskel. Der kan således være situationer, hvor det gør en meget stor forskel for algoritmens vurderinger, om den kan bruge et beskyttet personkarakteristika eller ej. Og omvendt kan der være situationer, hvor algoritmen bruger et forhold, som hænger tæt sammen med et beskyttet karakteristika, selvom det kun giver mulighed for en marginal forbedring af algoritmens vurderinger.

Kort sagt: når det gælder algoritmisk diskrimination, så vil der typisk være omkostninger forbundet med at undgå både direkte og indirekte forskelsbehandling. Hvis vi vil acceptere nogle former for forskelsbehandling, fordi omkostningen ved at undgå dem er for store, så må vi vurdere fra gang til gang hvorvidt det er tilfældet, både når det gælder direkte og indirekte forskelsbehandling.

Tre forskellige måder at stille personer ringere

Den fjerde og mest diskuterede udfordring ved algoritmisk diskrimination drejer sig om, at det ikke er klart præcis hvad det vil sige, at en algoritme behandler visse grupper dårligere end andre. I forskningen skelnes groft sagt mellem tre forskellige måder man kan forstå dette på:

  1. Fordeling af vurderinger
  2. Fordeling af præcision
  3. Fordeling af fejl

En algoritme behandler to grupper forskelligt med hensyn til fordelingen af vurderinger, hvis den har tendens til at vurdere den ene gruppe på én måde, og den anden gruppe på en anden måde. Hvis for eksempel en algoritme har tendens til at vurdere sorte ansøgere som mindre kvalificerede end hvide ansøgere, så behandler den sorte ansøgere dårligere i denne forstand.

En algoritme behandler to grupper forskelligt med hensyn til fordelingen af præcision, hvis den har tendens til at begå flere eller større fejl, når den vurderer personer fra den ene gruppe, end når den vurderer personer fra den anden gruppe. Hvis for eksempel en algoritme har tendens til oftere at vurdere kvalificerede ansøgere som ukvalificerede når ansøgeren er sort, end når ansøgeren er hvid, så behandler den sorte ansøgere dårligere i denne forstand.

Endelig behandler en algoritme to grupper forskelligt med hensyn til fordelingen af fejl, hvis den har tendens til at begå forskellige typer fejl, når den vurderer personer fra henholdsvis den ene og den anden gruppe. Hvis for eksempel algoritmen har tendens til at overvurdere hvide ansøgeres kvalifikationer, og til at undervurdere sorte ansøgeres kvalifikationer, så begår den i princippet fejl i begge tilfælde, men den behandler nok alligevel sorte ansøgere dårligere.

De tre måder at behandle personer forskelligt på har fyldt en del i den nyere forskning. Et vigtigt resultat er, at det ofte vil være umuligt på samme tid at undgå alle typer forskelsbehandling. Det betyder at vi ofte vil være tvunget til at vælge, hvordan vi foretrækker, at algoritmer behandler personer forskelligt. Og det er mildt sagt uafklaret, hvordan vi i den forbindelse skal prioritere.  

Baseline for diskrimination

Den femte og sidste udfordring for algoritmisk diskrimination er, at det er uafklaret, hvornår algoritmisk diskrimination er dårligt. Det kan lyde underligt, men pointen er, at for at sige at noget er dårligt, må man sammenligne det med en standard for, hvad der ville være tilfredsstillende.

Eksempelvis kan det være fristende, at sige, at en algoritme der forskelsbehandler er dårlig, sammenlignet med en algoritme der ikke forskelsbehandler. Denne standard udfordres imidlertid af to observationer: for det første, at det (som ovenfor nævnt) ofte vil være umuligt at undgå enhver form for forskelsbehandling. For det andet, at mennesker, som blev sat til at vurdere det samme forhold, ville møde samme udfordring. Forskelsbehandlingen er umulig at undgå, fordi den følger matematisk af de sammenhænge der er mellem det forhold som skal vurderes, og de relevante grupper. Hvis forskelsbehandling vitterlig er umulig at undgå både for algoritmer og mennesker, så kan det virke urimeligt at insistere på, at den relevante standard er ”ingen forskelsbehandling”.

Hvad hvis vi i stedet sagde, at en algoritme der forskelsbehandler er dårlig, hvis den forskelsbehandler mere end absolut nødvendigt? Det vil sige, hvis den ikke minimerer forskelsbehandlingen? Dette synspunkt er mere troværdigt, men kan også løbe ind i problemer. For eksempel vil vi ofte møde situationer, hvor alternativet til diskriminerende algoritmer er menneskelige vurderinger, som er endnu værre. Hvis anvendelsen af en algoritme fører til mindre forskelsbehandling kan det virke urimeligt at insistere på, at den alligevel er dårlig, fordi den forskelsbehandler mere end den i teorien kunne.

Hvad så endelig hvis vi sagde, at en algoritme der forskelsbehandler er dårlig, hvis den forskelsbehandler mere end eksisterende alternativer? Det vil sige, hvis den for eksempel forskelsbehandler mere, end mennesker som foretager samme vurdering? Dette synspunkt kan også virke troværdigt, men synes i nogle tilfælde at sætte barren for lavt. Vi kan forestille os, en udvikler som træner en algoritme, der skal erstatte stærkt diskriminerende menneskelige vurderinger. I en sådan situation vil det typisk være let at udvikle en algoritme, som er langt mindre forskelsbehandlende. Og det kan i så fald det virke underligt uambitiøst at insistere på, at algoritmen kun behøver være marginalt bedre.

Min tentative holdning er, at den relevante standard varierer med konteksten, således at det for eksempel er relevant at kræve mindst muligt forskelsbehandling når vi skal udvikle en algoritme, men kun at den er bedre end eksisterende alternativer, når vi overvejer om den skal implementeres. Men holdningen er tentativ – vi har brug for at overveje også dette spørgsmål langt mere grundigt end vi hidtil har formået.

Udfordringer og muligheder i algoritmisk diskrimination

Anvendelsen af algoritmer til at støtte eller træffe beslutninger rejser en risiko for algoritmisk diskrimination. Og risikoen for algoritmisk diskrimination rejser en række udfordringer for vores forståelse af, hvad diskrimination er, og hvornår vi bør forhindre den. Vi får med algoritmisk beslutningsstøtte vanskeligere ved at skelne mellem direkte og indirekte diskrimination, og vi får måske gjort nogle beslutninger, som ville have været direkte diskrimination, til i stedet at være indirekte diskrimination. Blandt andet derfor er vi nødt til at overveje, hvad den moralske forskel på direkte og indirekte diskrimination egentlig er. Muligheden for algoritmisk diskrimination viser, at de ikke nødvendigvis er så forskellige, som vi har troet. Sidst men ikke mindst har vi brug for at afklare hvad det vil sige, at en algoritme stiller nogle personer dårligere, og hvad vi skal sammenligne med, når vi skal vurdere om en algoritme er dårlig, fordi den forskelsbehandler. Disse er vanskelige spørgsmål, som det vil tage tid og anstrengelser at besvare.

Men udfordringerne rummer også en mulighed. Ved at tvinge os til at konfrontere uklare dele af vores begreb om diskrimination, får vi lejlighed til at udvikle vores forståelse, så den bliver mere præcis. Selvom det kræver en indsats, så er en sådan afklaring ønskværdig. Diskrimination er for vigtigt, til at vi kan bekæmpe det med bind for øjnene.