Posted on 

February 24, 2020

Teknofobens guide til kunstig intelligens

Teknofobens guide til kunstig intelligens
Mikkel Boris
Director of PR & Communication
Teknofobens guide til kunstig intelligens

Teknologiens funktion er altid dobbelt. Man kan varme sig på ilden og man kan brænde sig på den. Man kan bruge kæp til at få adgang til nye fødekilder og man kan bruge den til at slå ihjel. Pesticider sørger for en større fødevarerproduktion, men  gør os syge. Sygdomme kureres af moderne medicin, hvilket fører til overbefolkning. Det samme gjorde den industrielle revolution ved at hæve levestandarden og frigøre mennesket. Det medførte på den anden side store miljøkriser og global opvarmning.

Optimister vil sige, at teknologien ikke er bedre end de mennesker, som kontrollerer den. Pessimister vil sige, at der er problemer i selve teknologiernes indre logik. Sandheden skal nok findes et sted midt i mellem. For når Facebook bliver brugt til at sprede had og opildne til folkedrab, skyldes det primært hadefulde mennesker. Men det skylde også Facebooks indre logik, hvor deres algoritme bevirker en ekkokammer-mekanisme, som bekræfter folk i deres hadefulde holdninger. Der er altså både en menneskelig faktor og et indbygget problem i teknologien på spil.


Skepsis for kunstig intelligens

Tidens skepsis for kunstig intelligens bliver primært fodret af udsigten til massearbejdsløshed og nye ubrugelige samfundsklasser. Skal man tro diverse dommedagsprofetier, bør den intellektuelle kontorarbejder kigge sig frygtsomt over skulderen. Mckinseys rapport The Future of Work forudser da også, at “Some 40 percent of working hours in Denmark are automatable based on demonstrated technologies”.

Dertil kommer en del frygt fra selve kilden til ideen om kunstig intelligens - science-fiction. Her bliver kunstig intelligens ofte repræsenteret af antropomorfe robotter med onde hensigter om at udrydde menneskeheden. Meget rammende finder man også modsvaret i den dystopiske science-fiction roman: I, Robot, Isaac Asimovs tre love for kunstig intelligens:

First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws

Disse love er indlysende fornuftige, særligt med tanke på den grusomme rolle kunstig intelligens kan spille i fremtidens krige. Lovene har dog udbredt en mistforstået opfattelse af, at kunstig intelligens i sig selv udgør en eksistentiel trussel mod menneskeheden. Her er foreløbigt tale om fiktion, for det er endnu mere sandsynligt, at kunstig intelligens tager dit job end dit liv.


Mangel på indsigt

Der er dog andre væsentlige problemer med kunstig intelligens. Eksempelvis foreslår den britiske teknologi-journalist og forfatter James Bridle i sin teknologikritiske bog New Dark Age en interessant Fourth Law: “a robot – or any other intelligent machine – must be able to explain itself to humans.”

Bridles fjerde lov er et modsvar til en foruroligende historie fra Google-enheden Google Brain, som havde udviklet en kunstig intelligens, der var i stand til at lyve overfor mennesker. De havde sat tre neurale netværk til at konkurrere i at kryptere information og som konsekvens havde to af de neurale netværk udviklet et krypteret fælles sprog, som hverken det tredje netværk eller noget menneske kunne dechifrere.

Den store udfordring med udbredelsen af kunstig intelligens bliver deraf at vedligeholde et tilstrækkeligt niveau af gennemsigtighed, kontrol og indsigt. Særligt med henblik på, at maskinerne løbende bliver smarte nok til at udvikle komplekse metoder, som langt overstiger det menneskelige abstraktionsniveau. For hvis mennesket ikke kan kontrollere maskinen, hvordan ved vi så, om de vil os det godt?

Der er stort potentiale for kunstig intelligens i sundhedssektoren og den juridiske industri. Samtidig er der en grund til, at netop de to industrier er nogle af de mest konservative. De er bærende søjler i et hvert demokratisk samfund, som mennesket må og skal have kontrol over - og der er ikke plads til fejl. Hvis ikke vi har indsigt og adgang til de mekanismer, der kontrollerer retssystemet, så gambler vi med retsikkerheden og det fundament, vores retssystem hviler på.

Læs vores introduktion til kunstig intelligens i advokatbranchen


Racistiske softwares og kunstig idioti

Vi har tidligere skrevet om Microsofts mislykkede forsøg med en chatbot, der lærte af jargonen på internettet og følgeligt blev antisemit. Der findes dog også eksempler på, at selv implementeret og testet kunstig intelligens kan få utilsigtede konsekvenser.

I Florida brugte man en algoritme til at foretage risikovurderinger af fanger, før man bestemte, om de skulle have en prøveløsladelse. COMPAS, som programmet hed, viste sig dog at være mindre tilbøjelig til at prøveløslade sorte mennesker end hvide. På fejlagtig vis tog den kunstige intelligens altså juridiske beslutningen baseret på de indsattes hudfarve. Derudover er der eksempler på ansigtsgenkendelsesprogrammer, som virker bedst på hvide og Google Translate foreslår oftere maskuline pronominer i forbindelse med visse jobtyper. Alt i alt danner de mange eksempler et samlet billede af, at fordomsfuld software udgør et væsentligt problem - både nu og i fremtiden.

Man tager generelt fejl, hvis man tror, at de beslutninger en kunstig intelligens træffer, nødvendigvis er mere neutrale eller korrekte. Det ville forudsætte, at man kunne fodre dem med neutrale data, så rent og neutralt data udgør en stor hæmsko for succesfuld kunstig intelligens. Mennesker er ikke neutrale og mennesker leverer data, så derfor bliver den kunstige intelligens heller ikke neutral. Det er noget, der skal forhindre en i at bruge teknologien. Det kræver bare, at man er opmærksom på det og ikke tror blindt på kunstige intelligens' resultater.

Artificial stupidity er ligeledes blevet et mere og mere udbredt begreb for kunstig intelligens, der nemt kan manipuleres eller træffer åndssvage beslutninger. Et glimrende eksempel er de algoritmer, som leder til flash crashes på aktiebørserne eller den teknologi, som autogenerer de t-shirts designs, der bliver sat til salg på Amazon. Den logiske konsekvens af disse autodesigns var naturligvis, at man kunne købe t-shirts med ubehagelige slogans som “Keep Calm and Rape a Lot”.

Kunstig intelligens vil naturligvis blive mere raffineret med tiden, men fejlfrie bliver de aldrig. Kan man hverken overvåge eller forstå det arbejde, den kunstige intelligens udfører, får man et problem. For dér vil det blive væsentligt sværere at udrede de fejldomme eller uhensigtsmæssige diskurser, som måtte skjule sig i dens resultater.


Uden kritisk tanke

I følge den bestsellende israelske historier Yuval Noah Harari, er problemet med kunstig intelligens, at det er fuldstændig blottet for kritisk tanke. Problemet er altså ikke, at kunstig intelligens vil gøre oprør mod mennesket, men at teknologien anlyder det blindt. Kommer kunstig intelligens i de forkerte hænder, vil det udgøre et effektivt våben, som aldrig deserterer.

Samtidig er der en uheldig tendens til at forkaste kritisk tanke i mødet med teknologien. Selv når den kunstige intelligens modsiger ens egne sanser eller sunde fornuft, har man det med at overvurdere den kunstige intelligens.

Eksempelvis lader den data, som visse futurister bruger i deres revolutionerende resultater, ikke så let kvantificere. I 2016 offentliggjorde to forskere fra Shanghai Jiao Tong University eksempelvis et studie, hvori de påstod, at de havde udviklet en kunstig intelligens, som kunne identificere forbrydere fra lovlydige borgere ved ansigtsgenkendelse. Angiveligt evnede computeren at finde forbrydere ved at se analysere deres ansigtsform. Problemet var igen, at det foregiver en falsk form for objektivitet. For som de fleste med forstand på jura ved, så er forbrydelser betinget af kultur og loven historisk foranderlig. En forbrydelse i en tid og et specifikt sted, kan være ganske lovlydigt et andet. Derfor giver præmisset for studiet ikke for alvor mening.

Kriminelle ifølge kunstig intelligens fra Kina


Menneske-centrisk kunstig intelligens

Teknofobens guide til kunstig intelligens er på ingen måde et retvisende og fyldestgørende billede, for der er ingen tvivl om, at kunstig intelligens udgør et enormt potentiale for fremtiden. Men det kræver, at vi væbner os med kritisk sans, forstår begrænsningerne og udvikler et ethos, hvor mennesker altid skal kunne følge med i, hvad den kunstige intelligens foretager sig.

En arbejdsgruppe under Europa Komissionen har for nyligt formuleret et række etiske guidelines til brug af kunstig intelligens. De anbefaler, at kunstig intelligens skal være menneske-centrisk (human-centric) og dermed aldrig være et mål i sig selv, men et middel til at øge menneskelig velvære samt beskytte menneskets individuelle rettigheder og frihed.

Troværdig kunstig intelligens må altså have to komponenter: 1. Det skal respektere fundamentale rettigheder og have etiske kerneprincipper. 2. Det skal være teknisk robust, da upålidelig teknologi kan påføre stor skade. Målet er således at udvikle en unik europæisk kunstig intelligens, som vinder konkurrencefordele ved at være etisk funderet. Det omfatter blandt andet, at kunstig intelligens skal fremme eller i hvert fald ikke skade individets frihed, respektere demokratiet og borgerettigheder samt undgå enhver diskrimination.

Derfor introducerer de følgende fem principper for kunstig intelligens. 1. Det skal gøre godt. 2. Det må ikke gøre skade. 3. Beskytte menneskelig handlingsevne. 4. Være fair og retfærdig. 5. Operere transparent.

Industry insights you won’t delete. Delivered to your inbox monthly.