At finde tillid og forståelse i autonome teknologierFoto af: Norbert Aepli, Schweiz (Bruger: Noebu)

I 2016 gik selvkørende biler mainstream. Ubers autonome køretøjer blev allestedsnærværende i kvarterer, hvor jeg bor i Pittsburgh, og kort i San Francisco. Det amerikanske transportministerium udstedte ny lovgivningsmæssig vejledning for dem. Utallige papirer , kolonner diskuterede, hvordan selvkørende biler bør løse etiske vanskeligheder når ting går galt. Og desværre så 2016 også første dødsfald med et autonomt køretøj.

Autonome teknologier spreder sig hurtigt ud over transportsektoren til sundhedspleje, avanceret cyberforsvar og endog autonome våben. I 2017 bliver vi nødt til at beslutte, om vi kan stole på disse teknologier. Det bliver meget sværere, end vi kunne forvente.

Tillid er kompleks og varieret, men også en vigtig del af vores liv. Vi stoler ofte på teknologi baseret på forudsigelighed: Jeg stoler på noget, hvis jeg ved, hvad det vil gøre i en bestemt situation, selvom jeg ikke ved hvorfor. For eksempel stoler jeg på min computer, fordi jeg ved, hvordan den fungerer, herunder hvornår den går i stykker. Jeg holder op med at stole på, hvis det begynder at opføre sig anderledes eller overraskende.

Derimod er min tillid til min kone baseret på forstå hendes tro, værdier og personlighed. Mere generelt involverer tillid mellem mennesker ikke at vide nøjagtigt, hvad den anden person vil gøre - min kone overrasker mig bestemt nogle gange! - men snarere hvorfor de handler som de gør. Og selvfølgelig kan vi stole på nogen (eller noget) på begge måder, hvis vi ved både hvad de vil gøre og hvorfor.

Jeg har undersøgt mulige baser for vores tillid til selvkørende biler og anden autonom teknologi fra både etiske og psykologiske perspektiver. Disse er enheder, så forudsigelighed kan virke som nøglen. På grund af deres autonomi er vi dog nødt til at overveje vigtigheden og værdien - og udfordringen - ved at lære at stole på dem på den måde, vi stoler på andre mennesker.


indre selv abonnere grafik


Autonomi og forudsigelighed

Vi ønsker, at vores teknologier, herunder selvkørende biler, opfører sig på måder, vi kan forudsige og forvente. Selvfølgelig kan disse systemer være ret følsomme over for sammenhængen, herunder andre køretøjer, fodgængere, vejrforhold og så videre. Generelt kan vi dog forvente, at en selvkørende bil, der gentagne gange placeres i det samme miljø, formodentlig burde opføre sig ens hver gang. Men i hvilken forstand ville disse meget forudsigelige biler være autonome, snarere end blot automatiske?

Der har været mange forskellige Forsøg på til definere autonomi, men de har alle dette til fælles: Autonome systemer kan tage deres egne (materielle) beslutninger og planer og kan derved handle anderledes end forventet.

Faktisk er en grund til at anvende autonomi (adskilt fra automatisering) netop, at disse systemer kan forfølge uventede og overraskende, omend det er forsvarlige, handlingsforløb. For eksempel, DeepMinds AlphaGo vandt det andet spil i sin seneste Go-serie mod Lee Sedol delvis på grund af et træk, som ingen menneskelig spiller nogensinde ville foretage sig, men ikke desto mindre var det rigtige træk. Men de samme overraskelser gør det vanskeligt at skabe forudsigelighed-baseret tillid. Stærk tillid baseret udelukkende på forudsigelighed er uden tvivl kun mulig for automatiserede eller automatiske systemer, netop fordi de er forudsigelige (forudsat at systemet fungerer normalt).

Omfavnende overraskelser

Selvfølgelig overrasker andre ofte os, og alligevel kan vi stole på dem i bemærkelsesværdig grad og endda give dem magt over liv og død over os selv. Soldater stoler på deres kammerater i komplekse, fjendtlige miljøer; en patient stoler på sin kirurg til at udskære en tumor; og i en mere verdslig retning stoler min kone på, at jeg kører sikkert. Denne interpersonelle tillid giver os mulighed for at omfavne overraskelserne, så måske kunne vi udvikle noget som interpersonel tillid til selvkørende biler?

Generelt kræver interpersonel tillid en forståelse af, hvorfor nogen handlede på en bestemt måde, selvom du ikke kan forudsige den nøjagtige beslutning. Min kone ved muligvis ikke nøjagtigt, hvordan jeg skal køre, men hun kender den slags ræsonnement, jeg bruger, når jeg kører. Og det er faktisk relativt let at forstå, hvorfor en anden gør noget, netop fordi vi alle tænker og tænker stort set ens, om end med forskellige "rå ingredienser" - vores tro, ønsker og oplevelser.

Faktisk slutter vi kontinuerligt og ubevidst andre menneskers tro og ønsker baseret på deres handlinger, i vid udstrækning ved at antage, at de tænker, begrunder og beslutter nogenlunde som vi gør. Alle disse slutninger og ræsonnement baseret på vores fælles (menneskelige) erkendelse gør det muligt for os at forstå andres årsager og derved opbygge interpersonel tillid over tid.

Tænker som mennesker?

Autonome teknologier - især selvkørende biler - tænker ikke og beslutter ikke som mennesker. Der har været en indsats, begge dele forbi , nylige, at udvikle computersystemer, der tænker og tænker som mennesker. Imidlertid har et konsekvent tema for maskinlæring i de sidste to årtier været de enorme gevinster, der er opnået netop ved ikke at kræve, at vores kunstige intelligenssystemer fungerer på menneskelignende måder. I stedet har maskinindlæringsalgoritmer og systemer som AlphaGo ofte været i stand til det overgå menneskelige eksperter ved at fokusere på specifikke, lokaliserede problemer og derefter løse dem helt anderledes end mennesker gør.

Som et resultat kan forsøg på at fortolke en autonom teknologi i form af menneskelignende tro og ønsker gå spektakulært galt. Når en menneskelig chauffør ser en kugle i vejen, sænker de fleste af os automatisk betydeligt for at undgå at ramme et barn, der måske jager efter det. Hvis vi kører i en autonom bil og ser en kugle rulle ud på gaden, forventer vi, at bilen genkender den og er parat til at stoppe for at køre børn. Bilen kan dog kun se en hindring, der skal undgås. Hvis det svinger uden at bremse, kan menneskerne om bord være foruroliget - og et barn kan være i fare.

Vores konklusioner om ”selvtillidens” tro og ”ønsker” vil næsten helt sikkert være fejlagtige på vigtige måder, netop fordi bilen ikke har nogen menneskelig tro eller ønsker. Vi kan ikke udvikle interpersonel tillid til en selvkørende bil ved blot at se den køre, da vi ikke korrekt udleder, hvorfor det er bag dens handlinger.

Naturligvis kunne samfundskunder eller markedskunder massivt insistere på, at selvkørende biler har menneskelignende (psykologiske) træk, netop så vi kunne forstå og udvikle interpersonel tillid til dem. Denne strategi ville give en helt ny betydning til “menneskeligt centreret design, ”Da systemerne ville være designet specifikt, så deres handlinger kan fortolkes af mennesker. Men det ville også kræve inkludering af nye algoritmer , teknikker i den selvkørende bil, som alle ville repræsentere en massiv ændring fra nuværende forsknings- og udviklingsstrategier for selvkørende biler og andre autonome teknologier.

Selvkørende biler har potentialet til radikalt at omforme vores transportinfrastruktur på mange gavnlige måder, men kun hvis vi kan stole på dem nok til faktisk at bruge dem. Og ironisk nok er netop den funktion, der gør selvkørende biler værdifulde - deres fleksible, autonome beslutningstagning på tværs af forskellige situationer - netop det, der gør det svært at stole på dem.

The Conversation

godkende her

David Danks, professor i filosofi og psykologi, Carnegie Mellon University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede Bøger:

at InnerSelf Market og Amazon