Hvordan forståelse af dyr kan hjælpe os med at få mest muligt ud af kunstig intelligensAutonome biler er ikke klogere end dette. X posid

Hver dag kommer utallige overskrifter fra utallige kilder over hele kloden, begge advarsel om alvorlige konsekvenser , lovende utopiske futures - alt takket være kunstig intelligens. AI “transformerer arbejdspladsen,” skriver Wall Street Journal, mens rigdom magasinet fortæller os, at vi står over for en "AI-revolution", der vil "ændre vores liv." Men vi forstår ikke rigtig, hvordan interaktion med AI vil være - eller hvordan det skal være. The Conversation

Det viser sig imidlertid, at vi allerede har et koncept, vi kan bruge, når vi tænker på AI: Det er, hvordan vi tænker på dyr. Som en tidligere dyretræner (omend kort), der nu studerer, hvordan folk bruger AI, ved jeg, at dyr og dyreuddannelse kan lære os meget om, hvordan vi skal tænke på, nærme os og interagere med kunstig intelligens, både nu og i fremtid.

Brug af dyreanalogier kan hjælpe almindelige mennesker med at forstå mange af de komplekse aspekter af kunstig intelligens. Det kan også hjælpe os med at tænke over, hvordan vi bedst lærer disse systemer nye færdigheder, og måske vigtigst af alt, hvordan vi korrekt kan udtænke deres begrænsninger, selv når vi fejrer AIs nye muligheder.

Ser på begrænsninger

Som AI-ekspert Maggie Boden forklarer, "Kunstig intelligens søger at få computere til at gøre de slags ting, som sind kan gøre." AI-forskere arbejder på at lære computere at ræsonnere, opfatte, planlægge, flytte og skabe foreninger. AI kan se mønstre i store datasæt, forudsige sandsynligheden for en begivenhed, planlægge en rute, styre en persons mødeplan og endda spille krigsspilscenarier.

Mange af disse muligheder er i sig selv ikke overraskende: Selvfølgelig kan en robot rulle rundt i et rum og ikke kollidere med noget. Men på en eller anden måde virker AI mere magisk, når computeren begynder at sætte disse færdigheder sammen for at udføre opgaver.


indre selv abonnere grafik


Tag for eksempel autonome biler. Oprindelsen til den førerløse bil er i et 1980-årig Defense Advanced Research Project Agency-projekt kaldet Autonomt landkøretøj. Projektets mål var at tilskynde til forskning i computersyn, opfattelse, planlægning og robotkontrol. I 2004 blev ALV-indsatsen den første Stor udfordring til selvkørende biler. Nu, mere end 30 år siden indsatsen begyndte, befinder vi os på afgrunden af ​​autonome eller selvkørende biler på det civile marked. I de tidlige år troede kun få mennesker, at en sådan bedrift var umulig: Computere kunne ikke køre!

DARPA Grand Challenge skubbede udviklingen af ​​autonome køretøjer.

{youtube}M2AcMnfzpNg{/youtube}

Som vi har set, de kan. Autonome bilers kapacitet er relativt let for os at forstå. Men vi kæmper for at forstå deres begrænsninger. Efter 2015 fatalt Tesla-nedbrud, hvor bilens autopilotfunktion ikke kunne mærke en traktor-trailer, der krydsede ind i sin vognbane, synes få stadig at forstå, hvor alvorlig Teslas autopilot egentlig er. Mens virksomheden og dens software var ryddet for uagtsomhed af National Highway Traffic Safety Administration forbliver det uklart, om kunderne virkelig forstår, hvad bilen kan og ikke kan.

Hvad hvis Tesla-ejere fik at vide, at de ikke var det kørsel af en “beta” version af en autopilot men snarere en semi-autonom bil med mental ækvivalens af en orm? Den såkaldte "intelligens", der giver "fuld selvkørende kapacitet”Er virkelig en kæmpe computer, der er ret god til at registrere objekter og undgå dem, genkende genstande i billeder og begrænset planlægning. Det kan ændre ejernes perspektiv på, hvor meget bilen virkelig kunne klare uden menneskelig input eller tilsyn.

Hvad er det?

Teknologer forsøger ofte at forklare AI med hensyn til, hvordan den er bygget. Tag for eksempel fremskridt i dyb læring. Dette er en teknik, der bruger netværk i flere lag at lære at udføre en opgave. Netværkerne skal behandle store mængder information. Men på grund af mængden af ​​data, de har brug for, kompleksiteten af ​​associationer og algoritmer i netværkene, er det ofte uklart for mennesker, hvordan de lærer, hvad de gør. Disse systemer kan blive meget gode til en bestemt opgave, men vi forstår dem ikke rigtig.

I stedet for at tænke på AI som noget overmenneskeligt eller fremmed, er det lettere at analogisere dem med dyr, intelligente ikke-mennesker, vi har erfaring med træning.

For eksempel hvis jeg skulle bruge forstærkning læring for at træne en hund til at sidde, vil jeg rose hunden og give ham godbidder, når han sidder på kommando. Over tid lærte han at forbinde kommandoen med opførsel med godbidder.

At lære en hund at sidde er meget som at træne en kunstig intelligens.

{youtube}5-MA-rGbt9k{/youtube}

Uddannelse af et AI-system kan være meget det samme. I forstærkning dyb læring, opretter menneskelige designere et system, forestiller sig, hvad de vil have det til at lære, giver det information, ser dets handlinger og giver det feedback (såsom ros), når de ser, hvad de vil have. I det væsentlige kan vi behandle AI-systemet som vi behandler dyr, vi træner.

Analogien fungerer også på et dybere niveau. Jeg forventer ikke, at den siddende hund forstår komplekse begreber som "kærlighed" eller "god". Jeg forventer, at han lærer en adfærd. Ligesom vi kan få hunde til at sidde, blive og vælte, kan vi få AI-systemer til at flytte biler rundt på offentlige veje. Men det er for meget at forvente, at bilen “løse" det etiske problemer, der kan opstå i forbindelse med nødsituationer.

Hjælper også forskere

At tænke på AI som et dyr, der kan trænes, er ikke kun nyttigt til at forklare det for offentligheden. Det er også nyttigt for forskere og ingeniører, der bygger teknologien. Hvis en AI-lærer forsøger at lære et system en ny færdighed, kan det at tænke på processen fra en dyreuddannelsesperspektiv hjælpe med at identificere potentielle problemer eller komplikationer.

For eksempel, hvis jeg prøver at træne min hund til at sidde, og hver gang jeg siger "sidder" slukker summeren til ovnen, så begynder min hund at forbinde siddende ikke kun med min kommando, men også med lyden af ovnens summer. I virkeligheden bliver summeren endnu et signal, der fortæller hunden at sidde, hvilket kaldes en ”utilsigtet forstærkning”. Hvis vi ser efter utilsigtede forstærkninger eller signaler i AI-systemer, der ikke fungerer korrekt, ved vi ikke kun bedre, hvad der går galt, men også hvilken specifik omskoling der er mest effektiv.

Dette kræver, at vi forstår, hvilke meddelelser vi giver under AI-træning, såvel som hvad AI måske observerer i det omgivende miljø. Ovnens summer er et simpelt eksempel; i den virkelige verden vil det være langt mere kompliceret.

Før vi byder vores AI-overherrer velkommen og overleverer vores liv og job til robotter, bør vi stoppe og tænke over den slags intelligenser, vi skaber. De vil være meget gode til at udføre bestemte handlinger eller opgaver, men de kan ikke forstå begreber og ved ikke noget. Så når du tænker over beskytter tusinder for en ny Tesla-bil skal du huske, at dens autopilotfunktion egentlig bare er en meget hurtig og sexet orm. Vil du virkelig give en orm kontrol over dit liv og dine kære? Sandsynligvis ikke, så hold hænderne på rattet og ikke falde i søvn.

Om forfatteren

Heather Roff, Senior Research Fellow, Institut for Politik & Internationale Relationer, University of Oxford; Forsker, Global Security Initiative, Arizona State University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede bøger

at InnerSelf Market og Amazon