Kunstig intelligens kan nu efterligne menneskelig adfærd og snart vil det være farligt godtEr dette ansigt bare en samling af computerbits? FOTOKRE Michal Bednarek / Shutterstock.com

Når kunstige intelligenssystemer begynder at blive kreative, kan de skabe store ting - og skræmmende. Tag for eksempel et AI-program, der lader webbrugere komponerer musik sammen med en virtuel Johann Sebastian Bach ved at indtaste noter i et program, der genererer Bach-lignende harmonier, der passer til dem.

Kør af Google, appen drew stor ros for at være banebrydende og sjov at lege med. Det tiltrak også kritikog rejste bekymring over AI's farer.

Min undersøgelse af hvordan nye teknologier påvirker folks liv har lært mig, at problemerne går ud over den ganske vist store bekymring for om algoritmer virkelig kan oprette musik eller kunst generelt. Nogle klager virkede små, men var det virkelig ikke, som observationer om, at Googles AI var bryde grundlæggende regler af musiksammensætning.

Faktisk kan bestræbelser på at få computere til at efterligne faktiske menneskers opførsel være forvirrende og potentielt skadelige.


indre selv abonnere grafik


Efterligningsteknologier

Googles program analyserede noterne i 306 af Bachs musikværker og fandt forhold mellem melodien og de noter, der gav harmonien. Da Bach fulgte strenge regler for komposition, lærte programmet effektivt disse regler, så det kunne anvende dem, når brugerne leverede deres egne noter.

 Google Doodle-teamet forklarer Bach-programmet.

{youtube}XBfYPp6KF2g{/youtube}

Selve Bach-appen er ny, men den underliggende teknologi ikke. Algoritmer trænet til genkende mønstre og laver sandsynlige beslutninger har eksisteret i lang tid. Nogle af disse algoritmer er så komplekse, at folk forstår ikke altid hvordan de tager beslutninger eller producerer et bestemt resultat.

AI-systemer er ikke perfekte - mange af dem stoler på data, der ikke er repræsentative af hele befolkningen, eller det er påvirket af menneskelige fordomme. Det er ikke helt klart der kan være juridisk ansvarlige når et AI-system laver en fejl eller forårsager et problem.

Nu bliver kunstig intelligens teknologier imidlertid avanceret nok til at være i stand til at tilnærme individers skrive- eller talestil og endda ansigtsudtryk. Dette er ikke altid dårligt: ​​En ret simpel AI gav Stephen Hawking den evne til at kommunikere mere effektivt med andre ved at forudsige de ord, han ville bruge mest.

Mere komplekse programmer, der efterligner menneskelige stemmer hjælpe mennesker med handicap - men kan også bruges til at bedrage lyttere. For eksempel skaberne af Lyrebird, et stemmemimiceringsprogram, har frigivet en simuleret samtale mellem Barack Obama, Donald Trump og Hillary Clinton. Det lyder måske ægte, men den udveksling skete aldrig.

Fra godt til dårligt

I februar 2019 oprettede nonprofitfirmaet OpenAI et program, der genererer tekst, der er næsten ikke skelnes fra tekst skrevet af mennesker. Det kan "skrive" en tale i stil med John F. Kennedy, JRR Tolkien i “The Lord of the Rings”Eller en studerende skriver en skoleopgave om den amerikanske borgerkrig.

Teksten genereret af OpenAIs software er så troværdig, at virksomheden har valgt ikke at frigive selve programmet.

Lignende teknologier kan simulere fotos og videoer. I begyndelsen af ​​2018 oprettede skuespilleren og filmskaberen Jordan Peele for eksempel en video, der syntes at vise den tidligere amerikanske præsident Barack Obama siger ting, som Obama faktisk aldrig sagde at advare offentligheden om farerne ved disse teknologier.

Vær forsigtig med, hvilke videoer du tror på.

{youtube}cQ54GDm1eL0{/youtube}

I begyndelsen af ​​2019 blev a falsk nøgenfoto af den amerikanske rep. Alexandria Ocasio-Cortez cirkuleret online. Fabrikerede videoer, ofte kaldet “deepfakes, ”Forventes at være stigende anvendte i valgkampagner.

Medlemmer af kongressen er begyndt at undersøge dette spørgsmål inden valget i 2020. US Defense Department underviser offentligheden hvordan man får øje på doktorgradsvideoer og lyd. Nyhedsorganisationer som Reuters begynder at uddanne journalister til at få øje på dybe forfalskninger.

Men efter min mening forbliver en endnu større bekymring: Brugere kan muligvis ikke lære hurtigt nok til at skelne falsk indhold, når AI-teknologi bliver mere sofistikeret. For eksempel, da offentligheden begynder at blive opmærksom på dybe forfalskninger, bliver AI allerede brugt til endnu mere avancerede bedrag. Der er nu programmer, der kan generere falske ansigter , falske digitale fingeraftryk, effektivt at skabe de nødvendige oplysninger til at fremstille en hel person - i det mindste i virksomheds- eller regeringsjournaler.

Maskiner fortsætter med at lære

I øjeblikket er der nok potentielle fejl i disse teknologier til at give folk en chance for at opdage digitale fabrikationer. Googles Bach-komponist lavede nogle fejl kunne en ekspert opdage. For eksempel, da jeg prøvede det, tillod programmet mig at komme ind parallelle femtedele, et musikinterval, som Bach studiously undgås. Appen også brød musikalske regler af kontrapunkt ved at harmonisere melodier i den forkerte nøgle. Tilsvarende skrev OpenAIs tekstgenererende program lejlighedsvis sætninger som “brande sker under vand”Det gav ingen mening i deres sammenhænge.

Når udviklere arbejder på deres kreationer, bliver disse fejl sjældnere. Effektivt vil AI-teknologier udvikle sig og lære. Den forbedrede ydeevne har potentialet til at medføre mange sociale fordele - herunder bedre sundhedspleje, som AI-programmer hjælper demokratisere praksis med medicin.

At give forskere og virksomheder frihed til at udforske for at søge disse positive resultater fra AI-systemer betyder at åbne risikoen for at udvikle mere avancerede måder til at skabe bedrag og andre sociale problemer. Alvorligt begrænsende AI-forskning kunne bremse den fremgang. Men at give gavnlige teknologier plads til at vokse har ingen ringe pris - og potentialet for misbrug, hvad enten det er at lave unøjagtig "Bach-lignende" musik eller at bedrage millioner, vil sandsynligvis vokse på måder, som folk endnu ikke kan forvente.The Conversation

Om forfatteren

Ana Santos Rutschman, lektor i jura, Saint Louis University

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.

Relaterede bøger

at InnerSelf Market og Amazon