Hvad er dybe forfalskede videoer og opdager dem blinker med et øje

En ny form for misinformation er klar til at sprede sig gennem onlinegrupper, når midtvejskampagnerne i 2018 bliver varmere. Kaldet "deepfakes" efter pseudonym online konto, der populariserede teknikken - som muligvis har valgt sit navn, fordi processen bruger en teknisk metode kaldet “dyb læring” - disse falske videoer ser meget realistiske ud.

Indtil videre har folk brugt dybe falske videoer i pornografi , satire for at få det til at se ud som berømte mennesker gør ting, som de normalt ikke ville.

Men det er næsten sikkert deepfakes vises i kampagnesæsonen, foregiver at skildre kandidater siger ting eller gå steder den rigtige kandidat ikke ville.

Det er Barack Obama - eller er det?

{youtube}cQ54GDm1eL0{/youtube}

Fordi disse teknikker er så nye, har folk problemer med at fortælle forskellen mellem rigtige videoer og dybe falske videoer. Mit arbejde, med min kollega Ming-Ching Chang og vores ph.d. studerende Yuezun Li, har fundet en måde at fortæl pålideligt rigtige videoer fra dybe falske videoer. Det er ikke en permanent løsning, fordi teknologien vil blive bedre. Men det er en start og giver håb om, at computere kan hjælpe folk med at fortælle sandhed fra fiktion.


indre selv abonnere grafik


Hvad er en 'dyb forfalskning' alligevel?

At lave en dyb falsk video er meget som at oversætte mellem sprog. Tjenester som Google Translate brug maskinindlæring - computeranalyse af titusinder af tekster på flere sprog - til opdage ordbrugsmønstre som de bruger til at oprette oversættelsen.

Deepfake-algoritmer fungerer på samme måde: De bruger en type maskinindlæringssystem kaldet a dybt neuralt netværk at undersøge en persons ansigtsbevægelser. Derefter syntetiserer de billeder af en anden persons ansigt med analoge bevægelser. Hvis du gør det effektivt, oprettes en video af målpersonen, der ser ud til at gøre eller sige de ting, som kildepersonen gjorde.

Hvor dybe falske videoer er lavet.

{youtube}8LhI-e2B8Lg{/youtube}

Inden de kan arbejde ordentligt, har dybe neurale netværk brug for en masse kildeinformation, såsom fotos af de personer, der er kilden eller målet for efterligning. Jo flere billeder der bruges til at træne en dyb falsk algoritme, jo mere realistisk vil den digitale efterligning være.

Registrerer blinkende

Der er stadig mangler i denne nye type algoritme. En af dem har at gøre med, hvordan de simulerede ansigter blinker - eller ikke. Sunde voksne mennesker blinker et sted mellem hvert 2. og 10. sekund, og et enkelt blink tager mellem en tiendedel og fire tiendedele af et sekund. Det er det, der ville være normalt at se i en video af en person, der taler. Men det er ikke hvad der sker i mange dybe falske videoer.

En rigtig person blinker, mens han taler.

{youtube}https://www.youtube.com/watch?v=-MMXXEA3UaM{/youtube}

Et simuleret ansigt blinker ikke som en rigtig person gør.

{youtube}EttSA9-YIuI{/youtube}

Når en deepfake-algoritme trænes i ansigtsbilleder af en person, afhænger den af ​​de fotos, der er tilgængelige på internettet, der kan bruges som træningsdata. Selv for folk, der ofte fotograferes, er der få billeder tilgængelige online, der viser deres lukkede øjne. Ikke kun er sådanne fotos sjældne - fordi folks øjne er åbne det meste af tiden - men fotografer offentliggør normalt ikke billeder, hvor hovedmotivernes øjne er lukkede.

Uden træning af billeder af mennesker, der blinker, er det mindre sandsynligt, at dybe falske algoritmer skaber ansigter, der blinker normalt. Når vi beregner den samlede hastighed for blink og sammenligner det med det naturlige interval, fandt vi ud af, at tegn i dybe falske videoer blinker meget mindre hyppigt sammenlignet med rigtige mennesker. Vores forskning bruger maskinlæring til undersøge åbning og lukning af øjne i videoer.

Dette giver os en inspiration til at opdage dybe falske videoer. Derefter udvikler vi en metode til at opdage, hvornår personen i videoen blinker. For at være mere specifik scanner den hvert billede i den pågældende video, registrerer ansigterne i den og lokaliserer derefter øjnene automatisk. Derefter bruger det et andet dybt neuralt netværk til at bestemme, om det detekterede øje er åbent eller tæt, ved hjælp af øjet 'udseende, geometriske træk og bevægelse.

Vi ved, at vores arbejde udnytter en fejl i den slags data, der er tilgængelige for at træne dybe falske algoritmer. For at undgå at blive bytte for en lignende fejl har vi trænet vores system i et stort bibliotek med billeder af både åbne og lukkede øjne. Denne metode ser ud til at fungere godt, og som et resultat har vi opnået en detekteringsrate på over 95 procent.

Dette er selvfølgelig ikke det sidste ord om afsløring af dybe forfalskninger. Teknologien er forbedrer sig hurtigt, og konkurrencen mellem generering og afsløring af falske videoer er analog med et skakspil. Især kan blinke føjes til dybe falske videoer ved at inkludere ansigtsbilleder med lukkede øjne eller ved hjælp af videosekvenser til træning. Folk, der ønsker at forvirre offentligheden, bliver bedre til at lave falske videoer - og vi og andre i teknologisamfundet bliver nødt til at fortsætte med at finde måder til at opdage dem.The Conversation

Om forfatteren

Siwei Lyu, lektor i datalogi; Direktør, Computer Vision og Machine Learning Lab, Universitet i Albany, State University of New York

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede bøger

at InnerSelf Market og Amazon