YouTubes algoritmer kan radikalisere mennesker - men det virkelige problem er, at vi ikke har nogen idé om, hvordan de fungerer Hr. Tempter / Shutterstock

Skaber YouTube ekstremister? EN nylig undersøgelse forårsagede argumenter blandt forskere ved at hævde, at algoritmerne, der driver webstedet, ikke hjælper med at radikalisere folk ved at anbefale stadig mere ekstreme videoer, som er blevet foreslået i de seneste år.

Papiret, der blev sendt til open-access journal Første mandag, men endnu ikke formelt peer-reviewed, analyserede videoanbefalinger modtaget af forskellige typer kanaler. Det hævdede, at YouTubes algoritme favoriserer almindelige mediekanaler frem for uafhængigt indhold, og konkluderer, at radikalisering har mere at gøre med de mennesker, der skaber skadeligt indhold, end webstedsalgoritmen.

Specialister på området var hurtige ind svar på undersøgelsen, hvor nogle kritiserer papirets metoder og andre argumenterede for algoritmen var en af flere vigtige faktorer og kun datavidenskaben giver os ikke svaret.

Problemet med denne diskussion er, at vi ikke rigtig kan besvare spørgsmålet om, hvilken rolle YouTubes algoritme spiller for at radikalisere mennesker, fordi vi ikke forstår, hvordan det fungerer. Og dette er bare et symptom på et meget bredere problem. Disse algoritmer spiller en stigende rolle i vores daglige liv, men mangler nogen form for gennemsigtighed.

Det er svært at argumentere for, at YouTube ikke spiller en rolle i radikalisering. Dette blev først påpeget af teknologisociologen Zeynep Tufekci, der illustrerede, hvordan anbefalede videoer gradvist driver brugerne mod mere ekstremt indhold. Med Tufekcis ord fører videoer om jogging til videoer om kørsel af ultramarathoner, videoer om vacciner fører til sammensværgelsesteorier, og videoer om politik fører til ”Holocaust-benægtelse og andet foruroligende indhold”.


indre selv abonnere grafik


Dette er også blevet skrevet om i detaljer af den tidligere YouTube-medarbejder Guillaume Chaslot, der arbejdede på websteds anbefalingsalgoritme. Siden han forlod virksomheden, har Chaslot fortsat forsøgt at komme med disse anbefalinger mere gennemsigtig. Han siger, at YouTube-anbefalinger er forudindtaget konspirationsteorier og faktisk unøjagtige videoer, som ikke desto mindre får folk til at bruge mere tid på siden.

I virkeligheden, maksimering af vagttiden er hele pointen med YouTubes algoritmer, og dette tilskynder videoskabere til at kæmpe for opmærksomhed på enhver mulig måde. Virksomhedens renhed manglende gennemsigtighed om præcis hvordan dette fungerer gør det næsten umuligt at bekæmpe radikalisering på webstedet. Uden gennemsigtighed er det trods alt svært at vide, hvad der kan ændres for at forbedre situationen.

YouTubes algoritmer kan radikalisere mennesker - men det virkelige problem er, at vi ikke har nogen idé om, hvordan de fungerer Hvordan YouTubes algoritme fungerer er fortsat et mysterium. Hvem er Danny / Shutterstock

Men YouTube er ikke usædvanligt i denne henseende. Manglende gennemsigtighed om, hvordan algoritmer fungerer, er normalt tilfældet, når de bruges i store systemer, hvad enten det er af private virksomheder eller offentlige organer. Ud over at beslutte, hvilken video du skal vise dig næste, er maskinindlæringsalgoritmer nu vant til placere børn i skolerne, beslutter dig for fængselsstraf, bestemme kredit score , forsikringssatser, samt skæbnen for indvandrere, jobkandidater , universitetsansøgere. Og normalt forstår vi ikke, hvordan disse systemer træffer deres beslutninger.

Forskere har fundet kreative måder at vise virkningen af ​​disse algoritmer på samfundet, hvad enten det er ved at undersøge stigning af den reaktionære højre eller spredning af sammensværgelsesteorier på YouTube eller ved at vise hvordan søgemaskiner afspejler de racistiske fordomme af de mennesker, der skaber dem.

Machine-learning-systemer er normalt store, komplekse og uigennemsigtige. Passende beskrives de ofte som sorte kasser, hvor information går ind, og information eller handlinger kommer ud, men ingen kan se, hvad der sker imellem. Dette betyder, at da vi ikke ved nøjagtigt, hvordan algoritmer som YouTube-anbefalingssystemet fungerer, ville det være at prøve at finde ud af, hvordan webstedet fungerer, som at prøve at forstå en bil uden at åbne motorhjelmen.

Til gengæld betyder det, at forsøg på at skrive love for at regulere, hvad algoritmer skal eller ikke skal gøre, bliver en blind proces eller forsøg og fejl. Dette er hvad der sker med YouTube og med så mange andre maskinindlæringsalgoritmer. Vi prøver at få indflydelse på deres resultater uden en reel forståelse af, hvordan de virkelig fungerer. Vi er nødt til at åbne disse patenterede teknologier eller i det mindste gøre dem gennemsigtige nok til, at vi kan regulere dem.

Forklaringer og test

En måde at gøre dette på er, at algoritmer leverer kontrafaktiske forklaringer sammen med deres beslutninger. Dette betyder at udarbejde de nødvendige minimumsbetingelser for, at algoritmen kan tage en anden beslutning uden at beskrive dens fulde logik. For eksempel kan en algoritme, der træffer beslutninger om banklån, muligvis give et output, der siger, at "hvis du var over 18 og ikke havde nogen tidligere gæld, ville du få dit banklån accepteret". Men dette kan være svært at gøre med YouTube og andre websteder, der bruger anbefalingsalgoritmer, da teoretisk kan enhver video på platformen anbefales på ethvert tidspunkt.

Et andet kraftfuldt værktøj er algoritmetestning og revision, hvilket har været særligt nyttigt til diagnosticering af forudindtagede algoritmer. I en nylig sag opdagede et professionelt CV-screeningsfirma, at dets algoritme var prioriterer to faktorer som de bedste forudsigere for jobpræstation: om kandidatens navn var Jared, og om de spillede lacrosse i gymnasiet. Dette er, hvad der sker, når maskinen ikke overvåges.

I dette tilfælde havde genoptagelsescreeningsalgoritmen bemærket, at hvide mænd havde en større chance for at blive ansat og havde fundet korrelerende proxyegenskaber (såsom at blive navngivet Jared eller spille lacrosse) til stede i de kandidater, der blev ansat. Med YouTube kan algoritmeaudit hjælpe med at forstå, hvilke typer videoer der prioriteres til anbefaling - og måske hjælpe med at bilægge debatten om, hvorvidt YouTube-anbefalinger bidrager til radikalisering eller ej.

Introduktion af kontrafaktiske forklaringer eller anvendelse af algoritmeaudit er en vanskelig og kostbar proces. Men det er vigtigt, fordi alternativet er værre. Hvis algoritmer bliver ukontrollerede og uregulerede, kunne vi se et gradvist kryb af sammensværgelsesteoretikere og ekstremister i vores medier, og vores opmærksomhed styres af den, der kan producere det mest rentable indhold.The Conversation

Om forfatteren

Chico Q. Camargo, postdoktorforsker i datalogi, University of Oxford

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.