Kan teknologi redde os fra misinformation på sociale medier?

Hvis du får dine nyheder fra sociale medier, som det gør de fleste amerikanere, bliver du udsat for en daglig dosis fusk, rygter, konspirationsteorier og vildledende nyheder. Når alt sammen er blandet med pålidelig information fra ærlige kilder, kan sandheden være meget vanskelig at skelne.

Faktisk er mit forskergruppes analyse af data fra Columbia Universitys emergent rygter tracker antyder, at dette misinformation er lige så sandsynligt, at den bliver viral som pålidelig information.

Mange spørger, om dette angreb af digital misinformation påvirket resultatet af det amerikanske valg i 2016. Sandheden er, at vi ikke ved det, selvom der er grunde til at tro, at det er fuldstændigt muligt, baseret på tidligere analyse , konti fra andre lande. Hvert stykke misinformation bidrager til udformningen af ​​vores meninger. Samlet set kan skaden være meget reel.

Som forsker i spredning af misinformation gennem sociale medier ved jeg, at det begrænser nyhedsfakternes evne til at sælge annoncer, som for nylig annonceret af Google , Facebook, er et skridt i den rigtige retning. Men det vil ikke bremse misbrug drevet af politiske motiver.

Udnyttelse af sociale medier

For omkring 10 år siden kørte mine kolleger og jeg en eksperiment hvor vi lærte 72 procent af universitetsstuderende pålidelige links, der syntes at stamme fra venner - selv til det punkt, hvor vi indtastede personlige loginoplysninger på phishing-websteder. Denne udbredte sårbarhed foreslog en anden form for ondsindet manipulation: Folk tror måske også på misinformation, som de modtager, når de klikker på et link fra en social kontakt.

For at udforske denne idé oprettede jeg en falsk webside med tilfældige, computergenererede sladdernyheder - ting som "Celebrity X fanget i seng med Celebrity Y!" Besøgende på webstedet, der søgte efter et navn, ville udløse scriptet til automatisk at fremstille en historie om personen. Jeg inkluderede en ansvarsfraskrivelse på siden, idet jeg sagde, at webstedet indeholdt meningsløs tekst og sammensatte "fakta". Jeg placerede også annoncer på siden. I slutningen af ​​måneden fik jeg en check i mailen med indtjening fra annoncerne. Det var mit bevis: Falske nyheder kunne tjene penge ved at forurene internettet med løgn.


indre selv abonnere grafik


Desværre var jeg ikke den eneste med denne idé. Ti år senere har vi en industri af falske nyheder , digital misinformation. Clickbait-websteder fremstiller hoaxes for at tjene penge på annoncer, mens såkaldte hyperpartisan-sites offentliggør og spreder rygter og konspirationsteorier for at påvirke den offentlige mening.

Denne industri understøttes af, hvor let det er at skabe sociale bots, falske konti, der styres af software, der ligner rigtige mennesker og derfor kan have reel indflydelse. Forskning i min lab afsløret mange eksempler på falske græsrodskampagner, også kaldet politisk astroturfing.

Som svar udviklede vi BotEllerNot værktøj til at opdage sociale bots. Det er ikke perfekt, men nøjagtig nok at afdække overtalelseskampagner i Brexit og antivax bevægelser. Ved hjælp af BotOrNot fandt vores kolleger, at en stor del af online chatter om valget i 2016 blev genereret af bots.

Oprettelse af informationsbobler

Vi mennesker er sårbare over for manipulation med digital misinformation takket være et komplekst sæt sociale, kognitive, økonomiske og algoritmiske fordomme. Nogle af disse har udviklet sig af gode grunde: Tillidssignaler fra vores sociale kredse og afvisning af oplysninger, der modsiger vores erfaring, tjente os godt, da vores art tilpassede sig til at unddrage sig rovdyr. Men i dagens krympende onlinenetværk hjælper en social netværksforbindelse med en sammensværgelsesteoretiker på den anden side af planeten ikke med at informere mine meninger.

Kopiering af vores venner og følgning af dem med forskellige meninger giver os ekkokamre polariseret at forskere med høj nøjagtighed kan fortælle, om du er liberal eller konservativ ved bare at se på dine venner. Netværksstrukturen er sådan tætte at enhver misinformation spredes næsten øjeblikkeligt inden for en gruppe og så adskilt, at den ikke når den anden.

Inde i vores boble udsættes vi selektivt for information, der er tilpasset vores tro. Det er et ideelt scenarie for at maksimere engagement, men et skadeligt scenarie for at udvikle sund skepsis. Bekræftelsesforspænding fører os til at dele en overskrift uden selv at læse artiklen.

Vores laboratorium fik en personlig lektion i dette, da vores eget forskningsprojekt blev genstand for en ondskabsfuld misinformationskampagne i opløbet af det amerikanske midtvejsvalg i 2014. Da vi undersøgte, hvad der skete, fandt vi falske nyhedshistorier om, at vores forskning overvejende deles af Twitter-brugere inden for et partisk ekkokammer, et stort og homogent samfund af politisk aktive brugere. Disse mennesker var hurtige til at retweet og uigennemtrængelige for debunking af oplysninger.

Viral uundgåelighed

Vores forskning viser, at det i betragtning af strukturen i vores sociale netværk og vores begrænsede opmærksomhed er det uundgåelige at nogle memer bliver viral uanset deres kvalitet. Selvom enkeltpersoner har tendens til at dele oplysninger af højere kvalitet, er netværket som helhed ikke effektivt til at skelne mellem pålidelig og fabrikeret information. Dette hjælper med at forklare alle de virale hoaxes, vi observerer i naturen.

opmærksomhedsøkonomi tager sig af resten: Hvis vi er opmærksomme på et bestemt emne, produceres der mere information om dette emne. Det er billigere at fabrikere oplysninger og videregive dem som faktiske, end det er at rapportere sandheden. Og fabrikation kan skræddersys til hver gruppe: Konservative læser, at paven støttede Trump, liberale læste, at han støttede Clinton. Han gjorde ingen af ​​dem.

Holdes til algoritmer

Da vi ikke kan være opmærksomme på alle indlæg i vores feeds, bestemmer algoritmer, hvad vi ser, og hvad vi ikke ser. Algoritmerne, der bruges af sociale medieplatforme i dag, er designet til at prioritere engagerende indlæg - dem, vi sandsynligvis vil klikke på, reagere på og dele. Men en nylig analyse fandt med vilje vildledende sider fik i det mindste så meget online deling og reaktion som reelle nyheder.

Denne algoritmiske bias mod engagement i sandheden styrker vores sociale og kognitive bias. Når vi følger links, der deles på sociale medier, har vi en tendens til at besøge et mindre, mere homogen sæt kilder, end når vi foretager en søgning og besøger de bedste resultater.

Eksisterende forskning viser, at det at være i et ekkokammer kan skabe mennesker mere godtroende om at acceptere ubekræftede rygter. Men vi har brug for at vide meget mere om, hvordan forskellige mennesker reagerer på en enkelt svindel: Nogle deler det med det samme, andre kontrollerer det først.

Vi simulering af et socialt netværk at studere denne konkurrence mellem deling og faktakontrol. Vi håber at hjælpe med at løse konfliktfulde beviser om når faktakontrol hjælper med at stoppe hoaxes fra at sprede sig, og når det ikke gør det. Vores foreløbige resultater tyder på, at jo mere segregeret samfundet af hoax-troende, jo længere overlever hoax. Igen handler det ikke kun om hoax selv, men også om netværket.

Mange mennesker prøver at finde ud af det hvad man skal gøre ved alt dette. Ifølge Mark Zuckerbergs seneste meddelelse, Facebook-teams tester mulige muligheder. Og en gruppe universitetsstuderende har foreslået en måde at bare mærke delte links som “verificeret” eller ej.

Nogle løsninger forbliver utilgængelige, i det mindste i øjeblikket. For eksempel kan vi endnu ikke lære kunstige intelligenssystemer, hvordan man gør det skelne mellem sandhed og løgn. Men vi kan fortælle placeringsalgoritmer at prioritere mere pålidelige kilder højere.

Studerer spredning af falske nyheder

Vi kan gøre vores kamp mod falske nyheder mere effektiv, hvis vi bedre forstår, hvordan dårlig information spreder sig. Hvis for eksempel bots er ansvarlige for mange af falskerne, kan vi fokusere opmærksomheden på at opdage dem. Hvis problemet alternativt er med ekkokamre, kan vi måske designe anbefalingssystemer, der ikke udelukker forskellige synspunkter.

Til dette formål bygger vores laboratorium en platform kaldet Hoaxy at spore og visualisere spredning af ubekræftede påstande og tilsvarende faktakontrol på sociale medier. Det vil give os virkelige data, som vi kan informere vores simulerede sociale netværk med. Derefter kan vi teste mulige tilgange til bekæmpelse af falske nyheder.

Hoaxy kan også være i stand til at vise folk, hvor let det er for deres meninger at blive manipuleret af onlineoplysninger - og endda hvor sandsynligt nogle af os er for at dele løgn online. Hoaxy vil deltage i en række værktøjer i vores Observatorium for sociale medier, som gør det muligt for enhver at se, hvordan memes spredes på Twitter. At linke værktøjer som disse til menneskelige faktakontrol og sociale medieplatforme kunne gøre det lettere at minimere dobbeltarbejde og support hinanden.

Det er bydende nødvendigt, at vi investerer ressourcer i undersøgelsen af ​​dette fænomen. Vi har brug for alle hænder på dækket: Computerforskere, samfundsvidenskabere, økonomer, journalister og industripartnere skal arbejde sammen at stå fast mod spredning af misinformation.

The Conversation

Om forfatteren

Filippo Menczer, professor i datalogi og informatik; Direktør for Center for komplekse netværk og systemforskning, Indiana University, Bloomington

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede Bøger:

at InnerSelf Market og Amazon