3 måder Facebook kunne reducere falske nyheder

Offentligheden får meget af sin nyheder og information fra Facebook. Noget af det er falsk. Det udgør et problem for webstedsbrugerne og for virksomheden selv.

Facebook-medstifter og formand Mark Zuckerberg sagde, at virksomheden vil finde måder at løse problemet på, selvom han ikke anerkendte dets sværhedsgrad. Og uden tilsyneladende ironi fremsatte han denne meddelelse i en Facebook indlæg omgivet - i det mindste for nogle seere - af falske nyheder.

Andre teknologifirmaer, der har samme magt over, hvordan offentligheden informerer sig selv, som Google, har arbejdet hårdt gennem årene for at nedgradere oplysninger af lav kvalitet i deres søgeresultater. Men Facebook har ikke foretaget lignende træk for at hjælpe brugerne.

Hvad kunne Facebook gøre for at imødekomme sin sociale forpligtelse til at sortere fakta fra fiktion for 70 procent af internetbrugere hvem har adgang til Facebook? Hvis webstedet i stigende grad er, hvor folk får deres nyheder, hvad kunne virksomheden gøre uden at tage kappen på for at være en endelig mægler for sandheden? Mit arbejde som professor i informationsstudier antyder, at der er mindst tre muligheder.

Facebooks rolle

Facebook siger, at det er en teknologivirksomhed, ikke et medievirksomhed. Virksomhedens primære motiv er profit snarere end en højere mål som at producere information af høj kvalitet for at hjælpe offentligheden med at handle vidende i verden.

Ikke desto mindre er indlæg på webstedet og de omgivende samtaler både online og off i stigende grad involveret i vores offentlige diskurs og nationens politiske dagsorden. Som et resultat har selskabet en social forpligtelse til at bruge sin teknologi til at fremme det fælles gode.


indre selv abonnere grafik


At skelne sandheden fra løgn kan imidlertid være skræmmende. Facebook er ikke alene om rejser bekymring over dets evne - og andre teknologivirksomheders - for at bedømme nyhedernes kvalitet. Direktøren for FactCheck.org, en nonprofit faktakontrolgruppe med base ved University of Pennsylvania, fortalte Bloomberg News, at mange påstande og historier er ikke helt falske. Mange har sandhedens kerner, selvom de er meget misvisende formuleret. Så hvad kan Facebook virkelig gøre?

Mulighed 1: Nudging

En mulighed, som Facebook kunne vedtage, indebærer brug af eksisterende lister, der identificerer forudskærmet pålidelig og falske nyhedswebsteder. Webstedet kunne derefter advare dem, der ønsker at dele en besværlig artikel, om at dens kilde er tvivlsom.

En udvikler har for eksempel oprettet en udvidelse til Chrome-browseren det angiver, hvornår et websted du ser på, kan være falsk. (Han kalder det "BS-detektoren.") I en 36-timers hackathon, en gruppe universitetsstuderende oprettede en lignende Chrome-browserudvidelse der angiver, om webstedet, artiklen kommer fra, er på en liste over verificerede pålidelige websteder eller i stedet er ubekræftet.

Disse udvidelser præsenterer deres alarmer, mens folk ruller gennem deres nyhedsfeeds. På nuværende tidspunkt fungerer ingen af ​​disse direkte som en del af Facebook. Integrering af dem ville give en mere problemfri oplevelse og gøre tjenesten tilgængelig for alle Facebook-brugere ud over dem, der installerede en af ​​udvidelserne på deres egen computer.

Virksomheden kunne også bruge de oplysninger, som udvidelserne genererer - eller deres kildemateriale - til at advare brugere, før de deler upålidelige oplysninger. I verden af ​​softwaredesign er dette kendt som en “puffe. ” Advarselssystemet overvåger brugeradfærd og giver folk besked eller giver dem noget feedback for at hjælpe med at ændre deres handlinger, når de bruger softwaren.

Dette er gjort før til andre formål. For eksempel mine kolleger her på Syracuse University bygget en nudging applikation der overvåger, hvad Facebook-brugere skriver i et nyt indlæg. Det popper en meddelelse, hvis indholdet, de skriver, er noget, de måske fortryder, såsom en vred besked med bandeord.

Skønheden ved nudges er den blide, men effektive måde, de minder folk om adfærd op for at hjælpe dem med at ændre denne adfærd. Undersøgelser, der har testet brugen af ​​skubber til forbedre sund opførselFind for eksempel, at det er mere sandsynligt, at folk ændrer deres diæt og træning baseret på blide påmindelser og anbefalinger. Nudges kan være effektive, fordi de giver folk kontrol, samtidig med at de giver dem nyttige oplysninger. I sidste ende beslutter modtageren af ​​skubben stadig, om han vil bruge den tilbagemeldte feedback. Nudges føler ikke tvang; i stedet er de potentielt bemyndigende.

Mulighed 2: Crowdsourcing

Facebook kunne også bruge Crowdsourcing til at hjælpe med at evaluere nyhedskilder og angive, hvornår nyheder, der deles, er blevet evalueret og bedømt. En vigtig udfordring med falske nyheder er, at den spiller ind i, hvordan vores hjerner er forbundet. Vi har mentale genveje, kaldet kognitive bias, der hjælper os med at træffe beslutninger, når vi ikke har helt nok information (vi har aldrig) eller helt tid (vi har aldrig). Generelt fungerer disse genveje godt for os, da vi træffer beslutninger om alt fra hvilken rute vi skal køre til arbejde til hvilken bil vi skal købe, men nogle gange svigter de os. At falde for falske nyheder er et af disse tilfælde.

Dette kan ske for enhver - selv mig. I den primære sæson fulgte jeg et Twitter-hashtag, hvor den daværende primære kandidat Donald Trump tweetede. En meddelelse dukkede op, som jeg syntes var chokerende. Jeg retweetede det med en kommentar, der hånede dets offensivitet. En dag senere indså jeg, at tweeten var fra en parodikonto, der lignede Trumps Twitter-håndtagsnavn, men havde ændret et bogstav.

Jeg savnede det, fordi jeg var faldet for bekræftelse skævhed - tendensen til at overse nogle oplysninger, fordi den strider mod mine forventninger, forudsigelser eller fornemmelser. I dette tilfælde havde jeg ignoreret den lille stemme, der fortalte mig, at denne særlige tweet var lidt for over toppen for Trump, fordi jeg troede, at han var i stand til at producere meddelelser endnu mere upassende. Falske nyheder byder os på samme måde.

Et andet problem med falske nyheder er, at det kan rejse meget længere end nogen korrektion, der måtte komme bagefter. Dette svarer til de udfordringer, der altid har været i redaktioner, når de har rapporteret om fejlagtige oplysninger. Selvom de offentliggør rettelser, ser de mennesker, der oprindeligt blev udsat for fejlinformationen, ofte aldrig opdateringen, og derfor ved de ikke, hvad de læste tidligere, er forkert. Desuden har folk tendens til at holde fast i de første oplysninger, de støder på; korrektioner kan endda slå tilbage ved at gentage forkerte oplysninger og forstærke fejlen i læsernes sind.

Hvis folk vurderede oplysninger, mens de læste det og delte disse vurderinger, kunne sandhedsscorerne ligesom nudges være en del af Facebook-applikationen. Det kan hjælpe brugerne med selv at beslutte, om de skal læse, dele eller blot ignorere. En udfordring med crowdsourcing er, at folk kan spille disse systemer for at forsøge at skabe partiske resultater. Men det skønne ved Crowdsourcing er, at publikum også kan bedømme raterne, ligesom det sker på Reddit eller med Amazons anmeldelser, for at reducere virkningen og vægten af ​​problemstillere.

Mulighed 3: Algoritmisk social afstand

Den tredje måde, som Facebook kunne hjælpe på, var at reducere den algoritmiske bias, der i øjeblikket findes i Facebook. Webstedet viser primært indlæg fra dem, du har haft kontakt med på Facebook. Med andre ord skaber Facebook-algoritmen det, som nogle har kaldt a filterboble, et online nyhedsfænomen, der har berørte lærde i årtier nu. Hvis du kun udsættes for mennesker med ideer, der er som dine egne, fører det til politisk polarisering: Liberale bliver endnu mere ekstreme i deres liberalisme, og konservative bliver mere konservative.

Filterboblen skaber et "ekkokammer", hvor lignende ideer springer ud uendeligt, men ny information har svært ved at finde vej ind. Dette er et problem, når ekkokammeret blokerer korrigerende eller faktakontroloplysninger.

Hvis Facebook skulle åbne flere nyheder for at komme ind i en persons nyhedsfeed fra et tilfældigt sæt mennesker i deres sociale netværk, ville det øge chancerne for, at ny information, alternativ information og modstridende information ville strømme inden for dette netværk. Det gennemsnitlige antal venner i en Facebook-brugers netværk er 338. Selvom mange af os har venner og familie, der deler vores værdier og overbevisninger, har vi også bekendte og fremmede, der er en del af vores Facebook-netværk, der har diametralt modsatte synspunkter. Hvis Facebooks algoritmer bragte flere af disse synspunkter ind i vores netværk, ville filterboblen være mere porøs.

Alle disse muligheder ligger inden for kapaciteten hos ingeniører og forskere på Facebook. De ville give brugerne mulighed for at træffe bedre beslutninger om de oplysninger, de vælger at læse og dele med deres sociale netværk. Som en førende platform for informationsformidling og en generator af social og politisk kultur gennem samtale og informationsdeling, behøver Facebook ikke være den ultimative mægler for sandheden. Men det kan bruge kraften i sine sociale netværk til at hjælpe brugerne med at måle værdien af ​​emner midt i strømmen af ​​indhold, de står over for.

The Conversation

Om forfatteren

Jennifer Stromer-Galley, professor i informationsstudier, Syracuse University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede Bøger:

at InnerSelf Market og Amazon