4 måder, dine Google-søgninger og sociale medier påvirker dine muligheder i livet
Shutterstock.

Uanset om du er klar over eller giver samtykke til det, kan big data påvirke dig og hvordan du lever dit liv. De data, vi opretter, når vi bruger sociale medier, surfer på internettet og iført fitness trackers er alle indsamlet, kategoriseret og brugt af virksomheder , staten at oprette profiler af os. Disse profiler bruges derefter til at målrette reklamer for produkter og tjenester mod dem, der er mest tilbøjelige til at købe dem, eller til at informere regeringens beslutninger.

Big data giver stater og virksomheder adgang til, kombinerer og analyserer vores oplysninger og bygger afslørende - men ufuldstændig og potentielt forkert - profiler i vores liv. De gør det ved at identificere sammenhænge og mønstre i data om os og mennesker med lignende profiler som os for at forudsige, hvad vi kan gøre.

Men bare fordi big data-analyse er baseret på algoritmer og statistikker, betyder det ikke, at de er det nøjagtig, neutral eller iboende objektiv. Og mens store data kan give indsigt i gruppeadfærd, er disse ikke nødvendigvis en pålidelig måde at bestemme individuel adfærd på. Faktisk kan disse metoder åbne døren for forskelsbehandling , truer folks menneskerettigheder - de kunne endda arbejde imod dig. Her er fire eksempler, hvor stor dataanalyse kan føre til uretfærdighed.

1. Beregning af kredit score

Big data kan bruges til at træffe beslutninger om kreditberettigelse, der påvirker, om du får pant, eller hvor høj din bilforsikring præmier skal være. Disse beslutninger kan blive informeret af din sociale medier indlæg og data fra andre apps, som er taget for at indikere dit niveau af risiko eller pålidelighed.

Men data som din uddannelsesbaggrund, eller hvor du bor, er muligvis ikke relevante eller pålidelige for sådanne vurderinger. Denne form for data kan fungere som en fuldmægtig for race eller socioøkonomisk status, og brug af dem til at træffe beslutninger om kreditrisiko kan resultere i diskrimination.


indre selv abonnere grafik


2. Jobsøgninger

Big data kan bruges til at bestemme der ser en jobannonce eller bliver shortlistet til et interview. Jobannoncer kan målrettes mod bestemte aldersgrupper, såsom 25 til 36-årige, som udelukker yngre og ældre arbejdstagere fra selv at se visse jobannoncer og udgør en risiko for aldersdiskrimination.

Automatisering bruges også til at gøre filtrering, sortering og rangordning af kandidater mere effektive. Men denne screeningsproces kan ekskludere folk på basis af indikatorer som f.eks afstand af deres pendling. Arbejdsgivere antager måske, at personer med længere pendling er mindre tilbøjelige til at forblive i job på lang sigt, men dette kan faktisk diskriminere folk, der bor længere fra byens centrum på grund af placeringen af ​​overkommelige boliger.

3. Parole og kaution afgørelser

I USA og Storbritannien bruges modeller til risikovurdering af big data til at hjælpe embedsmænd med at afgøre, om folk får tilskud prøveløsladelse eller kautioneller henvist til rehabiliteringsprogrammer. De kan også bruges til at vurdere, hvor stor en risiko en gerningsmand udgør for samfundet, hvilket er en faktor, som en dommer kan overveje, når han beslutter længden af ​​en straf.

Det er ikke klart nøjagtigt, hvilke data der bruges til at gøre disse vurderinger, men som bevægelsen mod digital politiarbejde samler tempo, er det i stigende grad sandsynligt, at disse programmer vil omfatte open source-information som f.eks social medial aktivitet - hvis de ikke allerede gør det.

Disse vurderinger ser måske ikke kun på en persons profil, men også hvordan de sammenlignes med andres. Nogle politistyrker har historisk overpoliseret visse minoritetssamfund, hvilket fører til et uforholdsmæssigt stort antal rapporterede kriminelle hændelser. Hvis disse data indføres i en algoritme, vil det fordreje risikovurderingsmodellerne og resultere i diskrimination, som direkte påvirker en persons ret til frihed.

4. Visumansøgninger om visum

Sidste år meddelte USAs Immigration and Customs Enforcement Agency (ICE), at det ønskede at indføre et automatiseret “ekstrem visumprøve”Program. Det ville automatisk og kontinuerligt scanne sociale mediekonti for at vurdere, om ansøgere vil yde et "positivt bidrag" til USA, og om der kan opstå nationale sikkerhedsspørgsmål.

Ud over at indebære risici for tanke-, menings-, udtryks- og foreningsfrihed var der betydelige risici for, at dette program ville diskriminere folk med bestemte nationaliteter eller religioner. kommentatorer karakteriserede det som et ”muslimsk forbud efter algoritme”.

Programmet blev for nylig trukket tilbage, angiveligt på baggrund af, at "der ikke var nogen 'out-of-the-box' software, der kunne levere kvaliteten af ​​den overvågning, agenturet ønskede". Men at inkludere sådanne mål i udbudsdokumenter kan skabe dårlige incitamenter for teknologibranchen til at udvikle programmer, der er diskriminerende efter design.

The ConversationDer er ingen tvivl om, at big data-analyse fungerer på måder, der kan påvirke enkeltpersoners muligheder i livet. Men manglende gennemsigtighed om, hvor store data der indsamles, bruges og deles, gør det vanskeligt for folk at vide, hvilke oplysninger der bruges, hvordan og hvornår. Big data-analyse er simpelthen for kompliceret til at enkeltpersoner kan beskytte deres data mod upassende brug. I stedet skal stater og virksomheder udarbejde - og følge - regler for at sikre, at deres brug af big data ikke fører til diskrimination.

Om forfatterne

Lorna McGregor, direktør, Human Rights Center, PI og meddirektør, ESRC Human Rights, Big Data and Technology Large Grant, University of Essex; Daragh Murray, lektor i international menneskerettighedsret ved Essex Law School, University of Essexog Vivian Ng, seniorforsker i menneskerettigheder, University of Essex

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Bøger af disse

Om forfatteren

at

bryde

Tak for besøget InnerSelf.com, hvor der er 20,000 + livsændrende artikler, der promoverer "Nye holdninger og nye muligheder." Alle artikler er oversat til 30+ sprog. Tilmeld til InnerSelf Magazine, der udgives ugentligt, og Marie T Russells Daily Inspiration. InnerSelf Magazine er udkommet siden 1985.