Hvordan kan differentieret fortrolighed beskytte dine data? Marco Verch / Flickr, CC BY 

Tekniske virksomheder kan bruge differentieret privatliv til at indsamle og dele samlede data om brugervaner, samtidig med at de opretholder privatlivets fred.

Det er ingen hemmelighed, at store teknologivirksomheder som Facebook, Google, Apple og Amazon i stigende grad infiltrerer vores personlige og sociale interaktioner for at indsamle store mængder data om os hver dag. Samtidig gør krænkelser af privatlivets fred i cyberspace regelmæssigt forsiden nyheder.

Så hvordan skal privatlivets fred beskyttes i en verden, hvor data indsamles og deles med stigende hastighed og opfindsomhed?

Differentielt privatliv er en ny model for cybersikkerhed, som tilhængere hævder kan beskytte personlige data langt bedre end traditionelle metoder.

Den matematik, den er baseret på, blev udviklet for 10 år siden, og metoden er blevet vedtaget af Apple og Google i de seneste år.


indre selv abonnere grafik


Hvad er differentieret privatliv?

Differentieret privatliv gør det muligt for teknologivirksomheder at indsamle og dele samlede oplysninger om brugervaner, samtidig med at de enkelte brugeres privatliv opretholdes.

Lad os f.eks. Sige, at du ville vise de mest populære ruter, som folk går gennem en park. Du sporer ruterne for 100 mennesker, der regelmæssigt går gennem parken, og om de går på stien eller gennem græsset.

Men i stedet for at dele de specifikke personer, der tager hver rute, deler du de samlede data, der er indsamlet over tid. Folk, der ser dine resultater, ved måske, at 60 ud af 100 mennesker foretrækker at tage en genvej gennem græsset, men ikke hvilke 60 personer.

Hvorfor har vi brug for det?

Mange af verdens regeringer har strenge politikker for, hvordan teknologivirksomheder indsamler og deler brugerdata. Virksomheder, der ikke følger reglerne, kan blive udsat for store bøder. EN Den belgiske domstol beordrede for nylig Facebook for at stoppe indsamlingen af ​​data om brugernes browservaner på eksterne websteder eller udsættes for bøder på € 250,000 om dagen.

For mange virksomheder, især multinationale selskaber, der opererer i forskellige jurisdiktioner, efterlader dette dem i en delikat position, når det kommer til indsamling og brug af kundedata.

På den ene side har disse virksomheder brug for brugernes data, så de kan levere tjenester af høj kvalitet, der er til gavn for brugerne, såsom personaliserede anbefalinger. På den anden side kan de blive opkrævet, hvis de indsamler for meget brugerdata, eller hvis de forsøger at flytte data fra en jurisdiktion til en anden.

Traditionelle værktøjer til beskyttelse af privatlivets fred som kryptografi kan ikke løse dette dilemma, da det forhindrer teknologivirksomheder i at få adgang til dataene overhovedet. Og anonymitet reducerer værdien af ​​data - en algoritme kan ikke tjene dine personlige anbefalinger, hvis den ikke ved, hvad dine vaner er.

Hvordan virker det?

Lad os fortsætte eksemplet med vandreruter gennem en park. Hvis du kender identiteten på dem, der er inkluderet i undersøgelsen, men du ikke ved, hvem der tog hvilken rute, antager du muligvis, at privatlivets fred er beskyttet. Men det er måske ikke tilfældet.

Sig, at nogen, der ser dine data, ønsker at fastslå, om Bob foretrækker at gå gennem græsset eller på stien. De har fået baggrundsinformation om de øvrige 99 personer i undersøgelsen, som fortæller dem, at 40 mennesker foretrækker at gå på stien og 59 foretrækker at gå gennem græsset. Derfor kan de udlede, at Bob, som er den 100. person i databasen, er den 60. person, der foretrækker at gå gennem græsset.

Denne type angreb kaldes et differentieret angreb, og det er ret svært at forsvare sig, da du ikke kan kontrollere, hvor meget baggrundskendskab nogen kan få. Differentiel privatliv har til formål at forsvare sig mod denne type angreb.

En person, der udleder din vandrerute, lyder måske ikke for seriøst, men hvis du udskifter vandreruter med HIV-testresultater, kan du se, at der er potentiale for en alvorlig krænkelse af privatlivets fred.

Den differentierede privatlivsmodel garanterer, at selvom nogen har fuldstændige oplysninger om 99 ud af 100 personer i et datasæt, kan de stadig ikke udlede oplysningerne om den endelige person.

Den primære mekanisme til at opnå dette er at tilføje tilfældig støj til de samlede data. I stieksemplet kan du sige, at antallet af mennesker, der foretrækker at krydse græsset, er 59 eller 61, snarere end det nøjagtige antal på 60. Det unøjagtige antal kan bevare Bobs privatliv, men det har meget lidt indflydelse på mønsteret : omkring 60% mennesker foretrækker at tage en genvej.

Støjen er omhyggeligt designet. Da Apple anvendte differentieret privatliv i iOS 10, tilføjede det støj til individuelle brugerindgange. Det betyder, at det f.eks. Kan spore de hyppigst anvendte emojis, men emoji-brugen af ​​en enkelt bruger er maskeret.

Cynthia Dwork, den opfinder af det differentierede privatliv, har foreslået vidunderlige matematiske beviser for, hvor meget støj der er nok til at opfylde kravet om differentieret privatliv.

Hvad er dens praktiske anvendelser?

Differentieret privatliv kan anvendes på alt fra anbefalingssystemer til placeringsbaserede tjenester og sociale netværk. Æble bruger differentieret privatliv for at indsamle anonyme brugsindsigter fra enheder som iPhones, iPads og Macs. Metoden er brugervenlig og lovligt i det klare.

Differentieret privatliv vil også give en virksomhed som Amazon adgang til dine personlige indkøbspræferencer, mens du skjuler følsomme oplysninger om din historiske indkøbsliste. Facebook kunne bruge det til at indsamle adfærdsdata til målrettet reklame uden at krænke et lands privatlivspolitikker.

Hvordan kunne det bruges i fremtiden?

Forskellige lande har forskellige privatlivspolitikker, og følsomme dokumenter skal i øjeblikket kontrolleres manuelt, før de flytter fra et land til et andet. Dette er tidskrævende og dyrt.

For nylig har et hold fra Deakin University udviklet differentieret fortrolighedsteknologi til automatisering af privatlivsprocesser inden for skydelingssamfund på tværs af lande

The ConversationDe foreslår at bruge matematiske formler til at modellere privatlivets love i hvert land, der kan oversættes til "middleware" (software) for at sikre, at dataene stemmer overens. At anvende differentieret privatliv på denne måde kan beskytte brugernes privatliv og løse en datadelingshovedpine for teknologiske virksomheder.

Om forfatteren

Tianqing Zhu, lektor i cybersikkerhed, Det Naturvidenskabelige Fakultet, Ingeniørarbejde og Byggemiljø, Deakin University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede bøger

at InnerSelf Market og Amazon