tillidsfuld ai 7 20
 AI-chatbots bliver mere kraftfulde, men hvordan ved du, om de arbejder i din bedste interesse? 

Spørger man Alexa, Amazons stemmeassistent AI-system, om Amazon er et monopol, svarer den med siger, at den ikke ved. Der skal ikke meget til at lave det lamme de andre tech-giganter, men den er tavs om sin egen virksomhedsforælders ugerninger.

Når Alexa reagerer på denne måde, er det tydeligt, at det sætter udviklerens interesser foran dine. Normalt er det dog ikke så tydeligt, hvem et AI-system betjener. For at undgå at blive udnyttet af disse systemer, bliver folk nødt til at lære at nærme sig AI skeptisk. Det betyder bevidst at konstruere det input, du giver det, og tænke kritisk over dets output.

Nyere generationer af AI-modeller, med deres mere sofistikerede og mindre udenadslige reaktioner, gør det sværere at sige, hvem der gavner, når de taler. Internetvirksomheders manipulation af det, du ser, for at tjene deres egne interesser, er ikke noget nyt. Googles søgeresultater og dit Facebook-feed er fyldt med betalte poster. Facebook, TikTok og andre manipulerer dine feeds for at maksimere den tid, du bruger på platformen, hvilket betyder flere annoncevisninger, over dit velbefindende.

Det, der adskiller AI-systemer fra disse andre internettjenester, er, hvor interaktive de er, og hvordan disse interaktioner i stigende grad vil blive som relationer. Det kræver ikke meget ekstrapolering fra nutidens teknologier at forestille sig AI'er, der vil planlægge ture for dig, forhandle på dine vegne eller fungere som terapeuter og livscoacher.


indre selv abonnere grafik


De vil sandsynligvis være hos dig 24/7, kender dig indgående og være i stand til at forudse dine behov. Denne form for samtalegrænseflade til det store netværk af tjenester og ressourcer på nettet er inden for mulighederne for eksisterende generative AI'er som ChatGPT. De er på vej til at blive personlige digitale assistenter.

Som en sikkerhedsekspert , dataforsker, tror vi, at folk, der kommer til at stole på disse AI'er, bliver nødt til implicit at stole på dem for at navigere i hverdagen. Det betyder, at de skal være sikre på, at AI'erne ikke hemmeligt arbejder for en anden. På tværs af internettet arbejder enheder og tjenester, der ser ud til at fungere for dig, allerede i hemmelighed imod dig. Smart TV spionere på dig. Telefon apps indsamle og sælge dine data. Mange apps og hjemmesider manipulere dig gennem mørke mønstre, designelementer, der bevidst vildlede, tvinge eller bedrage besøgende på webstedet. Dette er overvågningskapitalisme, og AI er ved at forme sig til at være en del af det. AI spiller en rolle i overvågningskapitalismen, som går ud på at spionere på dig for at tjene penge på dig.

I mørket

Det kunne muligvis være meget værre med AI. For at den digitale AI-assistent virkelig kan være nyttig, skal den virkelig kende dig. Bedre end din telefon kender dig. Bedre end Google-søgning kender dig. Måske bedre end dine nære venner, intime partnere og terapeut kender dig.

Du har ingen grund til at stole på nutidens førende generative AI-værktøjer. Lad være med hallucinationer, de opdigtede "fakta", som GPT og andre store sprogmodeller producerer. Vi forventer, at der stort set vil blive ryddet op i dem, efterhånden som teknologien forbedres i løbet af de næste par år.

Men du ved ikke, hvordan AI'erne er konfigureret: hvordan de er blevet trænet, hvilke oplysninger de har fået, og hvilke instruktioner de er blevet beordret til at følge. For eksempel forskere afslørede de hemmelige regler der styrer Microsoft Bing chatbot'ens adfærd. De er stort set godartede, men kan ændre sig til enhver tid.

At tjene penge

Mange af disse AI'er er skabt og trænet med enorme omkostninger af nogle af de største tekniske monopoler. De bliver tilbudt folk at bruge gratis eller til meget lave omkostninger. Disse virksomheder bliver nødt til at tjene penge på dem på en eller anden måde. Og som med resten af ​​internettet, vil det på en eller anden måde sandsynligvis omfatte overvågning og manipulation.

Forestil dig at bede din chatbot om at planlægge din næste ferie. Valgte det et bestemt flyselskab eller hotelkæde eller restaurant, fordi det var det bedste for dig, eller fordi dets producent fik et tilbageslag fra virksomhederne? Som med betalte resultater i Google-søgning, nyhedsfeed-annoncer på Facebook og betalte placeringer på Amazon-forespørgsler, vil disse betalte påvirkninger sandsynligvis blive mere skjulte over tid.

Hvis du beder din chatbot om politisk information, er resultaterne så skæve af politikken i det selskab, der ejer chatbotten? Eller den kandidat, der betalte flest penge? Eller endda synspunkter fra de demografiske personer, hvis data blev brugt til at træne modellen? Er din AI-agent i hemmelighed en dobbeltagent? Lige nu er der ingen måde at vide det.

Troværdig ved lov

Vi mener, at folk bør forvente mere af teknologien, og at teknologivirksomheder og AI'er kan blive mere troværdige. Den Europæiske Unions foreslåede AI-loven tager nogle vigtige skridt, der kræver gennemsigtighed om de data, der bruges til at træne AI-modeller, afhjælpning af potentielle skævheder, afsløring af forudsigelige risici og rapportering om industristandardtests. Den Europæiske Union skubber frem med AI-regulering.

De fleste eksisterende AI'er undlader at overholde med dette nye europæiske mandat, og trods det nylig tilskyndelse fra Senatets flertalsleder Chuck Schumer er USA langt bagud med en sådan regulering.

Fremtidens AI'er bør være troværdige. Medmindre og indtil regeringen leverer robust forbrugerbeskyttelse til AI-produkter, vil folk være på egen hånd til at gætte på de potentielle risici og skævheder ved AI og for at afbøde deres værste virkninger på folks oplevelser med dem.

Så når du får en rejseanbefaling eller politisk information fra et kunstig intelligens-værktøj, så gribe det an med det samme skeptiske øje, som du ville gøre med en reklametavle eller en frivillig kampagne. På trods af alt dets teknologiske trolddom kan AI-værktøjet være lidt mere end det samme.The Conversation

Om forfatteren

Bruce Schneier, adjungeret lektor i offentlig politik, Harvard Kennedy School , Nathan Sanders, Affiliate, Berkman Klein Center for Internet & Society, Harvard University

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.