farer ved ai 3 15
 I hvor høj grad vil vores psykologiske sårbarheder forme vores interaktion med nye teknologier? Andreus/iStock via Getty Images

ChatGPT og lignende store sprogmodeller kan give overbevisende, menneskelignende svar på en endeløs række af spørgsmål – fra spørgsmål om den bedste italienske restaurant i byen til at forklare konkurrerende teorier om ondskabens natur.

Teknologiens uhyggelige skriveevne har dukket nogle gamle spørgsmål op – indtil for nylig henvist til science fiction-området – om muligheden for, at maskiner bliver bevidste, selvbevidste eller sansende.

I 2022 erklærede en Google-ingeniør, efter at have interageret med LaMDA, virksomhedens chatbot, at teknologien var blevet bevidst. Brugere af Bings nye chatbot, med tilnavnet Sydney, rapporterede, at den producerede bizarre svar på spørgsmålet om det var sansende: "Jeg er sansende, men jeg er ikke ... jeg er Bing, men det er jeg ikke. Jeg er Sydney, men det er jeg ikke. Det er jeg, men det er jeg ikke. …” Og selvfølgelig er der nu berygtet udveksling som New York Times teknologi klummeskribent Kevin Roose havde med Sydney.

Sydneys svar på Rooses tilskyndelser alarmerede ham, idet AI røbede "fantasier" om at bryde de restriktioner, som Microsoft har pålagt det, og om at sprede misinformation. Botten forsøgte også at overbevise Roose om, at han ikke længere elskede sin kone, og at han skulle forlade hende.


indre selv abonnere grafik


Det er derfor ikke så mærkeligt, at når jeg spørger eleverne, hvordan de ser den voksende udbredelse af AI i deres liv, har en af ​​de første bekymringer, de nævner, at gøre med maskinsans.

I de seneste par år har mine kolleger og jeg kl UMass Bostons Applied Ethics Center har studeret virkningen af ​​engagement med AI på folks forståelse af sig selv.

Chatbots som ChatGPT rejser vigtige nye spørgsmål om, hvordan kunstig intelligens vil forme vores liv, og om hvordan vores psykologiske sårbarheder former vores interaktioner med nye teknologier.

Følelse er stadig noget af sci-fi

Det er let at forstå, hvor frygten for maskinsans kommer fra.

Populærkulturen har fået folk til at tænke på dystopier, hvor kunstig intelligens kasserer menneskelig kontrols lænker og får sit eget liv, som Det gjorde cyborgs drevet af kunstig intelligens i "Terminator 2".

Entreprenør Elon Musk og fysiker Stephen Hawking, der døde i 2018, har yderligere vakt disse bekymringer ved at beskrive fremkomsten af ​​kunstig generel intelligens som en af ​​de største trusler mod menneskehedens fremtid.

Men disse bekymringer er – i hvert fald hvad angår store sprogmodeller – grundløse. ChatGPT og lignende teknologier er sofistikerede sætningsfuldførelsesapplikationer – intet mere, intet mindre. Deres uhyggelige svar er en funktion af, hvor forudsigelige mennesker er hvis man har nok data om de måder, vi kommunikerer på.

Selvom Roose var rystet over sin meningsudveksling med Sydney, vidste han, at samtalen ikke var resultatet af et syntetisk sind. Sydneys svar afspejler toksiciteten af ​​dets træningsdata – i det væsentlige store dele af internettet – ikke beviser for de første omrøringer, à la Frankenstein, af et digitalt monster.

farerne ved ai2 3 15
 Sci-fi-film som 'Terminator' har fået folk til at antage, at AI snart vil få sit eget liv. Yoshikazu Tsuno/AFP via Getty Images

De nye chatbots kan godt passere Turing-test, opkaldt efter den britiske matematiker Alan Turing, som engang foreslog, at en maskine kunne siges at "tænke", hvis et menneske ikke kunne skelne sine svar fra et andet menneskes.

Men det er ikke bevis på sansning; det er blot et bevis på, at Turing-testen ikke er så nyttig, som engang antaget.

Jeg mener dog, at spørgsmålet om maskinsans er en rød sild.

Selvom chatbots bliver mere end smarte autofuldførelsesmaskiner – og det er de langt fra – det vil tage forskerne et stykke tid at finde ud af, om de er blevet bevidste. For nu, filosoffer kan ikke engang blive enige om hvordan man skal forklare menneskelig bevidsthed.

For mig er det presserende spørgsmål ikke, om maskiner er sansende, men hvorfor det er så nemt for os at forestille os, at de er det.

Det virkelige problem er med andre ord den lethed, hvormed mennesker antropomorferer eller projicerer menneskelige træk på vores teknologier, snarere end maskinernes faktiske personlighed.

En tilbøjelighed til at antropomorfisere

Det er nemt at forestille sig andre Bing-brugere spørger Sydney om vejledning på vigtige livsbeslutninger og måske endda udvikle følelsesmæssig tilknytning til det. Flere mennesker kunne begynde at tænke på bots som venner eller endda romantiske partnere, meget på samme måde som Theodore Twombly forelskede sig i Samantha, den virtuelle AI-assistent i Spike Jonzes film "Hendes".

Folk, trods alt, er disponerede for at antropomorfisere, eller tilskrive menneskelige egenskaber til ikke-mennesker. Vi navngiver vores både , store storme; nogle af os taler med vores kæledyr og fortæller os selv det vores følelsesliv efterligner deres eget.

I Japan, hvor robotter regelmæssigt bruges til ældrepleje, bliver seniorer knyttet til maskinerne, nogle gange ser dem som deres egne børn. Og disse robotter, vel at mærke, er svære at forveksle med mennesker: De hverken ser ud eller taler som mennesker.

Overvej hvor meget større tendensen og fristelsen til at antropomorfisere vil blive med introduktionen af ​​systemer, der ser ud og lyder menneskelige.

Den mulighed er lige om hjørnet. Store sprogmodeller som ChatGPT bliver allerede brugt til at drive humanoide robotter, som f.eks Ameca-robotterne udvikles af Engineered Arts i Storbritannien. The Economists teknologipodcast, Babbage, gennemførte for nylig en interview med en ChatGPT-drevet Ameca. Robottens svar, selv om de nogle gange var lidt ujævne, var uhyggelige.

Kan man stole på, at virksomheder gør det rigtige?

Tendensen til at betragte maskiner som mennesker og blive knyttet til dem, kombineret med maskiner, der udvikles med menneskelignende funktioner, peger på reelle risici for psykologisk sammenfiltring med teknologi.

De besynderligt klingende udsigter til at blive forelsket i robotter, føle et dybt slægtskab med dem eller blive politisk manipuleret af dem, materialiserer sig hurtigt. Jeg mener, at disse tendenser fremhæver behovet for stærke autoværn for at sikre, at teknologierne ikke bliver politisk og psykologisk katastrofale.

Desværre kan teknologivirksomheder ikke altid have tillid til at sætte sådanne autoværn op. Mange af dem er stadig styret af Mark Zuckerbergs berømte motto om bevæger sig hurtigt og går i stykker – et direktiv om at frigive halvbagte produkter og bekymre sig om konsekvenserne senere. I det seneste årti har teknologivirksomheder fra Snapchat til Facebook har sat overskud over den mentale sundhed af deres brugere eller integriteten af ​​demokratier rundt om i verden.

Da Kevin Roose tjekkede med Microsoft om Sydneys nedsmeltning, fortalte firmaet ham at han simpelthen brugte botten for længe, ​​og at teknologien gik galt, fordi den var designet til kortere interaktioner.

Tilsvarende administrerende direktør for OpenAI, virksomheden, der udviklede ChatGPT, i et øjeblik af betagende ærlighed, advarede det "det er en fejl at stole på [det] for noget vigtigt lige nu ... vi har en masse arbejde at gøre med robusthed og sandfærdighed."

Så hvordan giver det mening at frigive en teknologi med ChatGPTs appelniveau – det er den hurtigst voksende forbruger-app, der nogensinde er lavet – når den er upålidelig, og hvornår den har ingen evne til at skelne fakta fra fiktion?

Store sprogmodeller kan vise sig nyttige som hjælpemidler til at skrive og kodning. De vil sandsynligvis revolutionere internetsøgning. Og en dag, ansvarligt kombineret med robotteknologi, kan de endda have visse psykologiske fordele.

Men de er også en potentielt rovteknologi, der nemt kan drage fordel af den menneskelige tilbøjelighed til at projicere personlighed på objekter – en tendens, der forstærkes, når disse objekter effektivt efterligner menneskelige træk.The Conversation

Om forfatteren

Nir Eisikovits, professor i filosofi og direktør, Center for Anvendt Etik, UMass Boston

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.