chat GPT
En gruppe fremtrædende dataloger og andre notabiliteter i teknologiindustrien kræver en seks måneders pause med kunstig intelligens-teknologi. (Shutterstock)

Et nyligt åbent brev fra dataloger og ledere af teknologibranchen opfordrer til et seks måneders forbud mod udvikling af kunstig intelligens har fik stor opmærksomhed på nettet. Selv Canadas innovationsminister François-Philippe Champagne har svaret på brevet på Twitter.

Brevet, udgivet af non-profit Future of Life Institute, har bedt alle AI-laboratorier om at stoppe med at træne AI-systemer, der er mere kraftfulde end GPT-4, modellen bag ChatGPT. Brevet hævder, at AI er blevet "låst i et ude af kontrol kapløb om at udvikle og implementere stadig mere kraftfulde digitale sind, som ingen - ikke engang deres skabere - kan forstå, forudsige eller pålideligt kontrollere."

Brevet antager, at AI er ved at blive eller kan blive "kraftfulde digitale hjerner" - en langsigtet fortolkning af AI's udvikling at ignorerer vigtige debatter om kunstig intelligens i dag i stedet for fremtidige bekymringer.

Langsigtethed og AI

Langsigtethed er overbevisning om, at kunstig intelligens udgør langsigtede eller eksistentielle risici for menneskehedens fremtid ved at blive en superintelligens, der er ude af kontrol.


indre selv abonnere grafik


Bekymringer om superintelligente AI'er er normalt science fiction-stoffet. AI fantasier er en af ​​mange frygt i Silicon Valley det kan føre til mørke profetier. Men ligesom Torment Nexus meme, disse bekymringer udmønter sig i store investeringer ikke forsigtighed. De fleste større teknologivirksomheder har skære deres ansvarlige AI-hold.

ChatGPT er åbenbart ikke en vej til superintelligens. Det åbne brev ser AI-sprogteknologi som ChatGPT som et kognitivt gennembrud - noget, der gør det muligt for en AI at konkurrere med mennesker om generelle opgaver. Men det er kun én mening.

Der er mange andre, der ser ChatGPT, dens GPT-4-model og andre sprogindlæringsmodeller som "stokastiske papegøjer" der blot gentager, hvad de lærer online, så de vises intelligent for mennesker.

Superintelligens blinde pletter

Langsigtethed har direkte politiske konsekvenser, der prioriterer superintelligens over mere presserende sager som f.eks AI's magtubalancer. Nogle tilhængere af langsigtethed anser endda regulering for at stoppe superintelligens mere presserende end at tage fat på klimakrisen.

AI-politiske implikationer er umiddelbare, ikke langt væk. Fordi GPT-4 er trænet på hele internettet og udtrykkeligt har kommercielle formål, det rejser spørgsmål om fair dealing og fair use.

Vi ved stadig ikke, om AI-genererede tekster og billeder er copyrightbeskyttede i første omgang, da maskiner og dyr kan ikke have copyright.

Og når det kommer til privatlivsspørgsmål, er ChatGPTs tilgang svær at skelne fra en anden AI-applikation, clearview AI. Begge AI-modeller blev trænet ved hjælp af enorme mængder personlig information indsamlet på det åbne internet. Italiens databeskyttelsesmyndighed har netop forbudt ChatGPT på grund af bekymringer om privatlivets fred.

Disse umiddelbare risici er ikke nævnt i det åbne brev, som svinger mellem vild filosofi og tekniske løsninger, og ignorerer de problemer, der ligger lige foran os.

Overdøver pragmatisme

Brevet følger en gammel dynamik, som min medforfatter og jeg identificerer i en kommende peer-reviewed kapitel om AI-styring. Der er en tendens til at se AI som enten en eksistentiel risiko eller noget banalt og teknisk.

Spændingen mellem disse to yderpunkter vises i det åbne brev. Brevet begynder med at hævde, at "avanceret kunstig intelligens kan repræsentere en dybtgående ændring i livets historie på Jorden", før det opfordrer til "robust offentlig finansiering til teknisk forskning i kunstig intelligens." Sidstnævnte antyder, at de sociale skader ved AI blot er tekniske projekter, der skal løses.

Fokus på disse to yderpunkter fortrænger vigtige stemmer, der pragmatisk forsøger at diskutere de umiddelbare risici ved AI nævnt ovenfor samt arbejdsforhold og meget mere.

Opmærksomheden på det åbne brev er især problematisk i Canada, fordi to andre breve, skrevet af kunstnere , borgerrettighedsorganisationer, har ikke fået den samme opmærksomhed. Disse breve opfordrer til reformer og en mere robust tilgang til AI-styring for at beskytte dem, der er berørt af den.

En unødvendig distraktion i forhold til AI-lovgivning

Regeringens svar på det åbne brev har understreget, at Canada har lovgivning - Artificial Intelligence and Data Act (AIDA). De langsigtede risici ved AI bliver brugt til at fremskynde lovgivning nu ligesom AIDA.

AIDA er et vigtigt skridt i retning af et ordentligt AI-styringsregime, men det er nødvendigt bedre rådføre sig med dem, der er berørt af AI før den implementeres. Det kan ikke skyndes at reagere på opfattet langsigtet frygt.

Brevets opfordringer til at fremskynde AI-lovgivningen kan ende med at fordele de samme få firmaer, der driver AI-forskning i dag. Uden tid til at konsultere, forbedre den offentlige læsefærdighed og lytte til dem, der bliver berørt af AI, risikerer AIDA at videregive AI's ansvarlighed og revision til institutioner, der allerede er godt positioneret til at drage fordel af teknologien, hvilket skaber et marked for en ny AI-revisionsindustri.

Menneskehedens skæbne er måske ikke på spil, men AI's gode regeringsførelse er det bestemt.The Conversation

Om forfatteren

Fenwick McKelvey, lektor i informations- og kommunikationsteknologipolitik, Concordia University

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.