i091hbdc
NicoElNino / Shutterstock

Udgivelsen af ​​den avancerede chatbot ChatGPT i 2022 fik alle til at tale om kunstig intelligens (AI). Dens sofistikerede egenskaber forstærkede bekymringerne om, at kunstig intelligens blev så avanceret, at vi snart ikke ville være i stand til at kontrollere den. Dette fik endda nogle eksperter og industriledere til at advare om, at teknologi kan føre til menneskelig udryddelse.

Andre kommentatorer var dog ikke overbeviste. Noam Chomsky, professor i lingvistik, afviste ChatGPT som "højteknologisk plagiat".

I årevis var jeg afslappet med hensyn til udsigten til AI's indvirkning på menneskets eksistens og vores miljø. Det er fordi jeg altid har tænkt på det som en vejleder eller rådgiver for mennesker. Men udsigten til, at AI'er træffer beslutninger – udøver eksekutiv kontrol – er en anden sag. Og det er en, der nu for alvor bliver underholdt.

En af de vigtigste grunde til, at vi ikke bør lade AI have udøvende magt, er, at den helt mangler følelser, hvilket er afgørende for beslutningstagning. Uden følelser, empati og et moralsk kompas har du skabt perfekt psykopat. Det resulterende system kan være yderst intelligent, men det vil mangle den menneskelige følelsesmæssige kerne, der gør det i stand til at måle de potentielt ødelæggende følelsesmæssige konsekvenser af en ellers rationel beslutning.

Når AI overtager den udøvende kontrol

Det er vigtigt, at vi ikke kun skulle tænke på AI som en eksistentiel trussel, hvis vi skulle sætte den til ansvar for atomarsenaler. Der er i det væsentlige ingen grænse for antallet af kontrolpositioner, hvorfra den kan udøve ufattelig skade.


indre selv abonnere grafik


Overvej for eksempel, hvordan AI allerede kan identificere og organisere den information, der kræves for at bygge din egen udestue. Nuværende iterationer af teknologien kan guide dig effektivt gennem hvert trin af bygningen og forhindre mange begynderfejl. Men i fremtiden kan en AI fungere som projektleder og koordinere byggeriet ved at vælge entreprenører og betale dem direkte fra dit budget.

AI bliver allerede brugt i stort set alle domæner af informationsbehandling og dataanalyse - fra modellering af vejrmønstre til styring af førerløse køretøjer til hjælpe med medicinske diagnoser. Men det er her, problemerne starter – når vi lader AI-systemer tage det kritiske skridt op fra rollen som rådgiver til rollen som executive manager.

I stedet for blot at foreslå løsninger til en virksomhedens regnskaber, hvad nu hvis en AI fik direkte kontrol, med evnen til at implementere procedurer til inddrivelse af gæld, foretage bankoverførsler og maksimere fortjenesten – uden begrænsninger for, hvordan man gør dette. Eller forestil dig et AI-system, der ikke kun leverer en diagnose baseret på røntgenbilleder, men får beføjelse til direkte at ordinere behandlinger eller medicin.

Du kan begynde at føle dig utryg ved sådanne scenarier – det ville jeg bestemt. Årsagen kan være din intuition om, at disse maskiner ikke rigtig har "sjæle". De er bare programmer designet til fordøje enorme mængder information for at forenkle komplekse data ind i meget enklere mønstre, så mennesker kan træffe beslutninger med mere selvtillid. De har ikke – og kan ikke – have følelser, som er tæt knyttet til biologiske sanser og instinkter.

Følelser og moral

Følelsesmæssig intelligens er evnen til at styre vores følelser for at overvinde stress, empati og kommunikere effektivt. Dette betyder uden tvivl mere i forbindelse med beslutningstagning end intelligens alene, fordi den bedste beslutning ikke altid er den mest rationelle.

Det er sandsynligt, at intelligens, evnen til at ræsonnere og operere logisk, kan indlejres i AI-drevne systemer, så de kan træffe rationelle beslutninger. Men forestil dig at bede en kraftfuld AI med executive-kapaciteter om det løse klimakrisen. Den første ting, det kan blive inspireret til at gøre, er at reducere den menneskelige befolkning drastisk.

Dette fradrag behøver ikke meget forklaring. Vi mennesker er næsten per definition kilden til forurening i enhver mulig form. Øksemenneskelighed og klimaændringer ville blive løst. Det er ikke det valg, som menneskelige beslutningstagere ville komme til, håber man, men en AI ville finde sine egne løsninger – uigennemtrængelige og uhæmmet af en menneskelig modvilje mod at forårsage skade. Og hvis den havde udøvende magt, var der måske ikke noget, der forhindrede den i at fortsætte.

9dfujyxp
 Det kan være en fejl at give en AI evnen til at tage eksekutive beslutninger i flyvekontrol. Gorodenkoff/Shutterstock

Sabotage scenarier

Hvad med at sabotere sensorer og monitorer, der styrer fødevarefarme? Dette kan ske gradvist i starten, ved at skubbe kontroller lige forbi et vippepunkt, så ingen mennesker bemærker, at afgrøderne er fordømt. Under visse scenarier kan dette hurtigt føre til hungersnød.

Alternativt, hvad med at lukke ned for flyvekontrol globalt eller blot at styrte ned med alle fly, der flyver på ethvert tidspunkt? Omkring 22,000 fly er normalt i luften samtidigt, hvilket lægger op til et potentielt dødstal på flere millioner mennesker.

Hvis du mener, at vi langt fra er i den situation, så tro om igen. AI'er kører allerede i biler og flyve militærfly, selvstændigt.

Alternativt, hvad med at lukke ned for adgang til bankkonti på tværs af store regioner i verden, udløser borgerlig uro overalt på én gang? Eller lukke af computerstyrede varmesystemer midt om vinteren, eller klimaanlæg på toppen af ​​sommervarmen?

Kort sagt, et AI-system behøver ikke at være ansvarligt for atomvåben for at repræsentere en alvorlig trussel mod menneskeheden. Men mens vi er på dette emne, hvis et AI-system var stærkt og intelligent nok, kunne det finde en måde at forfalske et angreb på et land med atomvåben og udløse en menneskeinitieret gengældelse.

Kunne AI dræbe et stort antal mennesker? Svaret må i teorien være ja. Men dette afhænger i høj grad af, at mennesker beslutter sig for at give den udøvende kontrol. Jeg kan ikke rigtig komme i tanke om noget mere skræmmende end en AI, der kan træffe beslutninger og har magten til at implementere dem.The Conversation

Om forfatteren

Guillaume Thierry, Professor i kognitiv neurovidenskab, Bangor University

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.