Følgende artikel hjælper dig med: 6-måneders pause i AI-træning er en god idé, men det er måske ikke nok
Historien om andragendet om at stoppe med at udvikle AI-systemer, der er mere avancerede end GPT-4, har mærkbart polariseret samfundet. Udgivelsen af Yudkovskys artikel at bede om at lukke ned for yderligere udvikling af GPT-modeller tilføjede brændstof til ilden, især hans passager om bombningen af datacentre.

Ud fra hvad der kan observeres online, synes der at være meget færre tilhængere af andragendet end modstandere, som har tre hovedargumenter:
1 | – Fremskridt kan ikke stoppes. – Andragendet er opfundet af OpenAI-konkurrenter. – Kina vil ikke vente. |
2 | – Du skal ikke være bange for AI, men for mennesker. – GPT har ingen bevidsthed, vilje, forhåbninger eller handlekraft, så der er intet at frygte. – GPT-4 er sindssygt langt fra at slavebinde verden, fordi den ikke forstår noget, laver dumme fejl og generelt er ret dum. – GPT-4 vil ikke kunne køre verden, fordi den ikke har arme/ben. |
3 | – Den tredje gruppe forstår ikke, hvordan GPT-4 fungerer i første omgang. |
Vi vil ikke koncentrere os om den tredje flok, fordi deres holdning kommer fra uvidenhed. Dermed ikke sagt, at alle AI-modstandere ved alt om AI; du kan finde masser af anti-AI-mennesker, der mangler en forståelse af teknologien og hvad den indebærer, selvom Yudkovsky selv er meget dybere ind i emnet AI, så han kan ikke beskyldes for uvidenhed.
Lad os se på den første gruppe mennesker – dem, der tror på, at fremskridt ikke kan stoppes. De tilbyder forskellige, men alligevel lignende argumenter, og overordnet set benægter disse mennesker ikke AI’s evner og de udsigter, dens vedtagelse bringer, og tror, at AI-udvikling vil fortsætte uanset hvad.
Den første tese om ustoppelige fremskridt er et slogan, der ikke behøver at være sandt. Folk ser ud til at have stoppet nogle videnskabelige eksperimenter, og mange engang accepterede forskningsprojekter betragtes ikke længere som etiske, og lignende ville aldrig blive tilladt i dag. Men hvor meget mere fremskridt i fortiden blev stoppet af inkvisitionen og anden religiøs forfølgelse, bogforbud og mord på videnskabsmænd i Kina (og andre lande)? Det er noget, vi aldrig vil være i stand til fuldt ud at forstå på grund af overlevelsesbias.
Andre afhandlinger involverer den tilgang, der kan opsummeres som “hvis ikke os, så bliver det dem.” Selvom denne tankegang måske er mere forståelig, ser det heller ikke ud til at være den rigtige løsning. Det minder meget om fangens dilemma i spilteori.
Den anden gruppe af argumenter er den mest interessante. Selvom jeg personligt er enig i det til en vis grad, er der et par men, der skal løses. Ja, kunstig intelligens har ingen bevidsthed, vilje, handlekraft osv. Det har COVID-19 heller ikke, og alligevel skabte den kaos verden over. Noget behøver ikke at have en følelse af handlefrihed og bevidsthed for at blive farligt; et scenarie, hvor livet på jorden er udslettet på grund af en virus, er ikke utænkeligt. Når dens arbejde er udført, kan den sætte stolene på bordene, slukke lyset og forlade den for evigt.
For at fortsætte den biologiske analogi er der en vidunderlig artikel, “The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities”, som giver mange eksempler på, hvornår processer går i en uventet retning. Selv uden en evolutionær proces, kan alt gå ind i den forkerte generalisering “Målmisgeneralisering: Hvorfor korrekte specifikationer ikke er nok til korrekte mål.” At give frie tøjler til en optimeringsproces kan gå galt er diskuteret i “Risici fra indlært optimering i avancerede maskinlæringssystemer.”
Samtidig overvejer vi generelt ikke risiciene ved ondsindet brug af kunstig intelligens og evt misbruge, som kun nærer argumentet om, at vi skal være bange for mennesker og ikke AI selv. Sandheden i sagen er dog, at AI kan være dårligt selv uden ondsindede mennesker.
Jeg er også enig i, at modellen laver dumme fejl, men det gør mennesker også, og alligevel ved vi, at de kan gøre skade. Mens modeller begår mange fejl, kan de også løse mange fantastiske, seje og komplekse problemer, som den gennemsnitlige person ikke kan løse. Fra det berygtede værk “Sparks of Artificial General Intelligence: Early Experiments with GPT-4,” blev jeg slået af, at AI var i stand til at løse, omend ikke altid korrekt, Fermi-problemer, ret komplekse matematiske problemer. Dens teori om sindet og “en slags evne til at forstå” andres handlinger er også meget imponerende. Alle disse ting peger mod AI’s intelligens; eksisterende, men ikke helt som vores.
At eliminere i det mindste nogle af de fejl, AI-modeller laver, er generelt muligt, så deres intelligens vokser muligvis kun. Alt du skal gøre er at tilføje et modul til nøjagtige beregninger, en faktabase og validering med en anden model.
Det vigtigste i hele denne historie er hastigheden af AI’s udvikling. GPT-modeller er vokset gevaldigt i et svimlende tempo. Nu er der ChatGPT-plugins tilgængelige, du kan bruge GPT-modeller til at skrive kode, API’er er tilgængelige for den store offentlighed, og du kan bruge eksterne værktøjer uden forudgående træning.
GPT-4 vil selvfølgelig ikke erobre verden, men det kan ryste økonomien meget. GPT-5, og den fremtidige iteration af modellen, er muligvis ikke særlig langt fremme og vil sandsynligvis komme med meget stærkere evner. Og lad os se det i øjnene, vi kan ikke håbe på at forstå de endnu ikke-eksisterende modeller; vi er ikke engang kommet i nærheden af at forstå de modeller, der allerede eksisterer. I denne forstand kan en pause på seks måneder være en god idé, men det kan simpelthen ikke være nok.
Og i betragtning af at AI-løbet er startet, er der ingen tid til at lære.
I lyset af alt dette har jeg generelt også underskrevet andragendet. Selvom jeg ikke tror på det vil hjælpe på nogen måde.
Læs flere relaterede emner: