Tekniske eksperter underskriver åbent brev med opfordring til midlertidig pause i træning af AI-systemer mere avanceret end GPT-4

Følgende artikel hjælper dig med: Tekniske eksperter underskriver åbent brev med opfordring til midlertidig pause i træning af AI-systemer mere avanceret end GPT-4

Tekniske eksperter underskriver åbent brev med opfordring til midlertidig pause i træning af AI-systemer mere avanceret end GPT-4

Mere end 1.100 underskrivere inklusive førende tekniske eksperter har underskrevet en åbent brev opfordrer til en pause på seks måneder i træning af AI-systemer, der er mere avancerede end GPT-4.

Brevet er skrevet af Future of Life Institute, en nonprofitorganisation, der arbejder på at reducere globale katastrofale og eksistentielle risici, som menneskeheden står over for, især den eksistentielle risiko fra avanceret kunstig intelligens.

Med henvisning til de bredt godkendte Asilomar AI-principper, som siger, at “Avanceret AI kunne repræsentere en dybtgående ændring i livets historie på Jorden og bør planlægges og styres med passende omhu og ressourcer,” siger brevet, at niveauet for planlægning og ledelse sker ikke.

Brevet fortsætter med at sige, at AI-laboratorier er i et “ude af kontrol” kapløb om at udvikle stadig mere kraftfuld kunstig intelligens, som ingen kan forstå, forudsige eller pålideligt kontrollere. Da moderne AI-systemer som GPT-4 kan konkurrere med mennesker om generelle opgaver, rejser brevet bekymringer om informationsforstyrrelser fra AI, jobautomatisering og risikoen for at miste kontrollen over den menneskelige civilisation.

“Vi opfordrer alle AI-laboratorier til øjeblikkeligt at holde pause i mindst 6 måneder i træningen af ​​AI-systemer, der er stærkere end GPT-4. Denne pause bør være offentlig og verificerbar og omfatte alle nøgleaktører. Hvis en sådan pause ikke kan gennemføres hurtigt, bør regeringerne træde til og indføre et moratorium.”

står der i brevet.

Brevet bønfalder AI-laboratorier og tekniske eksperter om at bruge pauseperioden til at udvikle og implementere sikkerhedsprotokoller til avanceret AI-design og -udvikling, som er strengt revideret og overvåget af uafhængige eksterne eksperter.

🔥 Anbefalede:  14 bedste Robinhood-alternativer til gratis handel

Den amerikanske journalist Jeff Jarvis kritiserede dog brevet, ordsprog at det er et “primært eksemplar af moralsk panik.”

Nogle af de førende hjerner inden for teknologi og maskinlæring, der har underskrevet brevet sammen med DeepMind-forskere og adskillige universitetsprofessorer fra hele verden, inkluderer:

  • Yoshua Bengio, University of Montréal, Turing-pristager for udvikling af dyb læring, leder af Montreal Institute for Learning Algorithms
  • Stuart Russell, Berkeley, professor i datalogi, direktør for Center for Intelligente Systemer og medforfatter af standardlærebogen “Artificial Intelligence: a Modern Approach”
  • Elon Musk, CEO for SpaceX, Tesla & Twitter
  • Emad Mostaque, CEO, Stability AI
  • Jaan Tallinn, medstifter af Skype, Center for Studiet af Eksistentiel Risk, Future of Life Institute
  • Gary Marcus, New York University, AI-forsker, professor emeritus
  • Marc Rotenberg, Center for kunstig intelligens og digital politik (CAIDP), formand

I en seneste brevskrev Rotenberg, at CAIDP vil indgive en klage til Federal Trade Commission, der kræver en undersøgelse af Open AI og ChatGPT, samt et forbud mod yderligere kommercielle udgivelser af produktet, indtil sikkerhedsforanstaltninger er etableret.

OpenAI CEO Sam Altman har indrømmet at “vi har også brug for tid nok til, at vores institutioner kan finde ud af, hvad de skal gøre”, og at samfundet ikke er langt væk fra “potentielt skræmmende” generative AI-værktøjer.

vi har også brug for tid nok til, at vores institutioner kan finde ud af, hvad de skal gøre. regulering vil være kritisk og vil tage tid at finde ud af; Selvom den nuværende generation af AI-værktøjer ikke er særlig skræmmende, tror jeg, at vi potentielt ikke er så langt væk fra potentielt skræmmende.

— Sam Altman (@sama) 19. februar 2023

“Vi beder FTC om at “trykke på pauseknappen”, så der er mulighed for, at vores institutioner, vores love og vores samfund kan indhente det. Vi er nødt til at hævde handlekraft over de teknologier, vi skaber, før vi mister kontrollen,” hedder det i CAIDP-brevet.

Andre steder sigter EU-lovgivere på at underskrive en aftale med EU-lande inden årets udgang om at implementere AI-regler, selvom det kan ramme en flaskehals, efterhånden som debatter om, hvordan AI skal styres, intensiveres.

Læs mere: