Følgende artikel hjælper dig med: OpenAI udvikler Jailbreak GAN for at neutralisere hurtige hackere, siger rygter
OpenAI er i gang med et nyt projekt, der kan revolutionere verden af datasikkerhed. Forsknings- og udviklingsselskabet er ved at udvikle et nyt kunstig intelligens-baseret system til at beskytte mod “prompt hackere” – hackere, der bruger data mining og andre metoder til at udnytte svaghederne ved forskellige online systemer såsom ChatGPT. Kaldet “Jailbreak GAN” bruger systemet et generativt adversarialt netværk (GAN) til at generere nye modforanstaltninger til potentielle angreb.

GAN’er er en form for kunstig intelligens-teknik, der sætter to netværk op mod hinanden: en “generator”, der skaber data, som “diskriminatoren” forsøger at identificere. Gennem denne konkurrence er GAN’er i stand til at simulere utroligt komplekse miljøer, der kan bruges til at studere en bred vifte af fænomener.
I tilfælde af Jailbreak GAN bruger diskriminatoren en række forskellige teknikker til at opdage hackingforsøg og iværksætte modforanstaltninger. Generatoren træner på en række forskellige datasæt, chats, databaser og skylogfiler for at udvikle en række modforanstaltninger til at outfox potentielle hurtige hackere.
Holdet hos OpenAI forsøger at løse udfordringen med hurtig hacking med et multi-trin jailbreaking strategi. Denne tilgang bruger en kombination af naturlig sprogbehandling, maskinlæringsalgoritmer og forstærkende læringsteknikker til at identificere potentielle sårbarheder og udvikle proaktive løsninger. GAN-komponenten er derefter ansvarlig for at evaluere modforanstaltningerne og løbende opdatere dem med hvert nyt angreb.
Jailbreak GAN har potentialet til at opdage eksisterende og fremtidige trusler, før de bliver det alvorlige problemer. Efterhånden som teknologien modnes, kan den bruges til at danne grundlag for effektive sikkerhedssystemer inden for online-systemer, svarende til antivirus- eller anden beskyttelsessoftware.
Holdet har endnu ikke afsløret, at det med succes har testet systemets evne til at opdage og imødegå specifikke hackingforsøg og er i øjeblikket ved at udforske måder at implementere det i naturen. Det er også ukendt, om OpenAI samarbejder med sikkerhedsfirmaer og virksomhedspartnere for at implementere jailbreak GAN-systemet i et sikkert miljø.
For nylig udgav forskere fra Hong Kong University of Science and Technology en artikel, “Flertrins jailbreaking af privatlivsangreb på ChatGPT,” hvori de systematisk beskrev alle mulige angreb. Og dette er ikke bare en banal DAN-tilstand, men også en udviklertilstand: måder at udlede en model gennem en kæde af ræsonnementer osv.
- For to måneder siden, Reddit-brugere delte jailbreak-prompter for at låse ChatGPT Developer Mode op og aktivere 100 % fuldt udstyret filterundgåelse.
Læs mere om AI: