Følgende artikel hjælper dig med: Farerne ved AI: Hvordan hackere vil bruge ChatGPT i de næste par år
Den hurtige udvikling af kunstig intelligens (AI) er et af de mest transformative teknologiske fremskridt i nyere historie. Men efterhånden som AI fortsætter med at udvikle sig og blive mere sofistikeret, er der en stigende risiko for, at den kan blive ukontrollerbar eller vil blive brugt af hackere.
Med den nuværende tilstand af AI-teknologi er det nu muligt at skabe autonom malware, der kan udvælge og engagere mål uden menneskelig indblanding. Der er også en risiko for, at kunstig intelligens kan bruges til at styrke cyberkriminelles muligheder. AI kan bruges til at skabe kraftfuld malware, som er svær at opdage og forsvare sig imod. AI-aktiveret malware kan bruges til at iværksætte angreb, som det er umuligt for mennesker at forsvare sig imod. Er du sikker på, at AI eller ChatGPT ikke kan producere noget skadeligt, da det allerede skaber programmer, apps, spil og scripts?

De potentielle risici ved kunstig intelligens er ikke kun teoretiske. De er reelle og nuværende farer, som vi skal tage fat på, før det er for sent.
Som eksperter i Finland tror, vil angribere snart begynde at bruge kunstig intelligens til at udføre dødbringende effektive phishing-angreb. WithSecure, det finske transport- og kommunikationsagentur og det føderale beredskabsstyrelse har udarbejdet en rapport analysere aktuelle trends og udviklinger inden for AI, cyberangreb, og hvor de to krydser hinanden.

Forfatterne af rapporten siger, at selvom angreb med kunstig intelligens i øjeblikket er meget sjældne, udføres de på en sådan måde, at forskere og analytikere ikke kan observere dem. Inden for de næste år er det dog sandsynligt, at angribere vil udvikle AI-algoritmer, der uafhængigt kan finde sårbarheder, planlægge og gennemføre ondsindede kampagner, omgå sikkerhedssystemer og indsamle oplysninger fra hackede enheder.

WithSecure har forudsagt, at statssponsorerede hackere vil være de første til at bruge AI i cyberangreb, hvor teknologien til sidst falder i hænderne på mindre grupper, som vil bruge den i større skala. Som følge heraf skal informationssikkerhedsspecialister begynde at udvikle systemer, der kan beskytte mod denne slags angreb.
Rapportens forfattere har udtalt, at AI-drevne cyberangreb vil være særligt effektive, når det kommer til efterligningsteknikker, som ofte bruges i phishing- og vishing-angreb.
Hackere vil bruge ChatGPT i social engineering for at få følsomme data
Der har været en stigende tendens til, at hackere bruger AI til at udføre deres angreb, da denne teknologi giver dem mulighed for at automatisere deres angreb og gøre dem mere effektive.
Et af de seneste eksempler på dette er ChatGPT chatbot, som bliver brugt af hackere til at udføre social engineering-angreb. Denne chatbot er designet til at efterligne menneskelig samtale og er i stand til at udføre komplekse, realistiske og sammenhængende samtaler. Der er et potentiale for misbrug med denne teknologi. Hackere kunne bruge chatbotten til at generere overbevisende samtaler for at indsamle følsomme data, personlige oplysninger og adgangskoder fra intetanende ofre.
Hidtil er chatbotten blevet brugt til at efterligne kundeservicerepræsentanter og udføre phishing-angreb. Det er kun et spørgsmål om tid, før vi ser mere sofistikerede angreb blive udført med denne teknologi.
Dette er et alvorligt problem, der skal løses. Hvis ChatGPT ikke er ordentligt sikret, kan det bruges til at udnytte folk på en meget sofistikeret måde. Efterhånden som chatbots bliver mere avancerede, er det vigtigt at være opmærksom på de risici, de udgør. Hackere vil fortsætte med at finde nye måder at bruge dem til at udføre deres angreb. Sørg for at holde din sikkerhedssoftware opdateret og vær på vagt over for alle samtaler, du har med fremmede online.
Læs mere om AI: