Share the post "ChatGPT și securitatea cibernetică – scrisori de phishing convingătoare și malware personalizat"
Kaspersky explorează modul în care apariția ChatGPT și utilizarea sa de către publicul larg ar putea schimba regulile stabilite ale lumii securității cibernetice. Acest lucru vine la câteva luni după ce OpenAI a lansat ChatGPT-3 – unul dintre cele mai puternice modele AI de până acum. ChatGPT-3 poate explica concepte științifice complexe mai bine decât mulți profesori, poate scrie muzică și poate genera aproape orice text pe baza solicitării utilizatorului.
ChatGPT-3 este, în primul rând, un model de limbaj AI care creează texte convingătoare, greu de distins de cele scrise de oameni. Prin urmare, infractorii cibernetici încearcă deja să aplice această tehnologie la atacurile de tip spear-phishing. Anterior, principalul obstacol care i-a oprit din campaniile de spear-phishing în masă a fost faptul că este destul de costisitor să scrie fiecare e-mail vizat. ChatGPT este setat să modifice drastic echilibrul de putere, deoarece ar putea permite atacatorilor să genereze e-mailuri de phishing persuasive și personalizate la scară industrială. Poate chiar simula corespondența, creând e-mailuri false, dar foarte convingătoare și personale, care arată ca și cum ar fi transmise de la un angajat la altul. Din păcate, acest lucru înseamnă că numărul atacurilor de phishing reușite poate crește.
Scrisoare de phishing generată de ChatGPT
Mulți utilizatori au descoperit deja că ChatGPT este capabil să genereze cod, dar, din păcate, este vorba inclusiv de coduri rău intenționate. Crearea unui simplu infostealer va fi posibilă fără necesitatea unor abilități de programare. Cu toate acestea, utilizatorii straight-arrow nu au de ce să se teamă. Dacă se folosește efectiv codul scris de un bot, soluțiile de securitate îl vor detecta și neutraliza la fel de repede ca toate programele malware din trecut, create de oameni. În timp ce unii analiști își exprimă îngrijorarea că ChatGPT poate chiar să creeze malware unic pentru fiecare victimă, aceste mostre ar prezenta totuși un comportament rău intenționat care, cel mai probabil, va fi observat de o soluție de securitate. Mai mult, este posibil ca malware-ul scris de bot să conțină erori subtile și probleme legate de logica informațiilor, ceea ce înseamnă că automatizarea completă a codificării malware-ului este posibilă în continuare.
Deși instrumentul poate fi util atacatorilor, specialiștii și soluțiile de securitate pot beneficia, de asemenea, de pe urma acestui lucru. De exemplu, ChatGPT este deja capabil să explice rapid ce face o anumită parte de cod. Este binevenit în SOC, unde analiștii suprasolicitați în mod constant trebuie să aloce un timp minim fiecărui incident, așa că orice instrument de accelerare a procesului este util. În viitor, utilizatorii vor vedea probabil numeroase produse specializate: un model de inginerie inversă pentru a înțelege mai bine codul, un model de rezolvare a CTF, un model de cercetare a vulnerabilităților și multe altele.