fbpx
HotTech

ChatGPT e gli attacchi informatici: quando l’intelligenza artificiale è al servizio degli hacker

Lo hanno denunciato Microsoft e OpenAI

Più l’intelligenza artificiale generativa si insinua nelle nostre vite e più ciascuno di noi (non negatelo) sta immaginando possibili scenari del futuro prossimo.

Ci sono catastrofisti che temono un’umanità disoccupata e allo sbando, soggiogata dai software. E chi al contrario è convinto che l’IA produttrice di contenuti ci assisterà con saggezza in una grande quantità di ambiti intellettuali e ludici.

Finora non avevamo pensato al fatto che, prima o poi, sarebbe dovuto succedere anche questo: l’intelligenza artificiale al servizio degli hacker. È quanto denunciato nientemeno che da OpenAI e da Microsoft nelle scorse ore, anche se qualcosa in precedenza era già accaduto. Proviamo a fare il punto della situazione.

hacker 1

Intelligenza artificiale: gli hacker usano ChatGPT

Il nostro governo ha da poco approvato un disegno di legge che inasprisce le pene per i criminali informatici.

Ma chissà che non debba essere aggiornato: ultimamente gli hacker si servono dell’intelligenza artificiale per le loro losche azioni. A dirlo sono OpenAI, produttrice di ChatGPT, e Microsoft, che con l’azienda di Sam Altman ha stretto una proficua (e onerosa) partnership.

Scorpi la super offerta NordVPN – 63% di sconto

Nella giornata di mercoledì 14 febbraio sul blog Microsoft Security è apparso un articolato post dal titolo emblematico: Staying ahead of threat actors in the age of AI (Stare al passo con gli autori delle minacce nell’era dell’intelligenza artificiale).

È la pubblicazione di “una ricerca sulle minacce emergenti nell’era dell’intelligenza artificiale, concentrandoci sulle attività identificate associate ad attori di minacce noti”.

Minacce da Russia e Corea del Nord

Larga parte del report è dedicata alle azioni intraprese da Microsoft e OpenAI per contrastare le minacce degli hacker che adoperano l’intelligenza artificiale.

Dopo di che viene fornito un breve elenco di gruppi di criminali informatici che “stanno esplorando e testando diverse tecnologie d’IA man mano che queste emergono, nel tentativo di comprendere il potenziale valore delle loro operazioni e i possibili controlli di sicurezza che potrebbero aver bisogno di eludere”.

Tra gli altri viene citata Forest Blizzard, nota anche come Strontium, organizzazione legata all’intelligence militare russa. Leggiamo che “Forest Blizzard è stata estremamente attiva nel prendere di mira organizzazioni legate alla guerra russa in Ucraina per tutta la durata del conflitto, e Microsoft ritiene che le operazioni di Forest Blizzard svolgano un ruolo di supporto significativo per la politica estera e gli obiettivi militari della Russia sia in Ucraina che nel resto del mondo.”

Ha adoperato in modo improprio gli LLM (Large Language Model) anche Thallium, gruppo hacker nordcoreano “molto attivo per tutto il 2023. Le sue recenti operazioni si basavano su e-mail di phishing per compromettere e raccogliere informazioni da personaggi di spicco con esperienza sulla Corea del Nord”. Gli autori della azioni si spacciavano per istituzioni accademiche e ONG, e inducevano le vittime a fornire pareri di esperti e commenti sulle politiche estere relative alla Corea del Nord.

Altre offensive hacker tramite intelligenza artificiale sono state lanciate da Iran e Cina.

Nessun attacco significativo

Microsoft e OpenAI sottolineano che nessun attacco hacker tramite utilizzo di LLM è stato significativo, e che non è stata utilizzata nessuna tecnica sconosciuta. Tutti gli account associati a quelle organizzazioni criminali, peraltro, sono stati disattivati.

Ma di certo la cybersicurezza deve accettare nuove sfide, e dotarsi di nuove misure di difesa.

Offerta

Nuove frontiere della criminalità

In questo senso può valere un esempio recentissimo, basato sull’IA produttrice di immagini.

Qualche giorno fa un gruppo di hacker iraniani ha mandato in onda negli Emirati Arabi (ma anche nel Regno Unito e in Canada) un video deepfake. Nel quale un giornalista prodotto con l’intelligenza artificiale ha annunciato un servizio che ha mostrato immagini (non verificate) di palestinesi uccisi a Gaza dai militari israeliani.

Si pensi poi alla capacità di ChatGPT di scrivere codice, o a quella di altri software di imitare le voci di personaggi più o meno noti.

Non per caso, qualche mese fa proprio le big tech hanno assunto gruppi di hacker perché individuassero falle nei loro modelli di intelligenza artificiale. Sperando che non valga l’antico adagio: “Quando non puoi sconfiggerlo, fattelo amico”.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button