Più l’intelligenza artificiale generativa si insinua nelle nostre vite e più ciascuno di noi (non negatelo) sta immaginando possibili scenari del futuro prossimo.
Ci sono catastrofisti che temono un’umanità disoccupata e allo sbando, soggiogata dai software. E chi al contrario è convinto che l’IA produttrice di contenuti ci assisterà con saggezza in una grande quantità di ambiti intellettuali e ludici.
Finora non avevamo pensato al fatto che, prima o poi, sarebbe dovuto succedere anche questo: l’intelligenza artificiale al servizio degli hacker. È quanto denunciato nientemeno che da OpenAI e da Microsoft nelle scorse ore, anche se qualcosa in precedenza era già accaduto. Proviamo a fare il punto della situazione.
Intelligenza artificiale: gli hacker usano ChatGPT
Il nostro governo ha da poco approvato un disegno di legge che inasprisce le pene per i criminali informatici.
Ma chissà che non debba essere aggiornato: ultimamente gli hacker si servono dell’intelligenza artificiale per le loro losche azioni. A dirlo sono OpenAI, produttrice di ChatGPT, e Microsoft, che con l’azienda di Sam Altman ha stretto una proficua (e onerosa) partnership.
Scorpi la super offerta NordVPN – 63% di sconto
Nella giornata di mercoledì 14 febbraio sul blog Microsoft Security è apparso un articolato post dal titolo emblematico: Staying ahead of threat actors in the age of AI (Stare al passo con gli autori delle minacce nell’era dell’intelligenza artificiale).
È la pubblicazione di “una ricerca sulle minacce emergenti nell’era dell’intelligenza artificiale, concentrandoci sulle attività identificate associate ad attori di minacce noti”.
Minacce da Russia e Corea del Nord
Larga parte del report è dedicata alle azioni intraprese da Microsoft e OpenAI per contrastare le minacce degli hacker che adoperano l’intelligenza artificiale.
Dopo di che viene fornito un breve elenco di gruppi di criminali informatici che “stanno esplorando e testando diverse tecnologie d’IA man mano che queste emergono, nel tentativo di comprendere il potenziale valore delle loro operazioni e i possibili controlli di sicurezza che potrebbero aver bisogno di eludere”.
Tra gli altri viene citata Forest Blizzard, nota anche come Strontium, organizzazione legata all’intelligence militare russa. Leggiamo che “Forest Blizzard è stata estremamente attiva nel prendere di mira organizzazioni legate alla guerra russa in Ucraina per tutta la durata del conflitto, e Microsoft ritiene che le operazioni di Forest Blizzard svolgano un ruolo di supporto significativo per la politica estera e gli obiettivi militari della Russia sia in Ucraina che nel resto del mondo.”
Ha adoperato in modo improprio gli LLM (Large Language Model) anche Thallium, gruppo hacker nordcoreano “molto attivo per tutto il 2023. Le sue recenti operazioni si basavano su e-mail di phishing per compromettere e raccogliere informazioni da personaggi di spicco con esperienza sulla Corea del Nord”. Gli autori della azioni si spacciavano per istituzioni accademiche e ONG, e inducevano le vittime a fornire pareri di esperti e commenti sulle politiche estere relative alla Corea del Nord.
Altre offensive hacker tramite intelligenza artificiale sono state lanciate da Iran e Cina.
Nessun attacco significativo
Microsoft e OpenAI sottolineano che nessun attacco hacker tramite utilizzo di LLM è stato significativo, e che non è stata utilizzata nessuna tecnica sconosciuta. Tutti gli account associati a quelle organizzazioni criminali, peraltro, sono stati disattivati.
Ma di certo la cybersicurezza deve accettare nuove sfide, e dotarsi di nuove misure di difesa.
- Nella mente dell'hacker. Tecniche di persuasione e manipolazione mentale in rete (Saggi)
- Tipologia di prodotto: ABIS BOOK
- Marca: Tab edizioni
Nuove frontiere della criminalità
In questo senso può valere un esempio recentissimo, basato sull’IA produttrice di immagini.
Qualche giorno fa un gruppo di hacker iraniani ha mandato in onda negli Emirati Arabi (ma anche nel Regno Unito e in Canada) un video deepfake. Nel quale un giornalista prodotto con l’intelligenza artificiale ha annunciato un servizio che ha mostrato immagini (non verificate) di palestinesi uccisi a Gaza dai militari israeliani.
Si pensi poi alla capacità di ChatGPT di scrivere codice, o a quella di altri software di imitare le voci di personaggi più o meno noti.
Non per caso, qualche mese fa proprio le big tech hanno assunto gruppi di hacker perché individuassero falle nei loro modelli di intelligenza artificiale. Sperando che non valga l’antico adagio: “Quando non puoi sconfiggerlo, fattelo amico”.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!