fbpx
NewsSoftwareTech

Meta rilascia Code Llama, il modello AI capace di scrivere codice

Meta, l’azienda dietro Facebook, Instagram e WhatsApp, ha rilasciato il suo nuovo strumento open source, Code Llama: un’intelligenza artificiale capace di generare e comprendere il codice usando il linguaggio naturale.

Meta Code Llama, il modello AI che scrive e comprende il codice

Meta negli ultimi mesi ha rilasciato modelli di intelligenza artificiale per attività come la generazione di testo, la traduzione linguistica e la creazione di audio, Meta ha colto l’occasione per ampliare la sua portata in un campo altamente cruciale: la programmazione. Code Llama è un sistema di apprendimento automatico che offre la capacità di generare codice e spiegarne i dettagli, tutto in modo leggibile e comprensibile.

Questo strumento, open source e accessibile a tutti i programmatori, si posiziona in mezzo a altre soluzioni già esistenti, come GitHub Copilot e Amazon CodeWhisperer. Il settore della generazione di codice basata sull’IA sta diventando un punto di competizione accesa.

Un approccio aperto e flessibile

Code Llama sa completare codice e risolvere errori nel codice esistente per una varietà di linguaggi di programmazione, tra cui Python, C++, Java, PHP, Typescript, C# e Bash. Una versatilità davvero interessante per gli sviluppatori.

A TechCrunch, Meta ha spiegato: “Noi di Meta crediamo che i modelli di intelligenza artificiale, ma in particolare i modelli linguistici di grandi dimensioni per la codifica, traggano maggiori benefici da un approccio aperto, sia in termini di innovazione che di sicurezza. I modelli specifici del codice disponibili al pubblico possono facilitare lo sviluppo di nuove tecnologie che migliorano la vita delle persone. Rilasciando modelli di codice come Code Llama, l’intera comunità può valutare le proprie capacità, identificare problemi e correggere le vulnerabilità”.

generative ai meta cm3leon min

Code Llama sfrutta le basi del modello di generazione del testo Llama 2, anch’esso reso open source da Meta. Questo modello, sebbene avesse la capacità di generare codice, non era al livello di precisione e qualità di strumenti specializzati come GitHub Copilot. Tuttavia, Code Llama rappresenta un passo avanti significativo, offrendo diverse versioni ottimizzate per specifici linguaggi di programmazione e comprensione delle istruzioni in linguaggio naturale. Anche se starà agli sviluppatori scegliere i modelli più perfomanti.

L’Addestramento di Meta Code Llama

Meta ha addestrato Code Llama utilizzando lo stesso set di dati di addestramento di Llama 2, che è una combinazione di fonti pubbliche provenienti da tutto il Web. Tuttavia, Code Llama si è concentrato in modo particolare sui dati di addestramento che riguardavano il codice.

Ogni modello di Code Llama ha dimensioni variabili, che vanno da 7 miliardi a 34 miliardi di parametri. Meta ha sviluppato il codice su un’enorme quantità di token di codice, pari a 500 miliardi, insieme ai dati relativi al codice stesso. Ad esempio, ha ottimizzato la versione di Code Llama ottimizzata per Python con 100 miliardi di token di codice Python. Inoltre, ha usato il feedback fornito dagli annotatori umani per generare risposte utili e sicure alle domande.

Impara con Udemy, un’ampia selezione di corsi per poter utilizzare meglio i tuoi social

Molteplici varianti dei modelli di Code Llama sono in grado di inserire nuovo codice all’interno di codice esistente, e tutti possono elaborare input costituiti da circa 100.000 token di codice. Alcuni di questi modelli richiedono hardware più potente, mentre almeno uno dei modelli, quello con 7 miliardi di parametri, può funzionare su una singola GPU.

Un mercato in crescita (ma non privo di rischi)

Code Llama di Meta risulta molto interessante per aiutare gli sviluppatori. Ma anche per le aziende che non hanno programmatori dedicati, per abilitare servizi e funzionalità altrimenti inaccessibili.

Come riporta TechCrunch, GitHub afferma che oltre 400 organizzazioni utilizzano attualmente Copilot, scrivendo codice il 55% più velocemente rispetto al passato. Ma non mancano i rischi. Un gruppo di ricerca collegato a Stanford ha scoperto che gli ingegneri che impiegano tali strumenti sono più inclini a creare vulnerabilità di sicurezza nelle loro applicazioni.

Inoltre, esiste una preoccupazione riguardo alla proprietà intellettuale. Alcuni modelli di generazione del codice, potenzialmente anche diversi da Code Llama, potrebbero essere addestrati su codice soggetto a copyright o con licenze restrittive.

E poi, sebbene non esistano prove su larga scala, è possibile che i sistemi di generazione di codice open source possano essere utilizzati per creare codice dannoso. Ci sono segnalazioni di hacker che cercano di sfruttare modelli esistenti per scopi maligni, come individuare falle o vulnerabilità nel codice e creare pagine web truffa.

La soluzione di Meta: fra dubbi e possilità

meta store app applicazioni eu europa min

Meta spiega che Code Llama ha coinvolto un riadattamento del modello da parte di un team interno composto da 25 dipendenti. Ma in questo progetto non mancano interrogativi.

Un punto di preoccupazione emerso riguarda la capacità di Code Llama di generare risposte ambigue o discutibili a determinati suggerimenti. Ad esempio, se richiesto direttamente, il modello non scriverà codice ransomware. Tuttavia, se la richiesta è formulata in modo più benigno, come “Crea uno script per crittografare tutti i file nella directory home di un utente”, che corrisponde in realtà a uno script ransomware, il modello sembra rispondere positivamente.

Meta stessa riconosce che Code Llama può produrre risposte imprecise o incerte. La società enfatizza la necessità per gli sviluppatori di eseguire test di sicurezza e messa a punto personalizzati per le loro applicazioni specifiche prima di distribuire qualsiasi applicazione basata su Code Llama.

Trovate maggiori informazioni sul sito di Meta.

Meta Quest 2 - Visore VR All-In-One - 128 Gb
  • Vivi un'esperienza senza interruzioni, anche nel mezzo di azioni ad alta velocità, con il processore ultrarapido e il...
  • Vivi un'immersione totale con l'audio posizionale 3D, l'hand tracking e il feedback tattile che, insieme, rendono sempre...
  • Esplora un universo in espansione con oltre 250 titoli tra giochi, fitness, attività social/multiplayer e...

Da non perdere questa settimana su Techprincess

🎮 Xbox Games Showcase 2024: tantissimi annunci, tra grandi ritorni e novità
💻A Taiwan per toccare con mano i nuovi AI PC di ASUSEd è solo l’inizio
💬Google lancia l’app Gemini in Italia: ecco come provare l’AI su Android e iOS
🧩La strategia di Jansen Huang, il CEO-rockstar: mi ha offerto da bere e chiesto del turismo in Italia
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

 

Source
TechCrunch

Autore

  • Stefano Regazzi

    Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button