fbpx
NewsTech

Nasce il Frontier Model Forum, i colossi dell’AI uniscono le forze

Le grandi aziende del settore dell’AI, come Anthropic, Google, Microsoft e OpenAI, hanno annunciato la creazione di un nuovo organismo che si occuperà di promuovere uno sviluppo responsabile e sicuro dei modelli di intelligenza artificiale di frontiera. Si tratta del Frontier Model Forum, una partnership che coinvolgerà anche governi, università e società civile.

Il Forum è aperto a tutte le organizzazioni che sviluppano e distribuiscono modelli di frontiera, purché dimostrino un forte impegno per la sicurezza dell’AI, attraverso approcci tecnici e istituzionali, e che siano disposte a collaborare con le altre parti interessate per sostenere il buon funzionamento dell’organizzazione.

Frontier Model Forum, per un’intelligenza artificiale sicura ed etica

L’iniziativa risponde alla crescente consapevolezza dei potenziali rischi dell’AI, che richiedono misure di sicurezza adeguate per essere mitigati. In questo senso, il Forum si inserisce nel solco delle iniziative già avviate da governi e organismi internazionali, come gli Stati Uniti, il Regno Unito, l’Unione Europea, il G7 e l’OCSE.

Naviga online in totale sicurezza con NordVPN – Fino a 63% di sconto per 2 anni di NordVPN

L’obiettivo del Forum è di quindi di garantire che i modelli di AI siano conformi a standard elevati di sicurezza, qualità e affidabilità, e che rispettino i principi etici e i valori umani. Per fare ciò, il Forum si avvarrà delle competenze tecniche e operative dei suoi membri e metterà a disposizione dell’intera comunità di intelligenza artificiale una libreria pubblica di soluzioni, valutazioni tecniche e benchmark.

Quali saranno le prime manovre?

In questa fase iniziale il Frontier Model Forum si concentrerà su tre azioni chiave per promuovere un’intelligenza artificiale sicura ed etica:

  • Identificare le migliori pratiche. Il Forum favorirà la condivisione delle conoscenze e delle esperienze tra i vari attori coinvolti nell’ecosistema dell’AI. Particolare attenzione sarà posta agli standard di sicurezza.
  • Avanzare la ricerca sulla sicurezza dell’AI. Tra i temi prioritari ci sono l’interpretabilità meccanistica, la supervisione scalabile e la rilevazione delle anomalie. Il primo passo sarà la condivisione di una libreria pubblica di valutazioni tecniche.
  • Facilitare la condivisione delle informazioni tra aziende e governi

Nei prossimi mesi, il Frontier Model Forum costituirà un Consiglio Consultivo per definire le priorità e le strategie. Le aziende fondatrici stileranno anche una carta-manifesto e stabiliranno la governance e i meccanismi di finanziamento. L’annuncio completo diramato da Google è disponibile sul blog ufficiale della società.

Offerta

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🍿Fallout: tutte le domande irrisolte alle quali la Stagione 2 dovrà rispondere
🛞Come scegliere gli pneumatici estivi per l’estate? I fattori da considerare
🤯Google licenzia 28 dipendenti per proteste contro il progetto Nimbus in Israele
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Marco Brunasso

Scrivere è la mia passione, la musica è la mia vita e Liam Gallagher il mio Dio. Per il resto ho 30 anni e sono un musicista, cantante e autore. Qui scrivo principalmente di musica e videogame, ma mi affascina tutto ciò che ha a che fare con la creazione di mondi paralleli. 🌋From Pompei with love.🧡

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button