fbpx
Tech

I nuovi video creati con Sora sono davvero sorprendenti

Presentate sette nuove clip

Lo scorso 16 febbraio abbiamo scritto l’ennesimo articolo su un software di intelligenza artificiale generativa.

Ennesimo articolo, sì, che però ci ha dato sensazioni diverse dal solito. Vi abbiamo infatti parlato di Sora, strumento prodotto da OpenAI, in grado di produrre clip video partendo da un comando testuale.

Ebbene, tutte le imprecisioni ancora addebitabili alla neonata tecnologia del deepfake ci sono sembrate improvvisamente roba antica. Mani con sei dita, orecchie e altri dettagli del tutto inverosimili, che fin lì stavano caratterizzando l’IA generativa di immagini, sono state superate di colpo. Un’evoluzione rapidissima ed epocale.

I video di Sora, insomma, apparivano sorprendentemente nitidi sia nelle figure in primo piano sia nello sfondo.

Ora OpenAI ci ha mostrato alcuni nuovi video di Sora, e il nostro stupore si è acuito.

TechPrincess 1

I nuovi, sorprendenti video di Sora

Nei primi giorni dopo il lancio di Sora, il patron di OpenAI, Sam Altman, ha ideato un modo geniale per lanciare al pubblico mondiale piccoli periodici segnali delle potenzialità del software. Ha chiesto agli utenti, tramite il proprio account di X, di inviargli descrizioni testuali che Sora avrebbe trasformato in video. Pubblicandone poi alcuni sul proprio profilo.

Ora invece l’azienda ha mostrato nuovi video di Sora prodotti da “artisti visivi, designer, direttori creativi e registi”. Lo scopo  è “imparare come Sora possa aiutare il loro processo creativo.” E il risultato, dicevamo, è notevole.

Alcuni esempi

Sono sette i nuovi video di Sora mostrati in una specifica pagina di OpenAI. In uno di questi, si vedono alcuni animali degni del più fantasioso bestiario: ibridi come il gatto-anguilla o la giraffa-fenicottero, per non parlare del maiale volante. Il “problema” è che la clip (che in questi casi supera di qualche secondo il limite di un minuto dei primissimi video) sembra del tutto vera.

In un altro, si vede lo scorcio della normale quotidianità di un maschio adulto, che pedala in bicicletta o prende la metropolitana. Maschio adulto che tuttavia presenta una non piccola peculiarità: anziché la testa, ha un enorme palloncino giallo che un po’ rimane attaccato al collo, un po’ sembra voler volare via.

I commenti

Ha commentato la partnership con OpenAI la piccola azienda Shy Kids, che ha prodotto proprio il video dell’uomo-palloncino.

“Ora abbiamo la possibilità di approfondire storie che una volta ritenevamo impossibili. Per quanto Sora sia bravo nel creare cose che sembrano reali, ciò che ci entusiasma è la sua capacità di creare cose totalmente surreali. Una nuova era di espressionismo astratto.

Persone provenienti da tutto il mondo con storie pronte a uscire dal loro petto hanno finalmente l’opportunità di mostrare al mondo cosa c’è dentro”.

Il regista del video, Paul Trillo, ha aggiunto: “Lavorando con Sora è la prima volta che mi sento libero come regista. Non limitato dal tempo, dal denaro o dal permesso di altre persone, posso ideare e sperimentare in modi audaci ed entusiasmanti.

Sora raggiunge il suo massimo potere quando non replichi il vecchio ma dai vita a idee nuove e impossibili, che altrimenti non avremmo mai avuto l’opportunità di vedere.”

Sora e il cinema

I nuovi video di Sora fanno pensare in modo sempre più concreto a un suo utilizzo in ambito cinematografico.

Ne avevamo già accennato nell’articolo in cui vi abbiamo presentato il software. Dopo di che, Bloomberg ha rivelato di alcuni incontri tra OpenAI e le grandi aziende del cinema hollywoodiano, che potrebbero essere seriamente intenzionate al suo utilizzo. In fondo si tratterebbe di avere in breve tempo straordinari effetti speciali, probabilmente anche a costi limitati rispetto a quelli attuali.

È bene, aggiungiamo, concentrarci sulla settima arte, per evitare di pensare ai possibili usi distorti o illeciti di una tecnologia già così affinata, e che chissà fin dove potrà spingersi.

Offerta

E non finisce qui

È stata la stessa OpenAI, infatti, a far sapere che le potenzialità di Sora sono ancora in una primissima fase.

“Il modello attuale presenta dei punti deboli. Potrebbe avere difficoltà a simulare accuratamente i movimenti di una scena complessa e potrebbe non comprendere istanze specifiche di causa ed effetto. Ad esempio, una persona potrebbe dare un morso a un biscotto, ma in seguito il biscotto potrebbe non lasciare il segno del morso.

Il modello può anche confondere i dettagli spaziali di un prompt, ad esempio confondendo sinistra e destra, e può avere difficoltà con descrizioni precise di eventi che si verificano nel tempo, come seguire una specifica traiettoria della telecamera”.

Da non perdere questa settimana su Techprincess

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button