OpenAI, arriva Sora: l’innovazione ‘a tutti i costi’ nasconde in realtà un rischio considerevole

Sora è senza dubbio un grande passo avanti nel mondo della creazione di video, ma anche uno strumento potenzialmente molto pericoloso.

L’ultimo capolavoro di OpenAI, Sora, è forse uno dei progetti più impressionanti nel campo dell’intelligenza artificiale: un sistema in grado di trasformare semplici testi in video incredibilmente realistici. Questa tecnologia, come molti altri aspetti dell’IA, solleva però interrogativi urgenti sulle implicazioni per la sicurezza e l’integrità dell’informazione, specialmente alla vigilia delle elezioni globali del 2024.

il generatore di video di openai preoccupa l'opinione pubblica
OpenAI ha rilasciato un nuovo strumento che sta già destando diverse preoccupazioni – Screenshot YouTube OpenAI – games.it

Sora è un chiaro esempio dell’incessante ricerca di OpenAI nel superare i limiti della creatività digitale. Attraverso l’uso di descrizioni testuali, il programma può generare video di una durata fino a 60 secondi che spaziano da scene urbane vibranti a narrazioni fantascientifiche, dimostrando una versatilità senza precedenti. C’è però un’altro lato della medaglia quando si parla di questa straordinaria innovazione, dove si celano potenziali pericoli che non possono essere ignorati.

Sora potrebbe mettere in difficoltà l’intera popolazione umana con le sue incredibili capacità

Critici e sostenitori della tecnologia si trovano divisi. Da un lato, c’è chi ammira incondizionatamente il progresso tecnologico che Sora rappresenta e afferma che non farà altro che rendere ancora più stupefacente l’esperienza di milioni di utenti in giro per il monto. Dall’altro, crescono le preoccupazioni per la facilità con cui questa tecnologica potrebbe essere abusata per creare video deepfake, aggravando il problema della disinformazione in un periodo già delicato per la democrazia globale.

sora genera video incredibilmente realistici
Sora è in grado di generare qualsiasi tipo di video, basandosi sulle indicazioni dell’utente – Screenshot YouTube OpenAI – games.it

Hany Farid, dell’Università della California, Berkeley, sottolinea come l’evoluzione della tecnologia di generazione video guidata dall’IA stia rapidamente sfumando i confini tra realtà e finzione. La preoccupazione principale risiede nella possibilità di abbinare questa tecnologia con la clonazione vocale alimentata dall’IA, aprendo la strada a manipolazioni mediatiche di una pericolosità senza precedenti.

La tecnologia in questione non è ancora perfetta: i video generati presentano spesso errori evidenti, come anomalie nel movimento o oggetti che sfidano le leggi della fisica, suggerendo che per ora esistano limiti al realismo dei deepfake. Tuttavia, esperti come Arvind Narayanan, della Princeton University, avvertono che queste imperfezioni potrebbero non bastare a garantire la rilevabilità dei video manipolati nel lungo termine.

In risposta a queste preoccupazioni, OpenAI ha dichiarato di voler adottare un approccio cauto, trattenendosi dal rendere Sora pubblicamente disponibile e sottoponendolo a rigorosi test di sicurezza. Questi test coinvolgono esperti di diversi campi, dall’informazione alla gestione dei contenuti d’odio, per valutare il rischio di abuso della tecnologia e sviluppare salvaguardie adeguate.

L’impegno di OpenAI nel mitigare i potenziali danni causati da Sora riflette la consapevolezza crescente dell’importanza di bilanciare l’innovazione con la responsabilità sociale. La società si trova di fronte alla sfida di navigare tra il desiderio di esplorare nuovi orizzonti dell’intelligenza artificiale e la necessità di proteggere l’integrità dell’informazione e la sicurezza pubblica.

Gestione cookie