AD
Meta vuole fare chiarezza una volta per tutte sulla tipologia di contenuti pubblicati sui suoi servizi social, pertanto ha in progetto una serie di provvedimenti nei confronti di tutto ciò che è stato generato dall’intelligenza artificiale. Lo ha affermato Nick Clegg, presidente degli affari globali di Meta, durante una recente intervista. L’azienda di Zuckerberg sta per iniziare a contrassegnare con watermark le foto create con l’AI generativa su Instagram, Threads e Facebook, ma non è tutto. Sono previste punizioni per gli utenti che non rivelano la creazione di video o audio realistici mediante l’AI.
I contenuti creati con l’intelligenza artificiale diventano sempre più difficili da distinguere dalla realtà, pertanto Meta sta sviluppando strumenti per rilevare i media, anche nel caso in cui i metadati siano stati alterati per nascondere l’utilizzo di questa tecnologia. Come primo step, Meta applicherà un watermark “Creato con l’AI” alle immagini realizzate con il suo generatore Imagine AI, e farà la stessa cosa con le foto generate con strumenti di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
L’azienda ritiene che il settore sia in ritardo nello sviluppo di standard per identificare video e audio generati con IA, ma ci saranno novità anche da questo punto di vista, molto negative in alcuni casi. Per i video e gli audio realistici creati con l’AI e pubblicati a scopo di inganno politico, Meta adotterà misure severe, che potrebbero includere avvertimenti o la rimozione del contenuto.
Tutte le più grandi realtà tecnologiche si stanno muovendo nella medesima direzione di Meta, che di recente ha ampliato le sue collaborazioni con gruppi come Partnership on AI per sviluppare iniziative di autenticazione dei contenuti. Anche Adobe ha recentemente rilasciato il sistema, Content Credentials, che inserisce informazioni sulla provenienza dei contenuti nei metadati delle immagini. E poi c’è Google, che ha esteso il suo watermark SynthID ai file audio dopo averlo rilasciato in versione beta per le immagini.
Sempre durante la stessa intervista, Clegg ha affermato che Meta richiederà presto agli utenti di segnalare con chiarezza i contenuti video o audio realistici creati con l’AI. Qualora ciò non venga fatto, le sanzioni applicate potranno variare da semplici avvertimenti alla rimozione dei contenuti.
Se da un lato l’azienda di Zuckerberg vuole adottare il pugno duro, dall’altro sta abbracciando questo fiorente segmento lavorando alla creazione di propri chip custom per ridurre la dipendenza da Nvidia. Sebbene si tratti per ora di un’indiscrezione, l’azienda punta a utilizzare l’hardware proprietario nei suoi data center.
.
Post comments (0)