Site icon Syrus

Animate Anyone: rivoluzione dei deepfake

L’avanzamento tecnologico nel campo dei deepfake ha raggiunto un nuovo traguardo con l’introduzione di Animate Anyone, una tecnica di generazione di video che permette di animare qualsiasi persona a partire da una semplice foto. Questa innovazione è stata sviluppata dai ricercatori presso l’Alibaba Group’s Institute for Intelligent Computing e rappresenta un significativo passo avanti rispetto ai precedenti sistemi di generazione immagini-video come DisCo e DreamPose.

L’evoluzione dei deepfake

In passato, la generazione di video a partire da immagini statiche ha incontrato diverse difficoltà. I modelli precedenti erano afflitti da problemi di “allucinazione”, in quanto dovevano inventare dettagli plausibili come il movimento di maniche o capelli quando una persona si girava. Questa situazione ha portato alla creazione di video poco convincenti e dalla qualità scadente. Tuttavia, grazie agli sviluppi di Animate Anyone, siamo molto più vicini alla fase in cui i video generati saranno talmente realistici da non richiedere un’analisi approfondita per riconoscerne la falsità.

Come funziona Animate Anyone

I modelli di generazione immagini-video come Animate Anyone partono dall’estrazione dei dettagli di un volto, come le caratteristiche facciali, i pattern e la posa, da una foto di riferimento. Successivamente, viene creato un insieme di immagini in cui questi dettagli vengono mappati su pose leggermente diverse, che possono essere acquisite tramite motion capture o estratte da altri video. Questo processo consente di ottenere un video in movimento a partire da una singola immagine statica.

I miglioramenti di Animate Anyone

Animator Anyone rappresenta un significativo miglioramento rispetto ai modelli precedenti. Secondo il paper degli sviluppatori, il modello introduce una nuova fase intermedia che “consente al modello di apprendere in modo esaustivo la relazione con l’immagine di riferimento in uno spazio caratteristico coerente, il che contribuisce significativamente al miglioramento della conservazione dei dettagli estetici”. Questo significa che le immagini generate successivamente avranno una base più solida su cui lavorare, garantendo risultati di migliore qualità.

Risultati e limitazioni

Gli sviluppatori di Animate Anyone hanno presentato alcuni esempi dei risultati ottenuti con questa tecnica. Modelli di moda assumono pose arbitrarie senza deformazioni o perdita del pattern dell’abbigliamento. Un personaggio di anime 2D prende vita e balla in modo convincente. Lionel Messi esegue alcuni movimenti generici. Tuttavia, nonostante i notevoli progressi, il modello presenta ancora alcune limitazioni. Ad esempio, i dettagli degli occhi e delle mani rappresentano una sfida particolare per i modelli generativi.

Inoltre, le pose meglio rappresentate sono quelle più simili all’immagine di riferimento; se una persona si gira, il modello fatica a mantenerne il passo. Anche se siamo ancora lontani dalla perfezione, Animate Anyone rappresenta un enorme balzo in avanti rispetto allo stato dell’arte precedente, che spesso produceva artefatti o perdeva dettagli importanti come il colore dei capelli o dell’abbigliamento di una persona.

Implicazioni e preoccupazioni

La possibilità che, partendo da una singola immagine di una persona, un attore malevolo o un produttore possa far fare qualsiasi cosa a quella persona è inquietante. Se poi si aggiungono le tecnologie di animazione facciale e cattura vocale, si può far esprimere qualsiasi cosa a questa persona. Attualmente, la complessità e le problematiche tecniche rendono Animate Anyone inadatto all’uso generale. Tuttavia, nel campo dell’intelligenza artificiale, le cose cambiano rapidamente e non è da escludere che questa tecnologia diventi accessibile a tutti in futuro.

Fortunatamente, il team di sviluppatori non ha ancora reso pubblico il codice sorgente di Animate Anyone. Sul loro GitHub, gli sviluppatori scrivono: “Stiamo lavorando attivamente alla preparazione del demo e del codice per la release pubblica. Sebbene al momento non possiamo impegnarci con una data di rilascio specifica, siamo fermamente intenzionati a fornire accesso sia al demo che al nostro codice sorgente“.e.

Syrus

Exit mobile version