Notizie TV

Disney al lavoro su una compressione video addestrata dall’IA

compressione video

Disney è al lavoro su una compressione video basata sull’intelligenza artificiale per competere con le già consolidate tecnologie di codec video odierne

Alcuni ricercatori di Disney Research e dell’Università della California Irvine hanno dimostrato come un modello di compressione video basato sull’intelligenza artificiale abbia il potenziale per competere con le già consolidate tecnologie di codec video odierne. Sebbene sia ancora in una fase iniziale di sviluppo, questo nuovo modello di compressione, quando “addestrato” su particolari contenuti video, ha prodotto apparentemente meno distorsioni e tassi di bit per pixel inferiori rispetto agli attuali algoritmi di decodifica di codifica come H.265.

Stephan Mandt, responsabile della ricerca e assistente professore di informatica dell’UCI, ha spiegato che alla fine tutto il discorso relativo alla compressione video si riduce a un compromesso tra dimensione del file e qualità dell’immagine e che, nel mirare a una dimensione del file inferiore, è inevitabile la presenza di alcuni errori. “La speranza è che il nostro approccio basato sulla rete neurale comporti un migliore compromesso tra dimensioni dei file e qualità”, ha dichiarato Mandt.

Il successo di un codec video dipende da quanto è in grado di prevedere i contenuti del frame successivo in modo che abbia meno da memorizzare. Gli attuali algoritmi di compressione eseguono questo compito provando a calcolare lo spostamento lineare di piccole patch localizzate rispetto alla loro posizione sul frame precedente. Al contrario, le reti neurali profonde adottano un approccio datacentrico e apprendono le dinamiche del video attingendo a grandi set di dati di materiale video. Ecco perché i progressi nel deep learning promettono di ridurre le dimensioni dei file video nelle generazioni future di codec di compressione video.


L’approccio del team prevede innanzitutto il downscaling delle dimensioni del video utilizzando un codificatore automatico variazionale che si traduce nel renderizzare ciascun fotogramma in una matrice di numeri ridotta. “Questo autocodificatore ha una forma a clessidra”, prosegue Mandt. “Ha una versione compatta dell’immagine nel mezzo; è così che comprimiamo ogni frame in qualcosa di più piccolo.”

L’algoritmo di compressione utilizza quindi una tecnica basata sull’intelligenza artificiale denominata “modello generativo profondo” per indovinare la prossima versione compressa di un’immagine basandosi su ciò che è accaduto prima. Fondamentalmente questo algoritmo è informato dalla rete neurale su quale fotogramma video aspettarsi, rendendo la compressione lossless (senza perdita) di dati estremamente efficiente.

Mandt paragona il processo alla compressione e decompressione delle lettere da un alfabeto finito senza alcuna perdita. Ogni fotogramma della sequenza video diventa così un alfabeto numerabile discreto a cui è possibile applicare la compressione lossless, riducendo così ulteriormente le dimensioni del file. L’intero processo è descritto come un algoritmo di compressione video “end to end”, che però deve ancora essere sviluppato in una versione applicabile. Un modo per migliorarlo, suggerisce Mandt, è comprimere la stessa rete neurale, insieme al video.

Chissà se Disney, una volta che l’intero processo arriverà a una piena maturazione e sarà pienamente utilizzabile, proverà a integrare questo nuovo metodo di compressione ai contenuti della sua piattaforma di streaming Disney+.

© 2020, MBEditore – TPFF srl. Riproduzione riservata.

Vuoi saperne di più? Di' la tua!

SCRIVICI


    MBEditore network

    Loading RSS Feed


     

     

     

     

     

    Pin It on Pinterest