video editing
gorodenkoff @iStock (2018)
Tecnologia

Così l’intelligenza artificiale cambia il modo di fare video

Adobe mostra le ultime novità in materia di animazione: fra queste anche un tool che lavora sulla mappatura in tempo reale del volto (labiali compresi)

Con gli smartphone siamo tutti videomaker, su questo non ci piove. Il problema è semmai un altro. Quanto di tutto il materiale che ogni giorno autoproduciamo diventa qualcosa di davvero creativo e spendibile al di fuori delle chat e dei social network? Davvero poco.

È un problema di inclinazione personale (non tutti hanno tempo, passione e talento per cimentarsi con l’editing) ma anche di mezzi. Finora infatti, un certo tipo di post-produzione di alto livello – si pensi ad esempio alle animazioni - è stata appannaggio di studi dotati di strumenti molto sofisticati.

A guardare gli sviluppi che arrivano dall’industria del software, però, viene davvero da pensare che presto, molto presto, saremo tutti nelle condizioni di trasformare un video amatoriale in qualcosa degno di una piccola casa di produzione. I progressi del mondo hardware da un lato (un telefono oggi ha una potenza pari a quella di un computer di 10 anni fa) e quelli recati in dote dall’intelligenza artificiale sono tanti e tale da farci pensare a un modello di editing sempre più evoluto e facile da utilizzare

Dal volto reale a quello digitale

A indicarci la strada sono ancora una volta i produttori di applicazioni professionali, come spesso succede i più lesti a sintonizzarsi su le tendenze tecnologiche d’avanguardia. Adobe, che con la sua Creative Cloud lavora ormai da parecchio tempo al servizio di registi e professionisti del video editing, ha le idee chiare in proposito: gli algoritmi intelligenti e i sistemi di machine learning ci permetteranno di fare cose che solo qualche anno fa parevano impensabili. Anzi, lo stanno già facendo.

Una dimostrazione molto concreta di cosa sia possibile fare già oggi con strumenti alla portata di tutti i video ci arriva dalla nuova versione di Character Animator, il programma della suite Creative Cloud per la creazione di animazioni 2D. Nella nuova release, appena presentata alla fiera del Broadcasting di Amsterdam (IBC), spicca infatti una nuova funzione che permette di animare un personaggio animato attraverso la mappatura in tempo reale di un volto catturato da una comune webcam.

L’intelligenza artificiale e i sistemi di machine learning, ci spiegano i responsabili della società americana, sono in grado di costruire un modello virtuale partendo dall’analisi di un volto in carne ed ossa e trasferire i movimenti al personaggio creato in grafica. Il tutto, ovviamente, tenendo conto delle espressioni, labiali compresi.

Questo video fa capire in modo molto chiaro cos’è possibile fare partendo dal proprio volto e del materiale grafico di corredo.

Movimenti e audio usano l'intelligenza

Per gli amanti dell'animazione le semplificazioni riguardano tutte le dimamiche di movimento, non solo quelle del volto.

Adobe ha mostrato in particolare cosa è possibile fare con i nuovi strumenti Mesh Sculpting introdotti nella nuova versione di After Effects: la possibilità di ruotare, piegare e scalare le sagome e dare vita alle immagini, come si può vedere in questo secondo video, gode ormai di un elevato livello di semplificazione.

Il beneficio dell'intelligenza artificiale si estende anche alla parte audio del montaggio. Che proprio grazie all'uso di algoritmi adattivi può pulire una traccia ma anche comporre o rimuovere il rumore di fondo e il riverbero in modo quasi del tutto automatico. 

L'invito di Adobe è a provare le opzioni DeNoise e DeReverb presenti all’interno del pannello Essential Sound di Premier Pro per toccare con mano - o meglio, con orecchio - il miglioramento istantaneo del sonoro. 

Per saperne di più

I più letti

avatar-icon

Roberto Catania

Faccio a pezzi il Web e le nuove tecnologie. Ma coi guanti di velluto

Read More