Frame rate e tempo d’esposizione: storia, consigli ed errori da evitare nel video

Leggi questo articolo grazie alle donazioni di Maurizio Chiarotto, Eric Festa, Enrico Contri, Nardi Luigi Filippo, Simone Pignatti, Maurizio Bergo, Alberto Zamboni.
♥ Partecipa anche tu alle donazioni: sostieni SaggiaMente, sostieni le tue passioni!

Quando scattiamo delle foto ogni parametro scelto ha degli effetti specifici sul risultato finale. Uno dei tre valori di quella che viene comunemente definita “triade” si può interpretare a senso unico, nel senso che abbiamo solo vantaggi ad andare in una direzione. Mi riferisco alla sensibilità, o ISO, che quando incrementata con il guadagno introduce il famigerato “rumore digitale”. Per quanto possibile, dunque, si proverà sempre a tenerlo verso il valore più basso della scala, che in genere è di 50, 100 o 200 ISO a seconda dei modelli. Diverso è il discorso per l’apertura, in quanto la sua variazione (in un senso o nell’altro) ha degli effetti sulla fotografia che hanno anche una valenza artistica. L’esempio più banale è quello relativo alla profondità di campo (PdC): più aumentiamo l’apertura (ovvero selezioniamo un valore di f/ basso) più si ridurrà l’area a fuoco. In fotografia è difficile parlare di regole, perché esistono ma vanno anche violate, tuttavia fotografare un paesaggio con una ridotta PdC in genere non è una buona idea, mentre se si vuole dar risalto ad un soggetto rispetto allo sfondo (penso ad un ritratto o al dettaglio di un prodotto) avere tutto a fuoco ci allontana dal risultato ottimale. Diciamo che questi due elementi sono abbastanza più facili da metabolizzare e comprendere, mentre il tempo di scatto ha delle implicazioni un po’ meno immediate.

Tutti capiscono facilmente che se l’esposizione è troppo lunga si otterranno delle foto mosse, che sia per il movimento del soggetto o della nostra mano, per cui potrebbe sembrare una logica conseguenza quella di utilizzare il tempo più veloce possibile, in ogni caso. In realtà in fotografia è “più o meno” così, almeno se si escludono le circostanze in cui la luce ridotta non ce lo consenta oppure si voglia deliberatamente ottenere un risultato diverso. Penso ad esempio alla possibilità di scegliere lunghe esposizioni con poca luce per non alzare troppo gli ISO oppure per ottenere il famoso effetto seta sull’acqua, la scia di una macchina, di una luce, di una cascata. Quindi il tempo è un elemento che ha sia una valenza meramente tecnica – più veloce per non avere il mosso, più lento per compensare la carenza di luce – che una artistica – a seconda dell’effetto che si vuole ottenere. Nel campo video, però, le cose sono ben più complicate.

Triade fotografica in pillole
Parametro Valori bassi (meno luce) Valori alti (più luce)
Sensibilità es. ISO 100 Immagine più pulita es. ISO 6400 Crescente rumore digitale
Apertura es. f/22 Maggiore area a fuoco es. f/1,4 Minore area a fuoco
Otturatore es. 1/500 Congela l’azione es 1″ Rischio mosso

La magia dei 24 fps

Un filmato è una sequenza d’immagini, registrate e riprodotte con una velocità tale che l’occhio umano non riesce a percepirle singolarmente e, dunque, le interpreta come un flusso continuo in movimento. Nella storia si sono sperimentate diverse frequenze di fotogrammi e, poco prima della nascita del cinema sonoro, coesistevano principalmente sale a 22 e 26 fps, poiché le variazioni di velocità venivano considerate tollerabili. L’introduzione dell’audio richiese invece uno standard e lo si stabilì effettuando una media tra quelli più diffusi dell’epoca. Così nacque quel numero di 24 fps che oggi consideriamo quasi magico.

Le sperimentazioni non sono mai terminate e con l’avanzamento tecnologico è stato possibile arrivare a risultati iper-realistici ad alto frame rate, ma l’immagine cinematografica per eccellenza è ancora quella ottenuta con i vecchi, canonici, 24 fps. Una cosa fondamentale da capire è che la frequenza di produzione e quella di riproduzione non sono la stessa cosa.

Ad esempio nei cartoni animati frame-by-frame erano frequenti i 12 o 15 fps, che poi venivano virtualmente aumentati esponendo lo stesso fotogramma più volte. Lo stesso principio si utilizza ancora oggi nella stop-motion: ad esempio si dice tecnica a passo due quando ogni quadro viene mostrato due volte per conformarsi alla frequenza di riproduzione. In questo modo si mantiene l’audio alla giusta velocità, ma ovviamene il video rimane visibilmente “scattoso” (effetto che oggi viene talvolta ricercato nell’animazione al computer quando si vuole simulare la stop-motion).

Nell’animazione frame-by-frame o stop-motion spesso si mostrava 2 volte lo stesso frame

Chiarito questo primo punto, facciamo un rapido salto in avanti nell’era moderna, in cui il digitale ha ormai preso il sopravvento anche nel video. Alcuni registi famosi spingono per l’uso della pellicola, ritenendola parte integrante della magia del cinema, ma le fasi di post-produzione (montaggio, vfx, color, mastering) vengono comunque effettuate al computer. Sempre tramite il computer oggi vengono inviati i “file” dei film nelle sale cinematografiche, dotate chiaramente di proiettori digitali. Questi – così come i TV o gli smartphone – hanno capacità generalmente superiori rispetto al frame rate nativo dei contenuti e vi si adattano dinamicamente, a volte solo con il software altre grazie all’elettronica. Il primo caso è il più comune e succede quando si riproduce un contenuto con differente frequenza rispetto quella dello schermo, il secondo si verifica quando quest’ultimo ha la possibilità di cambiare il suo refresh rate per allinearsi a quello del filmato. Non temete, a breve ci ritorneremo per spiegarlo meglio.

Sistemi televisi e rete elettrica

Molti di voi conosceranno già le sigle PAL ed NTSC che identificano i due principali sistemi televisivi. Questi sono direttamente correlati alla frequenza elettrica dei vari paesi e in Italia si utilizza il PAL/50 Hz. Invece nel nord America e in alcuni altri territori l’energia viene distribuita con una frequenza di 60 Hz, correlata al sistema televisivo NTSC. Per quanto la televisione tradizionale sia oggi sempre meno rilevante, la distinzione rimane importante da conoscere per non compiere errori in fase di registrazione. Il PAL parte da 25 fotogrammi al secondo e procede per multipli, quindi 50, 100, ecc.. NTSC parte da 30 e i suoi multipli saranno dunque 60, 120, ecc.. Per necessità di sintesi devo sorvolare su tante altre cose, come la scansione progressiva/interlacciata, le portanti dei segnali video, l’interpolazione, il pulldown, ecc.. perché altrimenti non arriveremo mai al punto prefissato.

I sistemi televisivi PAL/50Hz e NTSC/60Hz solo in parte collegati alla frequenza di distribuzione della corrente elettrica nei vari paesi. Image from suntransformer

La cosa che in questo momento ci interessa è che la maggior parte delle fotocamere e cineprese danno la possibilità di selezionare entrambe le modalità operative e alcune offrono anche i 24 fps. Tenendo sempre a mente il fatto che la frequenza di registrazione e quella di refresh dello schermo non sono la stessa cosa, va aggiunto un altro dato fondamentale, ovvero che il principale strumento di fruizione dei contenuti video non è più il televisore bensì la sommatoria di smartphone, tablet e computer, i cui i segnali video vengono solitamente veicolati a 30 o 60Hz. Sui TV e i proiettori di alta fascia, l’elettronica è generalmente capace di cambiare il refresh rate in base al contenuto, ma se abbiamo di fronte un computer con un monitor UHD @ 60 Hz e guardiamo un filmato a 25/50 fps non vi sarà una perfetta corrispondenza e il flusso video apparirà meno fluido. Per quanto detto finora sembrerebbe una buona idea girare in NTSC anche in Italia a meno di non dover produrre contenuti per la televisione, ma non è così.

Ci sono almeno un paio di possibili controindicazioni da considerare e che ci possono portare comunque a girare in PAL. La prima è che le maggior parte delle luci alimentate dalla rete elettrica brillano alla sua stessa frequenza, quindi girando a 30 o 60 fps in Italia, dove la corrente viaggia a 50 Hz, si può incorrere nel fenomeno del flickering (termine che identifica lo sfarfallamento delle luci artificiali nei filmati). Alcune fotocamere e cineprese moderne dispongono di funzionalità anti-flickering, ma per la qualità e certezza dei risultati è sempre meglio evitare di “incrociare i flussi” (cit.). Il secondo è che se il contenuto dovrà essere veicolato anche su disco, in formato BluRay, masterizzandolo in NTSC molti lettori potrebbero non accettarlo per via delle limitazioni regionali. Non conosco personalmente altre controindicazioni evidenti dovute alla registrazione in NTSC in Italia, ma se qualcuno volesse aggiungerne mi faccia sapere nei commenti.

Per chi è agli inizi: sul sito RED c’è un tool che data l’area e il frame rate suggerisce i tempi flicker-free

Precisazione riguardo al flickering: si deve considerare che non tutte le sorgenti luminose sono uguali. Le luci ad incandescenza, quelle a LED o i neon si possono comportare diversamente in base alla loro provenienza, qualità ed elettronica (ove presente). Per cui in una stanza con luci miste potreste anche averne alcune stabili ed altre no con le medesime impostazioni.

Che fine hanno fatto i miei 24 fps?

Non tutte le fotocamere registrano video a 24 fps ed alcune mostrano l’opzione solo passando ad NTSC, mentre sparisce utilizzando il PAL. Personalmente la ritengo una fastidiosa limitazione (succede ad esempio nelle Sony) ma è anche vero che la differenza visiva tra 24 e 25 fps la nota solo un professionista con l’occhio molto allenato, mentre quella rispetto a 30 fps è vistosa. Quindi per chi utilizza NTSC i 24 fps sono strettamente necessari per ottenere un look più cinematografico, mentre partendo dai 25 fps del PAL ci si arriva già molto vicini. Tuttavia questo ragionamento può valere fintanto che si considerano fotocamere che girano video (e neanche tanto) ma non di certo per le cineprese o per usi professionali. I 24 fps hanno infatti diversi vantaggi, dal momento che possono essere riprodotti ottimamente anche su NTSC con il pulldown, sono meglio digeriti dai servizi di video sharing online (perché alla fine sono tutti americani) e, non da ultimo, sono necessari per lavori destinati al cinema.

Trailer in HFR 48 fps di The Hobbit: An Unexpected Journey

L’estetica del frame rate

Il Cinema viene definito settima Arte e, come tale, ha i suoi linguaggi espressivi e la sua estetica. Nulla è immutabile, ma non è neanche detto che si debba cambiare per forza. Il miglioramento della qualità visiva nell’ultimo decennio c’è stato ed è incredibile, però i tentativi di snaturarlo sono sempre falliti. Penso ad esempio al 3D, iniziato come un una nuova promessa ed ora sparito dai TV e molto ridotto anche nelle sale, oppure alla scarso apprezzamento per i 48 fps (HFR) di “The Hobbit” di Peter Jackson. Non dico che si debba ritornare al bianco e nero, dopotutto a me il 3D piace ancora oggi nel giusto film e sull’IMAX ho sentito un gran bene, anche se non ho potuto provarlo visto che non esiste nessuna sala dalle mie parti. Di base, però, appoggio l’idea che il Cinema debba mantenere la sua estetica fondamentale e che le evoluzioni vadano bene fintanto che non trasformano quel mondo così immaginifico in una fredda riproduzione della realtà, per quanto tecnicamente evoluta ed iper-realistica. Potrei accettarlo, come faccio per il 3D, per un certo tipo di contenuti, ma il Cinema, quello vero, deve mantenere le sue connotazioni, quelle che ce lo rendono istintivamente familiare. Anche chi non ha nozioni tecniche riesce a riconoscere la scena di un film da una tratta dal telegiornale, e una grande parte di questa magia si trova proprio nei 24 fps. Il frame rate è fondamentale per ottenere il famoso “look cinematografico” e, se è quello che si vuole ottenere, si devono preferire i 24 fps o, se non disponibili, i 25 fps. Ci sono però situazioni in cui è utile girare anche 50 fps, ad esempio per poter effettuare un rallentamento al computer, uscendo sempre a 25 fps ma con il 50% della velocità ed utilizzando solo frame reali. Se infatti giriamo a 25 fps lo slow motion che si potrà realizzare in post-produzione sarà ottenuto dal software creando fotogrammi interpolati tra ogni coppia di adiacenti, con risultati magari accettabili ma non certo ottimali.

Quando sfocato è meglio di nitido

A questo punto ritorna in gioco il tempo di posa, che nel video incide sostanzialmente allo stesso modo che in fotografia ma con risvolti completamente diversi. Esiste una regoletta che molti film maker imparano, ma vorrei arrivarci per gradi in modo da capire da cosa deriva e quando violarla. Ipotizziamo per questo esempio di utilizzare un frame rate da 25 fps, così da rendere più chiari i calcoli. Come si è già detto, questo significa che il filmato avrà 25 immagini per ogni secondo, composte in sequenza per ottenere l’illusione di un movimento fluido. La scena è quella di una ballerina che sta facendo un passo di danza e vogliamo fotografarla. La cosa più logica sarebbe quella di impostare un tempo relativamente veloce, diciamo uguale o superiore ad 1/200, in modo da fermare l’azione ed avere tutto perfettamente nitido. In uno scatto fotografico questa è la soluzione canonica, anche se non mancano le eccezioni derivanti da scelte artistiche o personali. Ad esempio si potrebbe decidere di mostrare l’intero movimento con una lunga esposizione e poi congelare l’ultimo istante con un flash, tanto per dirne una. Ma rimaniamo nell’ipotesi più tradizionale: soggetto in movimento con una fotografia che lo congela. Se dovessimo girare un video della stessa scena ed utilizzassimo lo stesso tempo di posa, avremmo 25 fotogrammi in sequenza, ognuno catturato a 1/200 e, dunque, perfettamente nitido. Il problema di questa scelta è che non ci sarà un legante tra le immagini e, per quanto il movimento sarà evidente, risulterà robotico, scattoso, tutt’altro che fluido.

Riproduzione rallentata per poter apprezzare il motion blur

Facciamo un esempio ancora più semplice così da capirne il motivo. Una persona ferma, seduta, ci fa un cenno di saluto scuotendo la mano da sinistra e destra. Questa persona siamo noi: fatelo di fronte allo specchio e ditemi se vedete distintamente la mano in ogni singolo istante durante il suo movimento. Vi do il tempo di provare ma la risposta certa è: no. Così come nella visione consecutiva dei fotogrammi, il cervello non è in grado di processare tutti i “fermo immagine” che servono per seguire anche il banale movimento di una mano che saluta, dunque la vedremo leggermente sfocata mentre passa da A a B, come se avesse una sorta di scia. Non a caso la “scia” viene utilizzata da sempre nei fumetti, così come negli effetti speciali dei film, per restituire l’impressione della velocità. Ritornando al passo di danza della ballerina, con 25 fotogrammi al secondo il tempo ideale dell’otturatore è di 1/50: ma perché? Ancora una volta ci viene in aiuto la storia del mezzo che vogliamo emulare: il Cinema. L’otturatore delle cineprese a pellicola era tipicamente di forma semicircolare, simile ad un goniometro, e per questo lo si definisce a 180° (ne esistono anche diversi, ma non ci complichiamo la vita). Impostando una rotazione di 24 volte al secondo (ovvero 24 fps o 1″/24) una metà del tempo la pellicola era esposta mentre nell’altra metà era coperta e, in quel momento, il meccanismo trainava avanti la pellicola sul successivo fotogramma. Partendo da 1/24 si otteneva dunque un’esposizione di 1/48 (la metà, così come 180° sono la metà del disco completo) ed è proprio questo rapporto che ci consente di emulare quel risultato visivo. Infatti è così che si ottiene il motion blur – ovvero l’effetto scia che rende fluidi i movimenti – nella stessa quantità che siamo abituati a vedere nelle riprese cinematografiche.

Semplificazione del funzionamento dell’otturatore a 180° su pellicola

Le minime variazioni influiscono poco, per cui si può usare il tempo di 1/50 sia quando si gira a 25 fps che quando si gira a 24. Alcune fotocamere e cineprese offrono anche la possibilità di lavorare in gradi, come ad esempio la GH5, per cui si potrà impostare direttamente 180° e lei si regolerà di conseguenza in modo del tutto automatico. In realtà è difficile percepire variazioni anche leggermente superiori, per cui utilizzando 1/60 a 25 fps il risultato sul movimento è comunque buono, ma si può incorrere sempre nel flickering se si gira in Italia con luci a 50 Hz, dunque è meglio rimanere su 1/50 o suoi multipli. Al di sotto è generalmente meglio evitare, in quanto il motion blur sarà vistoso e innaturale, ma può anche succedere di ricercare proprio questo effetto in alcuni (rari) casi. L’utilizzo di tempi più rapidi è invece piuttosto frequente al cinema, ma soltanto per accentuare le scene di inseguimento, lotta o azione, poiché unendo quell’effetto “scattoso” a movimenti di camera rapidi, tutto appare più rapido e frenetico.

Esempio di flickering

Un altro appunto da fare riguarda i frame rate più elevati usati per lo slow motion. Diciamo di girare a 50 fps per poi ridurre la velocità del 50%. Se ci basassimo sulla regola appena espressa dovremmo usare un tempo di esposizione dimezzato rispetto ad 1/50, dunque 1/100. Questo dato ci darebbe il giusto motion blur per la riproduzione a 1x di 50 fotogrammi al secondo, ma dal momento che sappiamo di dover rallentare a 0.5x il frame rate ritornerà a 25 fps ma l’estetica del motion blur rimarrà comunque vincolata a quanto catturato in ogni singola immagine della ripresa e, dunque, apparirà meno fluida. Come se avessimo girato ad 1/100 con 25 fps. Ho fatto questo esempio per sottolineare il fatto che imparare le regole, spesso, non basta. Comprendendo le logiche si riesce a far fronte anche alle varie eccezioni che si possono presentare, tuttavia il tempo di posa nel video segue dei principi così ferrei che si può quasi considerare come un parametro fisso. Nella maggior parte dei casi sarà infatti di 1/50, ma nelle riprese VFR (Variable Frame Rate) può sopraggiungere un ulteriore limite. Registrando ad esempio una sequenza a 100 fps ci sarà la necessità di avere 100 fotogrammi in un solo secondo e dunque ognuno di essi non potrà avere un’esposizione più lenta di 1/100, semplicemente perché non ci sarebbe il tempo materiale per farlo.

Tornando alla condizione tipica più frequente, rimane un grosso problema da risolvere: se il tempo dell’otturatore è fisso a 1/50 e l’apertura dell’obiettivo è definita per scelta artistica, come facciamo ad esporre correttamente una scena luminosa (ad esempio di giorno all’aperto) quando anche alla sensibilità ISO minima otteniamo un’immagine sovraesposta di diversi stop? Perché potremmo chiudere il diaframma, ma magari non vogliamo aumentare la profondità di campo per mantenere lo stacco dei piani o il bokeh, e potremmo velocizzare il tempo di posa, ma abbiamo capito che rovina la fluidità dei movimenti ottenendo un effetto quasi stroboscopico e decisamente non cinematografico. La risposta in realtà è semplice: bisogna ridurre la luce. In un ambiente controllato è possibile ma come si fa all’aperto? Non possiamo mica spegnere il sole! Un po’ di esperienza ci può aiutare, poiché si può cercare una zona in ombra oppure programmare le riprese prima del tramonto, quando la luce è bassa. Ma se dobbiamo ad esempio usare un obiettivo luminoso ad f/1,4, anche il sole del tardo pomeriggio può essere eccessivo avendo l’esposizione fissa ad 1/50.

Il filtro NISI ND-VARIO con assorbimento variabile da 1,5 a 5 stop

L’alternativa dal punto di vista tecnologico è quella di utilizzare un filtro ND (Neutral Density) che andrà a ridurre la luce che arriva sul sensore, un po’ come fanno gli occhiali da sole per i nostri occhi. Questi si possono genericamente applicare nella parte frontale di un obiettivo, con i filtri a vite o a lastra, oppure alla base dello stesso se è previsto uno slot porta filtri. Ma esistono anche quelli inclusi nel corpo delle fotocamere (più spesso cineprese) che si trovano tra il sensore e l’inesto dell’obiettivo (come ad esempio nella Canon C100 Mark II), nonché quelli realizzati elettronicamente (lo fa ad esempio la Sony FS5). Gli ND qualitativamente migliori nella resa sono quelli con un livello di assorbimento fisso: se riducono 2 stop di luminosità vengono definiti 4x, se ne riducono 3 si chiamano 8x e così via. Il problema di questi è che alla minima variazione di luce può essere necessario sostituirli per compensare, quindi ne servono diversi e si deve considerare anche la scomodità ed il tempo necessario per cambiarli di volta in volta. In fotografia sono comunque preferibili per la migliore qualità, però nel video può anche capitare che la luci cambi mentre si gira e si deve poter correggere l’esposizione in tempo reale. Ecco perché si utilizzano spesso i filtri ND Variabili, in cui la rotazione di due polarizzatori circolari sovrapposti consente di ottenere un effetto simile ma controllabile nell’intensità, aumentando o riducendo il fattore di assorbimento della luce un semplice gesto. Questo tipo di filtri può consentire di scurire in modo fluido (quindi senza scatti) da un minimo di 1 stop ad un massimo di 8, anche se già dopo i 5 di solito si inizia ad intravedere una classica forma ad X più scura sull’immagine, dovuta all’interferenza dei due polarizzatori. Almeno questo succede con quelli tradizionali che ho usato fino ad ora, come i Genustech. Da qualche tempo ho invece trovato il filtro NISI ND-VARIO che ha una particolare caratteristica, ovvero quella di andare solo da 1,5 a 5 stop di assorbimento, con un blocco meccanico a fine corsa, in modo da evitare il sopraggiungere di quel difetto. E la cosa è molto utile in quanto mentre ci si lavora, se la rotazione è libera, può capitare inavvertitamente di arrivare di superare il limite di sicurezza e danneggiare le riprese. Inoltre questo è l’unico filtro ND Variabile con trattamento Nano coating che riduce i riflessi e l’insorgenza di ulteriori problemi quali il flare/ghosting in controluce, oltre a rendere la superficie idrorepelente e oliorepellente (quindi si pulisce molto più facilmente).

Conclusioni (finalmente)

L’esperienza sul campo è certamente un’ottima alleata ed è quella che, in più occasioni, può salvare il vostro lavoro. Come ho detto all’inizio parlando della triade fotografica, che chiaramente vale anche per il video dato che sempre sulla fotografia si basa, le implicazioni relative all’apertura dell’obiettivo e la sensibilità ISO sono le più immediate da capire, mentre non viene solitamente data la stessa attenzione al frame rate ed al tempo di posa. Questo può portare ad errori ma soprattutto ci fa perdere il controllo su altri parametri creativi che influiscono sul risultato finale. Nella maggior parte dei casi il frame rate ed il tempo di posa si definisco a priori, prima ancor prima di iniziare girare, tuttavia gli imprevisti sul campo non mancano e può anche succedere di voler effettuare delle modifiche lì per lì per cambiare l’effetto finale di una ripresa. Quindi le regolette statiche vanno benissimo per iniziare ma è più importante conoscere il perché delle cose, in modo da poter effettuare scelte consapevoli con finalità creative. L’amico Stefano Brandolini è riuscito secondo me a sintetizzare bene il lavoro del film maker dicendomi che alla fine “fare video è un gigantesco problem solving continuo“. Meglio di così, non si può descrivere.

Maurizio Natali

Titolare e caporedattore di SaggiaMente, è "in rete" da quando ancora non c'era, con un BBS nell'era dei dinosauri informatici. Nel 2009 ha creato questo sito nel tempo libero, ma ora richiede più tempo di quanto ne abbia da offrire. Profondo sostenitore delle giornate di 36 ore, influencer di sé stesso e guru nella pausa pranzo, da anni si abbronza solo con la luce del monitor. Fotografo e videografo per lavoro e passione.