SOON

Tag: Pet

Marco Billardello
Il Cinema Digitale

[vc_row][vc_column][vc_column_text css=””]

Gestione del Look

I dailies (il girato giornaliero) ben corretti cromaticamente e con un look curato imprimono nella mente del regista, dei produttori, dello studio, dei montatori e di tutti i membri del team una chiara percezione dell’aspetto visivo desiderato per il progetto. Questo rappresenta un passaggio fondamentale per ottenere un risultato finale che rispecchi fedelmente la visione del direttore della fotografia.

Una volta che il team creativo si abitua al look dei dailies, modificarlo successivamente diventa spesso molto difficile. Non è raro che il direttore della fotografia non sia presente o non venga coinvolto nella sessione finale di color grading: per questo motivo, curare attentamente la gestione del look durante la produzione è il modo migliore per garantire che l’aspetto finale delle immagini corrisponda alla visione originale.

La Situazione Attuale

I “giorni difficili” legati all’invenzione e allo sviluppo delle prime cineprese digitali sono ormai alle spalle. Abbiamo superato una fase di transizione ed è iniziata l’era matura della cinematografia digitale. Il periodo pionieristico, caratterizzato dai rischi tipici degli “early adopter” (i primi utilizzatori di nuove tecnologie), è terminato: oggi le cineprese digitali dotate di sensore CMOS con pattern Bayer a chip singolo dominano il mercato cinematografico.

Gli strumenti della cinematografia digitale sono ormai da tempo nelle mani dei professionisti e hanno avuto modo di maturare ed evolversi.

La buona notizia è che da questo punto in poi possono solo migliorare. Oggi questi strumenti non solo eguagliano le potenzialità che offriva la pellicola, ma in alcuni aspetti superano persino le sue capacità di riproduzione dell’immagine. Questo progresso comporta anche una responsabilità: è fondamentale formarci adeguatamente per padroneggiare l’uso quotidiano di questi strumenti professionali.

 

Come Funzionano le Cineprese Digitali

La cinematografia è l’arte di catturare, registrare e manipolare immagini in movimento, sia su pellicola che tramite sensori digitali.

Il cuore di questa disciplina consiste nel saper bilanciare la gamma tonale delle scene inquadrate davanti all’obiettivo con la capacità di registrazione del supporto sensibile (pellicola o sensore) posto dietro l’obiettivo. L’obiettivo è catturare e registrare quella gamma tonale in modo artisticamente efficace.

La Risposta Visiva Umana alla Luce

Il modo in cui i nostri occhi percepiscono l’intensità luminosa non è lineare. L’occhio umano è capace di adattarsi a una gamma straordinariamente ampia di intensità luminose: la sorgente più luminosa che possiamo tollerare è oltre dieci miliardi di volte più intensa della sorgente più debole che riusciamo a percepire. Tuttavia, la nostra percezione della luce funziona in modo simile a come la pellicola negativa registra la luce.

Sia la visione umana che la pellicola negativa rispondono al raddoppio (o al dimezzamento) dell’intensità luminosa percependolo come una variazione di circa uno stop nella luminosità.

Entrambi i sistemi – la visione umana e l’esposizione dei cristalli di alogenuro d’argento nell’emulsione fotografica – seguono un comportamento non lineare che può essere descritto approssimativamente attraverso una funzione logaritmica o una legge di potenza. Lo psicofisico Stanley Smith Stevens, studiando le leggi psicofisiche dell’intensità luminosa, ha dimostrato che la risposta visiva umana alla luminosità segue effettivamente una funzione molto simile a quella logaritmica.

[/vc_column_text][vc_single_image image=”4834″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

  • 1-bit color significa acceso/spento, quindi solo due toni: bianco e nero
  • 10-bit color significa 2 elevato alla decima potenza, cioè 2¹⁰ = 1024 tonalità per ciascun colore (rosso, verde e blu)

Dei 1024 valori disponibili nella codifica a 10 bit, i 4 valori più alti e i 4 più bassi sono riservati per altri scopi tecnici. Quindi, in pratica, il colore RGB a 30 bit (10 bit per canale) offre circa 1015 valori per il rosso, 1015 per il verde e 1015 per il blu, per un totale di oltre un miliardo di possibili sfumature di colore (1.045.678.375 per la precisione).

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

  • 1-bit color significa acceso/spento, quindi una coppia binaria di toni: bianco/nero.

  • 10-bit color significa 2 alla decima potenza, cioè 2¹⁰ = 1024 tonalità per ciascun colore (rosso, verde e blu).

Dei 1024 valori disponibili nella codifica a 10 bit, i 4 valori più alti e i 4 più bassi vengono riservati ad altri dati. Quindi, approssimativamente, il colore RGB a 30 bit offre 1015 valori per il rosso, 1015 per il verde e 1015 per il blu, che equivalgono a 1.045.678.375 possibili sfumature di colore.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

A ciascun fotosito viene assegnato un valore numerico digitale che indica l’intensità tonale per il rosso, il verde o il blu. Il numero totale di valori tonali disponibili è chiamato profondità in bit del colore (color bit depth). Maggiore è la profondità in bit, più numerosi sono i valori tonali disponibili e quindi minori sono le differenze di colore appena percettibili.

Nel cinema digitale, la profondità in bit indica il numero di bit digitali utilizzati per codificare ciascun componente di colore di un singolo pixel. Un bit è una cifra binaria che può assumere uno di due stati, comunemente rappresentati come 0/1, vero/falso, sì/no, +/− oppure acceso/spento. Ad esempio:

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_separator color=”custom” style=”shadow” border_width=”5″ css=”” accent_color=”#000000″][vc_single_image image=”4846″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Come i Sensori Catturano la Luce

Per oltre cent’anni, la pellicola fotografica ha utilizzato minuscoli cristalli fotosensibili di alogenuro d’argento per registrare le immagini. Quando questi cristalli venivano esposti alla luce e poi sviluppati chimicamente, si trasformavano in argento metallico scuro, creando le aree più scure del negativo. In pratica: più luce ricevevano, più scuri diventavano.

I sensori digitali funzionano in modo diverso ma con un principio simile. Utilizzano milioni di microscopici componenti elettronici chiamati fotodiodi – dei veri e propri “collettori di luce” in silicio. Quando la luce li colpisce, questi fotodiodi permettono agli elettroni di accumularsi, generando una carica elettrica. La fotocamera misura questa carica una volta per ogni fotogramma, poi la scarica e azzera il contatore, pronta per il fotogramma successivo.

[/vc_column_text][vc_single_image image=”4835″ img_size=”full” css=””][vc_column_text css=””]

La Griglia del Sensore

Un sensore digitale è costituito da una griglia ordinata di fotodiodi disposti in righe e colonne, come una scacchiera microscopica. Ogni fotodiodo accumula carica elettrica mentre i raggi luminosi provenienti dall’obiettivo formano un’immagine sulla superficie del sensore.

Per capire meglio questo meccanismo, possiamo pensare all’elettricità statica che si accumula quando camminiamo su un tappeto con le scarpe da ginnastica in una giornata secca: più camminiamo, più carica accumuliamo. Allo stesso modo, più luce colpisce un fotodiodo, maggiore sarà la carica elettrica accumulata; con meno luce, la carica sarà minore.

Photosites e Sensels: I Mattoncini dell’Immagine Digitale

Nel linguaggio tecnico dell’imaging digitale, ogni singolo fotodiodo viene chiamato photosite (sito fotografico), mentre il segnale elettrico che genera è detto sensel (elemento sensore). I sensori delle fotocamere moderne contengono migliaia di righe e colonne di photosites che lavorano come microscopici raccoglitori di luce indipendenti, convertendo la luce in segnale elettrico, photosite per photosite, fotogramma per fotogramma. Questa griglia ordinata di photosites è chiamata raster.

C’è però un limite importante: questi photosites non sono in grado di distinguere autonomamente i colori. Possono solo misurare l’intensità (cioè la quantità) di luce che li colpisce e convertirla in un segnale elettrico. Per ottenere informazioni sui colori, è necessario dotarli di un meccanismo aggiuntivo. Approfondiremo questo aspetto più avanti nel capitolo.

K e Risoluzione: Attenzione alle Etichette

Quando un produttore dichiara che una fotocamera è “4K”, si riferisce al numero di photosites presenti lungo la dimensione orizzontale del sensore. La “K” sta per migliaia (dal prefisso “kilo”): una fotocamera 4K ha quindi almeno 4.096 photosites in orizzontale.

Tuttavia, attenzione: il numero di photosites non corrisponde necessariamente alla risoluzione effettiva delle immagini prodotte dalla fotocamera. Come vedremo nel prossimo capitolo, i photosites non sono la stessa cosa dei pixel dell’immagine finale.

[/vc_column_text][vc_single_image image=”4836″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Conversione da Analogico a Digitale (A/D)

Durante il processo di conversione analogico-digitale (A/D), la carica elettrica accumulata in ciascun fotosito viene trasformata in codice binario tramite un circuito di campionamento. Nelle immagini digitali, ogni fotosito è rappresentato da un valore numerico discreto che rimane costante per l’intera durata del fotogramma.

Il processo che trasforma le cariche elettriche dei fotositi in valori numerici è chiamato quantizzazione. Al termine di ogni fotogramma, la carica di ciascun fotosito viene trasferita al convertitore analogico-digitale. Il valore numerico risultante, chiamato campione, rappresenta la quantità di carica accumulata durante il tempo di esposizione. Essendo valori numerici, questi campioni possono essere archiviati nella memoria del computer e salvati su disco come dati digitali.

Codifica della Luminanza in Valori Numerici

Il sensore risponde alla luce in modo lineare: con il doppio della luce si ottiene il doppio della carica elettrica, con metà della luce si ottiene metà della carica. Tuttavia, se assegniamo valori numerici lineari a queste cariche lineari, emergono rapidamente dei problemi.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4838″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]La Figura sotto mostra un sistema di codifica lineare in cui la luminosità della scena viene misurata su una scala da 0 a 1 (dove 0 rappresenta il nero totale e 1 il bianco massimo). In questo schema, ogni valore di luminosità viene convertito direttamente in un numero digitale seguendo una relazione proporzionale: se la luce raddoppia, raddoppia anche il valore digitale[/vc_column_text][vc_single_image image=”4840″ img_size=”full” css=””][vc_column_text css=””]

Il problema della codifica lineare

L’intervallo di luminanza della scena che va da 1 a 0,5 rappresenta una differenza di uno stop, cioè un dimezzamento della luce (fattore 2). In uno schema di codifica lineare a 10 bit, questo intervallo corrisponde ai valori da 1024 a 512, il che significa che allo stop più luminoso vengono assegnati 512 valori di codice discreti. Scendendo da 0,5 a 0,25 di luminanza abbiamo ancora uno stop, ma qui sono disponibili solo 256 valori di codice (da 512 a 256). Nell’intervallo successivo, da 0,25 a 0,125, abbiamo di nuovo uno stop ma con soli 128 valori disponibili (da 256 a 128). Continuando, da 0,125 a 0,0625 troviamo ancora uno stop con appena 64 valori di codice (da 128 a 64). Il quinto stop sotto 1 dispone di 32 valori, il sesto di 16, il settimo di 8, l’ottavo di 4, il nono di 2, e il decimo stop può essere rappresentato con un unico valore di codice.

Il problema è evidente: con uno schema lineare diretto avremmo valori più che sufficienti per rappresentare il primo stoppiù luminoso, ma valori insufficienti per le zone più scure della curva di esposizione. Nella codifica lineare, infatti, più la luminanza è bassa, minore è il numero di valori disponibili per rappresentarla.

Proprio per questa ragione non utilizziamo uno schema lineare per codificare immagini a 10 bit. Il difetto principale di questo approccio è che, mentre lo stop più luminoso dispone di valori abbondanti, gli ultimi sei stop ricevono troppo pochi valori per essere riprodotti con accuratezza. Questo significa che dobbiamo distribuire i valori di codice disponibili in modo molto più attento e appropriato per ogni stop di luce, in modo da utilizzare i bit disponibili in maniera più efficiente.

Dato che la percezione visiva umana della luminosità segue una funzione logaritmica o di potenza, è più sensato codificare le immagini digitali provenienti dai sensori utilizzando proprio una funzione logaritmica o di potenza. In questo modo la codifica si adatta meglio al modo in cui l’occhio umano percepisce realmente la luce.

[/vc_column_text][vc_column_text css=””]

La “Just Noticeable Difference” (JND) e la “Square Root Integral” (SQRI)

Quanti valori di codice (cioè quanti passaggi discreti di luminanza digitale) sono necessari per garantire che la quantizzazione non sia mai visibile in un’immagine lungo l’intero intervallo dinamico della videocamera? La risposta dipende dalla sensibilità del sistema visivo umano al contrasto, che è limitata. Se due livelli di grigio sono sufficientemente vicini in luminanza, la differenza diventa indistinguibile per l’occhio umano. Inoltre, la capacità di distinguere differenze tonali varia lungo l’intervallo che va dai toni scuri ai toni chiari.

Numerose ricerche scientifiche hanno studiato quanti livelli di colore l’occhio umano possa effettivamente distinguere nelle immagini. La soglia di questa capacità è descritta dal concetto di Just Noticeable Difference (JND), ovvero “differenza appena percettibile”. Nelle immagini, una JND rappresenta la minima variazione di colore o tonalità necessaria affinché un osservatore umano percepisca una differenza tra due colori o tonalità adiacenti almeno la metà delle volte.

Questo concetto è fondamentale perché, se utilizziamo uno schema di codifica con meno valori di codice rispetto alle JND per ogni stop di luce, le sottili gradazioni di colore vengono percepite come bande distinte. Questo fenomeno, chiamato color banding o aliasing cromatico, riduce significativamente la fedeltà della riproduzione dell’immagine originale e compromette l’esperienza visiva. Il numero di JND per stop di luce varia in base al colore e alla luminanza: l’occhio è più tollerante verso differenze maggiori nei toni scuri rispetto ai toni chiari.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””] 

Come regola generale, uno schema di codifica dovrebbe prevedere circa 60–70 valori di codice per stop di luce nelle gamme tonali intermedie. La distribuzione ottimale dei valori per stop varia passando dai toni scuri (dove sono ammesse variazioni percentuali più ampie di contrasto) ai toni chiari (dove sono richieste variazioni percentuali molto più piccole). Questa distribuzione segue quella che viene definita Barten ramp.[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4843″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

A ciascun fotosito viene assegnato un valore numerico digitale che indica l’intensità tonale per il rosso, il verde o il blu. Il numero totale di valori tonali disponibili è chiamato profondità in bit del colore (color bit depth). Maggiore è la profondità in bit, più numerosi sono i valori tonali disponibili e quindi minori sono le differenze di colore appena percettibili.

Nel cinema digitale, la profondità in bit indica il numero di bit digitali utilizzati per codificare ciascun componente di colore di un singolo pixel. Un bit è una cifra binaria che può assumere uno di due stati, comunemente rappresentati come 0/1, vero/falso, sì/no, +/− oppure acceso/spento. Ad esempio:

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_separator color=”custom” border_width=”5″ css=”” accent_color=”#000000″][vc_single_image image=”4846″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Codifica Lineare vs. Gamma/Logaritmica

Gli ingegneri televisivi dei primi anni dovettero risolvere un problema importante: la differenza tra come l’occhio umano percepisce la luminosità e come i dispositivi di visualizzazione la riproducevano. Questo accadde molto prima dell’avvento del cinema digitale. I vecchi monitor televisivi a tubo catodico (CRT) convertivano il segnale video in luce in modo non lineare. In pratica, quando veniva inviato un segnale di grigio medio (valore 0,5), sullo schermo appariva un grigio molto più scuro, circa il 22% dell’intensità del bianco anziché il 50% atteso.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4848″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

La soluzione fu applicare al segnale una correzione matematica chiamata gamma, che compensa questa distorsione. La gamma è una funzione che regola il rapporto tra la luminanza codificata nel sistema e la luminanza effettiva che vogliamo vedere sullo schermo. Questa e altre funzioni simili, come le codifiche logaritmiche, vengono chiamate Opto-Electronic Transfer Functions (OETF), cioè funzioni di trasferimento optoelettroniche. La lettera greca gamma (γ) indica il fattore di correzione che permette di codificare la luce in modo efficiente per la registrazione e la distribuzione del video.

La gamma si manifesta visivamente come un cambiamento di contrasto. Modifica i valori tonali intermedi tra nero e bianco, mentre il nero puro (0,0) e il bianco puro (1,0) rimangono inalterati. Un valore gamma di 1 significa nessuna modifica; valori superiori a 1 aumentano il contrasto, mentre valori inferiori a 1 lo riducono.

La codifica gamma è un metodo non lineare utilizzato principalmente nel video RGB a 8 bit e a 10 bit per l’alta definizione (HDTV), come definito nello standard Rec. 709. In questo sistema, i valori RGB vengono codificati applicando un’elevazione a potenza di circa 0,45 alla luce lineare catturata dal sensore.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4850″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_column_text css=””]

Durante l’elaborazione delle immagini e nelle operazioni di post-produzione (come compositing ed effetti digitali), viene spesso applicata una funzione inversa (OETF⁻¹) che riconverte i dati nel formato lineare originale, necessario per calcoli corretti.

Infine, quando il segnale viene inviato al monitor o al proiettore, viene applicata un’Electro Optical Transfer Function (EOTF) – come gamma 2.2, gamma 2.4, gamma 2.6, Perceptual Quantizer (PQ) o Hybrid Log Gamma (HLG) – che bilancia la correzione applicata in fase di codifica. Il risultato è un sistema visivamente lineare da capo a fondo: il segnale viene deliberatamente “distorto” durante la registrazione con la gamma, in modo che quando viene “distorto” al contrario dal display, l’osservatore percepisca la scala tonale corretta.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Raccomandazione ITU-R BT.709

La raccomandazione ITU-R BT.709 definisce una funzione di trasferimento per la codifica gamma dei segnali delle videocamere in alta definizione (HDTV). La funzione matematica gamma del Rec.709, con γ = 0,45, utilizza una combinazione intelligente: nei valori vicini allo zero usa una retta inclinata che si fonde gradualmente in una funzione di potenza, creando una curva con pendenza continua e senza salti.

Livelli di tensione nei segnali video HD

Nei segnali video HD, quando un fotosito viene esposto a un bianco diffuso al 100%, produce una tensione di uscita di 714 mV, che nel linguaggio tecnico video corrisponde a 100 IRE. Il segnale può spingersi fino al 109% di bianco (sovraesposizione), raggiungendo 785 mV o 109 IRE. Il livello del nero è fissato a 53,57 mV, pari a 7,5 IRE. (IRE è un’unità di misura dei segnali video compositi. Il nome deriva dall’Institute of Radio Engineers.)

Le diverse videocamere che implementano il Rec.709 producono risultati molto simili quando visualizzati su un monitor o con un oscilloscopio a forma d’onda. Le scale tonali in Rec.709 possono essere codificate in due intervalli differenti:

  • Legal range (intervallo legale): codifica la scala tonale dai valori 64 (parte bassa) a 940 (parte alta), lasciando un margine del –4% per la sottoesposizione e del +9% per la sovraesposizione.
  • Full range (o extended range, intervallo completo): codifica il segnale dai valori 4 (parte bassa) a 1019 (parte alta), riservando i bit 0–3 e 1020–1023 per i segnali di sincronizzazione video.

Problemi comuni e soluzioni

La differenza tra queste due codifiche Rec.709 genera spesso confusione quando si passa dall’una all’altra, o quando le impostazioni del monitor o proiettore non corrispondono al tipo di segnale ricevuto. Nella maggior parte dei casi, l’intervallo legal range è la scelta corretta per i livelli video. Una scelta sbagliata si nota subito osservando i neri:

  • Neri troppo scuri o “tagliati” (clipping) indicano che si sta visualizzando un segnale full range su un monitor impostato per legal range
  • Neri “sollevati” o grigiastri indicano che si sta visualizzando un segnale legal range su un monitor impostato per full range

La scelta tra Data Level (full range) e Video Level (legal range) dipende quasi sempre dal codec utilizzato per registrare o esportare, e il 90% dei codec è progettato per i livelli video legali (Video Levels). Alcuni sistemi di elaborazione utilizzano tutti i 1024 valori di codice colore disponibili durante il processing interno, ma questa codifica non è uno standard ufficiale per la trasmissione broadcast.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Codifica Logaritmica per la Pellicola

Il sistema Cineon fu creato da Eastman Kodak all’inizio degli anni ’90 per risolvere il problema della codifica efficiente della luce lineare nel cinema digitale. Cineon fu uno dei primi sistemi digitali cinematografici completi a 4K con codifica a 10 bit log, interamente basato su computer e gestito end-to-end (dall’acquisizione alla distribuzione). Il sistema era composto da tre elementi integrati: uno scanner per pellicola, una workstation digitale con il software Cineon per compositing, effetti visivi, restauro e gestione del colore, e un registratore di pellicola per riportare il contenuto su supporto filmico.

Già alla fine degli anni ’80, il sistema Cineon aveva sviluppato una codifica logaritmica specifica per la scansione della pellicola cinematografica. Questa curva di codifica log divenne il modello di riferimento per tutte le successive codifiche logaritmiche utilizzate nelle videocamere digitali moderne.

Il progetto Cineon portò anche alla creazione del formato file Cineon (.cin) a 10 bit log, progettato specificamente per gestire i fotogrammi digitalizzati della pellicola. Questo formato divenne la base del successivo standard SMPTE Digital Picture Exchange (.dpx). I file Cineon e i file DPX sono molto simili tra loro e vengono spesso usati in modo intercambiabile. Entrambi i formati includono intestazioni (header) contenenti metadati con informazioni sul file e sul suo utilizzo. Le intestazioni dei file DPX sono più flessibili e adattabili alle esigenze di diverse industrie, mentre il formato Cineon è più specificamente orientato al cinema su pellicola.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4853″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_column_text css=””]

Formato File Cineon/DPX a 10 Bit Log

In un file Cineon (.cin o .dpx), ciascun canale colore (rosso, verde, blu) viene codificato con 10 bit, utilizzando tipicamente un intervallo che va dal “punto di nero” al valore 95 fino al “bianco diffuso” al valore 685, su una scala totale da 0 a 1023.

Il valore 685 (bianco diffuso) rappresenta una superficie bianca che riflette la luce in modo uniforme in tutte le direzioni, secondo una riflessione lambertiana. Questo tipo di riflessione è diversa dalle riflessioni speculari (come i riflessi su superfici lucide), che concentrano la luce in un’unica direzione.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Per rendere più naturale la transizione verso le zone molto luminose, fu introdotto un “soft clip” che gestisce gradualmente il passaggio ai bianchi estremi.

I valori superiori a 685 sono riservati ai toni “più chiari del bianco”, come i riflessi speculari o la luce diretta del sole.

I valori inferiori a 95 sono riservati alle informazioni “più nere del nero”.

Quando in laboratorio un negativo viene “stampato più chiaro” per ragioni artistiche o per uniformare i colori tra le scene, queste informazioni nascoste sotto il nero possono emergere e risultare visibili. Allo stesso modo, stampando un negativo “più scuro” è possibile recuperare dettagli dalle zone sovraesposte.

Le scansioni log Cineon catturano l’intera gamma di esposizione di ogni fotogramma di pellicola e la memorizzano come file a 10 bit log. Poiché il negativo cinematografico risponde alla luce in modo logaritmico (proprio come la visione umana), è il negativo stesso a determinare la forma della curva log. Il file digitale deve semplicemente registrare in modo fedele e accurato la densità del negativo a ogni livello tonale. Maggiore è l’esposizione alla luce, più valori di codifica vengono allocati in modo percettivamente utile.

La pellicola viene misurata in unità di densità logaritmica, proporzionali alla densità ottica del negativo. Quando si codifica la latitudine di esposizione della pellicola, è fondamentale distribuire con attenzione il numero di valori di codice per ogni stop di luce, in modo da utilizzare i bit disponibili nel modo più efficiente possibile.

Se si tentasse di comprimere l’intera gamma di luminosità della pellicola nell’intervallo completo 0–1023, rimarrebbero solo circa 75 valori di codice per rappresentare la gamma tra 0 e 1 stop, lo stesso numero di valori che verrebbero allocati per la gamma tra +12 e +13 stop. Ma le alte luci della pellicola non necessitano di così tanti valori di codice, e l’occhio umano non è in grado di distinguere tra due riflessi estremamente luminosi così vicini in intensità.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Poiché il nero è mappato al valore 95, rimangono solo 928 valori di codice disponibili per rappresentare tutta la restante gamma di esposizione. Nelle scene con luci estremamente intense, i valori possono superare l’intervallo standard Cineon: in questi casi, nelle codifiche DPX standard, quelle luci vengono perse per clipping (taglio).

L’enorme gamma dinamica della pellicola non avrebbe potuto essere preservata durante la post-produzione digitale senza caratterizzare accuratamente la risposta della pellicola (con la sua caratteristica curva a “S”, composta da spalla e piede) e senza codificarla in log. Per questo motivo Kodak sviluppò la curva di codifica log Cineon, in modo da conservare la massima latitudine della pellicola nelle scansioni digitali utilizzando un file log a 10 bit.

[/vc_column_text][vc_column_text css=””]

Intervalli di codifica Cineon/DPX

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4854″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text][/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’evoluzione delle videocamere digitali

Alla fine degli anni ’90 e nei primi anni 2000, le videocamere digitali hanno iniziato un’evoluzione che le avrebbe portate a competere con la pellicola cinematografica tradizionale e, in alcuni casi, a sostituirla completamente.

Nel 1998, la videocamera SONY F900 (con risoluzione 1920 × 1080) e i suoi registratori HDCAM rappresentavano una seria minaccia per la supremazia della pellicola. Tuttavia, uno dei principali ostacoli al suo successo nel mondo del cinema era il sistema di colore Rec 709, che si rivelò inadeguato per le esigenze cinematografiche.

Il caso Star Wars

Nel giugno 2000, Star Wars: Episodio II – L’attacco dei cloni iniziò le riprese interamente con una videocamera SONY HDW-F900, utilizzando il formato Rec 709 con registrazione su nastro HDCAM. Questo fu un momento storico: un grande film hollywoodiano girato completamente in digitale. Tuttavia, la F900 si rivelò rapidamente insufficiente per la qualità richiesta dal grande schermo cinematografico.

Questa esperienza accelerò lo sviluppo di nuove tecnologie. Divenne chiaro che per competere con la pellicola, le videocamere digitali avrebbero dovuto supportare un segnale a 10 bit con campionamento 4:4:4 (larghezza di banda completa per tutti i canali colore).

Nel 2005, l’American Society of Cinematographers e la Producers Guild of America organizzarono la ASC/PGA Camera Assessment Series, un test comparativo storico. Vennero messe alla prova sette videocamere digitali di punta:

  • ARRI D-21
  • Panasonic AJ-HPX3700
  • Panavision Genesis
  • Red One
  • SONY F23 e F35
  • Thomson Grass Valley Viper

Come termine di paragone, venne utilizzata una cinepresa ARRI 435 con quattro diverse pellicole Kodak: due per luce artificiale (tungsteno) e due per luce diurna (daylight).

Il passaggio alla codifica logaritmica

La decisione di gestire il materiale in post-produzione con un flusso di lavoro digitale simile a quello della pellicola impose una svolta fondamentale. Dove possibile, le videocamere dovevano registrare un segnale codificato logaritmicamente anziché con la tradizionale codifica Rec 709.

Ma cosa significa “codifica logaritmica”? È un metodo che imita le caratteristiche del negativo cinematografico, permettendo di:

  • Riprodurre una gamma dinamica più ampia (più dettagli nelle zone molto scure e molto chiare)
  • Catturare uno spazio colore più ricco, simile alla pellicola

Uno dei risultati più importanti di questi test fu l’impegno dell’industria a sviluppare codifiche log specifiche per il cinema e spazi colore più ampi, aprendo la strada al successo delle videocamere digitali nella produzione cinematografica professionale.

L’era delle codifiche log

Oggi, la presenza di codifiche log nelle videocamere da cinema digitali è diventata uno standard. Ogni videocamera che aspira a essere presa sul serio nel mondo del cinema offre il proprio sistema log. Vediamo i più importanti.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

ARRI Log C

La curva Log C è una codifica logaritmica dei valori tonali della scena. La sua caratteristica principale è che la relazione tra l’esposizione (misurata in stop, le unità che indicano il raddoppio o dimezzamento della luce) e i valori numerici usati per codificare il segnale rimane costante su un ampio intervallo.

La forma della curva Log C è simile alla curva Cineon del negativo cinematografico, anche se le caratteristiche cromatiche sono diverse a causa delle differenze fondamentali tra un sensore digitale e la pellicola.

Come funziona Log C

Log C non è un’unica curva, ma un insieme di curve diverse per diversi valori di sensibilità (EI/ASA, simili agli ISO in fotografia). Ogni curva funziona secondo questo principio:

  • Il segnale del sensore corrispondente a una luminanza del 18% di grigio (il grigio medio di riferimento) viene mappato a un valore di 400 in un segnale a 10 bit
  • Un segnale a 10 bit offre 1024 valori totali (da 0 a 1023)
  • Il valore massimo della curva cambia in base alla sensibilità impostata

Esempio pratico: Se chiudi il diaframma dell’obiettivo di uno stop e aumenti la sensibilità da EI 800 a EI 1600, il sensore catturerà uno stop in più di informazioni nelle alte luci (le zone luminose). Poiché Log C rappresenta i valori reali di esposizione della scena, il valore massimo della curva aumenta di conseguenza.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4863″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4864″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

SONY S-Log

S-Log è in realtà una famiglia di tre curve (S-Log, S-Log2 e S-Log3), ciascuna ottimizzata specificamente per le videocamere cinematografiche SONY per massimizzare le prestazioni del sensore.

L’evoluzione delle curve S-Log

Le curve S-Log sono progettate con un obiettivo preciso: registrare e trasmettere quante più informazioni possibili catturate dal sensore, preservando tutto lo spazio colore e la gamma dinamica disponibili.

S-Log1: Il direttore della fotografia può preservare fino al 1000% della gamma dinamica dello standard Rec 709 (ovvero 10 volte superiore).

S-Log2: La gamma dinamica aumenta fino al 1500% rispetto a Rec 709.

S-Log3: Offre prestazioni simili a S-Log2, ma con importanti miglioramenti:

  • Maggiori dettagli nelle ombre (zone scure)
  • Gamma dinamica estesa tra toni medi e alte luci
Le caratteristiche tecniche di S-Log3

S-Log3 si basa sul sistema Cineon Digital Negative revisionato nel 2007 e presenta caratteristiche specifiche:

  • Niente “shoulder” (la compressione graduale delle alte luci)
  • “Toe” ridotto (la curva non lineare nell’area delle ombre è minimizzata)

Questo rende S-Log3 più simile a una codifica logaritmica pura rispetto a S-Log2, offrendo una maggiore flessibilità nella correzione colore in fase di post-produzione.


In sintesi: Le codifiche logaritmiche hanno rivoluzionato il cinema digitale, permettendo alle videocamere di catturare immagini con una qualità e una flessibilità paragonabili, e in alcuni casi superiori, alla tradizionale pellicola cinematografica.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Display Referred vs. Scene Referred

Quello che possiamo apprendere dall’evoluzione dalla codifica Rec 709 alla codifica log è che l’intento creativo della cinematografia ci ha spinti da un approccio di codifica percettiva Display Referred (ovvero “riferito al display”), in cui le immagini vengono trasformate direttamente per adattarsi alle caratteristiche non lineari dello schermo utilizzato, verso un approccio Scene Referred (ovvero “riferito alla scena”), in cui i dati dell’immagine vengono mantenuti in un formato che rappresenta il più fedelmente possibile i valori di luce reali della scena originale, preservando tutti i colori e l’ampia gamma dinamica catturati.

La codifica log cattura l’integrità delle immagini originali dalle videocamere digitali in modo più fedele rispetto alla codifica Gamma, e al contempo permette di memorizzare le immagini in file molto più piccoli rispetto alla codifica lineare (che registra i valori di luce così come sono fisicamente). Quindi, per ora, la codifica log ci offre il flusso di lavoro più efficace: massima qualità con dimensioni gestibili.

Ogni produttore comprende ormai che caratterizzare le prestazioni di un nuovo sensore e sviluppare una curva di codifica log specifica per quel sensore è una delle chiavi del successo di una videocamera.

Nota le variazioni in % IRE (l’unità di misura del segnale video, dove 0% è il nero e 100% è il bianco) e nei valori di codice numerici dal nero al grigio medio fino al bianco al 90% tra una codifica e l’altra. Le decisioni che i produttori di videocamere prendono nella codifica variano ampiamente da un modello all’altro. Una conseguenza diretta è che in post-produzione è necessario avere accesso ai profili di de-log accurati per ogni videocamera utilizzata, in modo da poter decodificare e correggere correttamente il colore delle immagini. Non è raro che una scena includa materiale girato con mezza dozzina di videocamere diverse, quindi l’accesso e l’uso dei corretti profili di codifica e decodifica è assolutamente imprescindibile.

[/vc_column_text][/vc_column][/vc_row]

Read More
Marco Billardello
Aspect Ratio: La Guida Completa al Formato nei Video

[vc_row][vc_column][vc_column_text css=””]

L’aspect ratio è una componente fondamentale del linguaggio visivo, in grado di influenzare profondamente l’esperienza dello spettatore. Questo articolo esplorerà la storia e l’evoluzione dell’aspect ratio, dai primi formati della pellicola alle moderne tecnologie digitali, analizzando le differenze tra i principali rapporti d’aspetto come il 16:9, il 2.39 (Cinemascope), e altri. Parleremo inoltre degli errori comuni nell’uso del formato nel digitale e approfondiremo il ruolo dell’anamorfico.

Cos’è l’Aspect Ratio?

L’aspect ratio (rapporto d’aspetto) rappresenta il rapporto tra la larghezza e l’altezza di un’immagine o di un video. Si calcola dividendo la larghezza per l’altezza:

Ad esempio, un video con risoluzione 1920×1080 pixel ha un aspect ratio di:1.78:1

I Formati Più Diffusi
  • 1.78:1: O più comunemente chiamato 16:9, standard universale per televisori, monitor e piattaforme digitali.
  • 4:3: Lo standard storico della televisione analogica e dei film muti.
  • 1.85:1: Detto “Flat”, è comune nei film americani prodotti per il cinema.
  • 2.39:1: Conosciuto anche come Cinemascope o Scope, è largamente utilizzato per film epici o di grande impatto visivo.
  • IMAX: Varia da 1.43:1 a 1.90:1, offrendo un’immersione visiva unica.

[/vc_column_text][vc_single_image image=”4180″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’Aspect Ratio nella Pellicola: Storia ed Evoluzione

I Primi Formati

Nei primi decenni del cinema, il formato più comune era il 4:3, derivato dalla pellicola 35mm utilizzata in orientamento verticale. Con il passare del tempo, l’industria ha sviluppato formati più larghi per migliorare l’immersione dello spettatore:

Formato

Aspect Ratio

Utilizzo

16mm

Varia

Documentari, film indipendenti

35mm

4:3, 1.85:1

Standard cinematografico storico

70mm (5 perforazioni)

2.20:1

Film epici, es. “Lawrence d’Arabia”

70mm (15 perforazioni)

1.43:1

IMAX, esperienze immersive

IMAX

1.43:1, 1.90:1

Esperienze immersive

[/vc_column_text][vc_single_image image=”4341″ img_size=”full” css=”” title=”Comparazione delle pellicole più utilizzate”][vc_single_image image=”4342″ img_size=”large” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

70mm a 15 Perforazioni vs 70mm a 5 Perforazioni

Il formato 70mm a 15 perforazioni è una variante avanzata del formato 70mm, concepito per ottenere una qualità dell’immagine e una risoluzione senza pari. Questo formato, che prende il nome dalla quantità di perforazioni per fotogramma (15 rispetto alle 5 perforazioni del formato standard), offre vantaggi decisivi in termini di qualità visiva, specialmente su schermi di grande formato.

70mm a 15 perforazioni: Caratteristiche principali
  1. Risoluzione più alta e dettaglio superiore: Con 15 perforazioni per fotogramma, il formato 70mm a 15 perforazioni raccoglie una quantità significativamente maggiore di informazioni visive rispetto al 70mm a 5 perforazioni. Questo si traduce in una risoluzione notevolmente più alta, rendendo possibile una proiezione estremamente dettagliata, che è visibile anche su schermi di dimensioni molto grandi. Le immagini appaiono più nitide, ricche di dettagli, con un contrasto elevato e una resa cromatica più ricca.
  2. Ideale per schermi di grandi dimensioni: La larghezza maggiore della pellicola e la sua capacità di registrare più informazioni per fotogramma lo rendono particolarmente adatto per schermi IMAX e per altre sale cinematografiche dotate di grandi superfici di proiezione. Gli spettatori seduti a distanze diverse dallo schermo possono godere di immagini estremamente dettagliate e ben definite, con una qualità che non degrada visibilmente anche su schermi enormi.
  3. Maggiore superficie per fotogramma: Ogni fotogramma nel formato a 15 perforazioni è più grande rispetto a quello a 5 perforazioni, il che consente una rappresentazione più precisa e definita dell’immagine cinematografica. Questa maggiore superficie, infatti, è anche una delle ragioni per cui le immagini proiettate con questo formato risultano così impressionanti visivamente.
  4. Utilizzo nel sistema IMAX: Sebbene il 70mm a 15 perforazioni sia associato con il sistema IMAX, è importante notare che non è limitato esclusivamente a questo. Il sistema IMAX sfrutta questo formato per massimizzare l’effetto visivo su schermi giganti, offrendo un’esperienza cinematografica immersiva. Tuttavia, il formato 70mm a 15 perforazioni può essere utilizzato in altre applicazioni cinematografiche di alta qualità dove è necessario mantenere una risoluzione straordinaria e un livello di dettaglio che il formato tradizionale non può raggiungere.
70mm a 5 perforazioni: Caratteristiche principali
  1. Utilizzo tradizionale e rapporto d’aspetto: Il formato 70mm a 5 perforazioni è stato storicamente usato per film epici e spettacolari, come “Lawrence d’Arabia” o “2001: Odissea nello Spazio”. Questo formato è caratterizzato dal rapporto d’aspetto 2.20:1, che è particolarmente adatto per le proiezioni cinematografiche tradizionali. Pur avendo una risoluzione inferiore rispetto al 70mm a 15 perforazioni, il 70mm a 5 perforazioni offre comunque un livello di qualità superiore rispetto al 35mm, mantenendo una definizione d’immagine elevata e una buona resa cromatica.
  2. Maggiore compatibilità con sistemi di proiezione convenzionali: Il formato 70mm a 5 perforazioni è ampiamente compatibile con i proiettori tradizionali, quindi viene utilizzato anche in teatri che non sono equipaggiati per la proiezione del formato a 15 perforazioni. Le immagini sono comunque di alta qualità, ma la risoluzione e il livello di dettaglio sono inferiori rispetto al formato a 15 perforazioni.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4182″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Differenze tra IMAX e 70mm a 15 Perforazioni

La distinzione tra IMAX e 70mm a 15 perforazioni può sembrare sottile, ma ci sono alcune differenze chiave che influenzano l’esperienza visiva.

In sostanza, IMAX è un sistema di proiezione che utilizza pellicola 70mm a 15 perforazioni, ma non tutti i film proiettati in 70mm a 15 perforazioni sono IMAX.

Ecco le principali differenze:
  • Sistema completo: IMAX è un sistema completo che include non solo la pellicola, ma anche proiettori, schermi e sale progettate specificamente per massimizzare l’impatto visivo.
  • Formati e aspect ratio: Mentre IMAX è principalmente associato a un formato widescreen molto ampio, il 70mm a 15 perforazioni può essere utilizzato anche per altri formati, come il formato quadrato.
  • Qualità dell’immagine: La qualità dell’immagine IMAX è generalmente considerata superiore grazie a una serie di fattori, infatti le pellicole IMAX sono spesso trattate per ottenere un contrasto più elevato e una maggiore fedeltà cromatica.

Quindi, quando si parla di IMAX, si fa riferimento a un’esperienza cinematografica completa e ottimizzata, mentre il 70mm a 15 perforazioni è semplicemente un tipo di pellicola.

Per riassumere:

  • Tutti i film IMAX utilizzano pellicola 70mm a 15 perforazioni.
  • Non tutti i film proiettati in 70mm a 15 perforazioni sono IMAX.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Cinemascope e Anamorfico

Negli anni ’50, il Cinemascope introdusse il rapporto 2.39:1 utilizzando lenti anamorfici.

L’anamorfico è una tecnica ottica in cui le lenti comprimono l’immagine orizzontalmente durante la ripresa. Ciò consente di catturare un campo visivo più ampio sullo stesso supporto (pellicola o sensore digitale). In fase di proiezione o post-produzione, un altro sistema ottico o software “decomprime” l’immagine, ripristinando le proporzioni originali.

Il risultato è un’immagine più larga rispetto all’aspect ratio nativo del supporto, spesso caratterizzata da un’estetica unica, con effetti come bagliori orizzontali (lens flares) e sfocature ovali (bokeh).

[/vc_column_text][vc_single_image image=”4186″ img_size=”full” css=””][vc_column_text css=””]

L’anamorfico nell’era della pellicola

Nell’epoca della pellicola, l’anamorfico fu introdotto per rispondere alla necessità di offrire al pubblico un’esperienza visiva più immersiva. Hollywood adottò il formato anamorfico, noto come CinemaScope, negli anni ‘50 per competere con la crescente popolarità della televisione.

Con pellicole da 35mm, le lenti anamorfica permettevano di ottenere un aspect ratio di 2.35:1 o 2.39:1, comprimendo l’immagine orizzontalmente di un fattore 2x durante la registrazione. Al momento della proiezione, un obiettivo anamorfico decompressava l’immagine, ripristinando le proporzioni corrette. Questo approccio consentiva di massimizzare l’uso del supporto filmico mantenendo una risoluzione elevata.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4191″ img_size=”full” css=””][vc_column_text css=””]

L’anamorfico nell’era digitale

Con il passaggio al digitale, l’anamorfico ha subito un’evoluzione per adattarsi ai nuovi sensori delle telecamere. I sensori digitali, spesso nativamente 16:9, non corrispondono direttamente agli aspect ratio cinematografici più larghi. Le lenti anamorfica permettono di mantenere il look e l’ampiezza visiva del cinema tradizionale, comprimendo l’immagine sul sensore e sfruttando al massimo la risoluzione disponibile.

In fase di post-produzione, l’immagine viene decompressa digitalmente per ottenere il formato finale desiderato. Questo processo conserva l’estetica distintiva dell’anamorfico, mentre l’avanzamento delle tecnologie ha reso più accessibile la correzione di eventuali distorsioni o aberrazioni ottiche.

 

Effetto visivo: l’impronta dell’anamorfico

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

L’anamorfico è riconoscibile per caratteristiche visive uniche, tra cui:

  • Bokeh ovale: le aree fuori fuoco assumono una forma ellittica piuttosto che circolare.
  • Lens flare orizzontali: le sorgenti luminose producono bagliori lunghi e orizzontali, un tratto distintivo che aggiunge drammaticità.
  • Compressione dell’immagine: un look “più stretto” delle proporzioni durante la ripresa.
  • Ampiezza del campo visivo: consente di includere più elementi nella scena senza dover utilizzare una lente ultra-wide, che potrebbe introdurre distorsioni indesiderate.

Questi tratti rendono l’anamorfico particolarmente adatto a produzioni cinematografiche e televisive che vogliono ottenere un look epico o drammatico.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4193″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Compressione e decompressione: una spiegazione visiva

Immaginate di riprendere un paesaggio con una lente anamorfico 2x. L’immagine catturata sul sensore sarà compressa orizzontalmente: ad esempio, un cerchio apparirà come un’ellisse più stretta. Durante la decompressione, l’ellisse tornerà a essere un cerchio, ripristinando l’immagine alla sua proporzione naturale.

Graficamente, possiamo rappresentare così:

Compressione:

    • Input: Cerchio (scena reale).
    • Output sul sensore: Ellisse (immagine compressa).
  • Decompressione:
    • Input: Ellisse (immagine compressa).
    • Output finale: Cerchio (immagine decompressa).

Questa trasformazione preserva la risoluzione verticale, massimizzando il dettaglio e mantenendo un elevato standard qualitativo.

Risoluzione: nativa vs di output

Quando si parla di risoluzione con l’anamorfico, è fondamentale distinguere tra:

  • Risoluzione nativa: Il numero di pixel catturati dal sensore, che rimane invariato nonostante la compressione.
  • Risoluzione di output: La risoluzione del file finale, che può variare a seconda delle proporzioni decompressa e del dispositivo di visualizzazione.

Ad esempio, un sensore 4K (4096×2160) che registra con una lente 2x produrrà un’immagine decompressa con una larghezza effettiva doppia, ottenendo un file finale in 8192×2160.

L’anamorfico è una tecnologia che unisce tecnica e creatività, offrendo una firma visiva senza tempo. Nell’era digitale, il workflow si è semplificato, ma l’essenza rimane invariata: catturare immagini che raccontano storie con un tocco cinematografico unico. Sia che lavoriate su un blockbuster hollywoodiano o su un progetto indipendente, le lenti anamorfica possono trasformare il modo in cui il pubblico vive il vostro lavoro.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Flat vs 16:9: Qual è la Differenza?

È importante distinguere tra il formato “Flat” (1.85:1) e il 16:9 (1.78:1):

  • 1.85:1: Leggermente più largo, è pensato per il cinema.
  • 16:9: Nato per la televisione, è lo standard attuale dei video digitali.

Se prendiamo come esempio un video in FullHD 1920×1080(16:9), l’analogo Flat sarà 1998×1080.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Aspect Ratio nel Digitale: Errori Comuni

Commedia di un errore: le bande nere nei video digitali

Nell’era del digitale, in cui la qualità visiva e l’attenzione ai dettagli sono fondamentali, si assiste a un errore ricorrente e piuttosto grave nel montaggio video: l’utilizzo improprio delle bande nere per simulare un aspect ratio cinematografico. Questo problema, apparentemente banale, compromette l’integrità del prodotto finale e dimostra una scarsa conoscenza tecnica.

  • 16:9 è il formato più comune per i video digitali e per le televisioni moderne (1920×1080 pixel nella risoluzione Full HD).
  • 2.39:1 è uno degli standard più usati nel cinema, spesso percepito come più “cinematografico” per via della sua ampiezza.

Quando si decide di adottare un aspect ratio diverso dal 16:9, è necessario comprendere le implicazioni tecniche di questa scelta per evitare errori.

L’errore delle bande nere

Un errore comune è aggiungere bande nere sopra e sotto un video 16:9 per simulare un formato più ampio come il 2.39:1. Questo approccio è sbagliato per una ragione fondamentale: il contenitore rimane comunque 16:9, anche se l’aspetto visivo è simile al 2.39:1.

In pratica:

  • Se hai un video 1920×1080 e aggiungi bande nere, l’output finale avrà ancora una risoluzione di 1920×1080.
  • Le bande nere non sono parte del video vero e proprio, ma semplicemente riempiono lo spazio, creando un’illusione ottica di aspect ratio diverso.

Questo approccio genera diversi problemi:

  1. Compressione inefficiente: Le bande nere aumentano inutilmente la dimensione del file senza aggiungere informazioni visive rilevanti.
  2. Compatibilità ridotta: Piattaforme come YouTube o Vimeo, progettate per il 16:9, potrebbero visualizzare il video con distorsioni o ridimensionamenti non desiderati.
  3. Scarsa professionalità: Inserire bande nere invece di lavorare sull’aspect ratio reale trasmette una mancanza di cura e competenza tecnica.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4199″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

La soluzione corretta: cambiare il contenitore

Per ottenere un video con aspect ratio 2.39:1, bisogna modificare il contenitore del video, non semplicemente aggiungere bande nere. Questo si fa impostando una timeline nel software di montaggio con le proporzioni desiderate.

Esempio pratico

Se vuoi creare un video 2.39:1 partendo da un filmato in 1920×1080:

  1. Calcola l’altezza corretta: 1920 / 2.39 = 804 pixel.
  2. Imposta una nuova timeline con dimensioni 1920×804 nel tuo programma di montaggio.
  3. Riposiziona il video nella timeline, assicurandoti di adattare il contenuto visivo al nuovo aspect ratio.
  4. Esporta il video nelle stesse proporzioni, senza bande nere.

Così facendo, il file finale sarà effettivamente in formato 2.39:1, senza informazioni visivamente inutili come le bande nere.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Perché è importante farlo correttamente
  1. Qualità visiva superiore: Un video senza bande nere è più pulito, ottimizzato e si adatta meglio ai diversi dispositivi di riproduzione.
  2. Compressione efficiente: Codificatori video come H.264 o H.265 gestiscono meglio un contenitore ottimizzato, riducendo la dimensione del file senza sacrificare la qualità.
  3. Estetica professionale: I video con un aspect ratio corretto mostrano attenzione ai dettagli e dimostrano competenza tecnica, elementi fondamentali nel settore audiovisivo.

Aggiungere bande nere per simulare un aspect ratio diverso è un errore tecnico che penalizza il risultato finale. Lavorare direttamente con contenitori e timeline appropriati è l’unico modo per ottenere un prodotto professionale e tecnicamente valido. Chiunque lavori nel montaggio video dovrebbe comprendere l’importanza di queste scelte, perché la differenza tra un lavoro amatoriale e uno professionale si misura anche nei dettagli.

La prossima volta che crei un video, chiediti: sto aggiungendo valore al mio progetto o sto commettendo una “commedia di un errore” con le bande nere?

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

come calcolare l’aspect ratio

Calcolare l’aspect ratio è un’operazione piuttosto intuitiva. Basta dividere la larghezza dell’immagine in pixel per la sua altezza. Ad esempio, per uno schermo con risoluzione 1920×1080, il calcolo sarebbe 1920 / 1080, che ci dà un risultato di circa 1,78. Questo valore ci indica che la larghezza dello schermo è 1,78 volte più grande della sua altezza.  In termini più semplici, l’aspect ratio ci fornisce un rapporto tra la larghezza e l’altezza di un’immagine o di uno schermo. È un parametro fondamentale, in quanto determina la forma dell’immagine e influisce sulla sua percezione visiva.

Calcolare l’altezza in pixel per ottenere l’aspect ratio desiderato

Supponiamo di avere un video in Full HD (1920×1080) e vogliamo ridimensionarlo per ottenere un aspect ratio cinematografico di 2.39:1, mantenendo la stessa larghezza (1920 pixel).

Ecco come procedere:

  1. Converti l’aspect ratio in un numero decimale: 2.39:1 è equivalente a 2.39.
  2. Imposta un’equazione:
    • Indichiamo con “x” l’altezza che vogliamo trovare.
    • Sappiamo che l’aspect ratio è dato dal rapporto tra la larghezza e l’altezza: 1920 / x = 2.39
  3. Risolvi l’equazione:
    • Per trovare “x”, moltiplichiamo entrambi i membri dell’equazione per “x” e poi dividiamo entrambi i membri per 2.39.
    • Otteniamo: x = 1920 / 2.39 ≈ 803,34 pixel.

Quindi, per ottenere un aspect ratio di 2.39:1 a partire da un video 1920×1080, dovrai ritagliarlo o ridimensionarlo a 1920×803 che comunemente si arrotonda a 804 pixel.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4732″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]Abbiamo analizzato in dettaglio i principali aspect ratio utilizzati nel cinema e nei video, spiegando come calcolarli e il ruolo dei contenitori di formato. Tuttavia con l’evoluzione digitale, i formati video sono diventati sempre più numerosi e complessi. Inoltre, i calcoli spesso non producono numeri interi, richiedendo arrotondamenti per ottenere valori utili. Per semplificare, e per offrire una risorsa pratica, di seguito trovate una tabella dettagliata tratta dal sito unravel.com, che elenca tutti i formati orizzontali standardizzati. Potete anche scaricare il PDF completo cliccando qui. Questa guida vi aiuterà a scegliere il formato video ideale per ogni esigenza!


PDF VERSION
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4205″ img_size=”full” css=””][vc_column_text css=””]
PDF VERSION
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’aspect ratio rappresenta molto più di un semplice parametro tecnico: è una potente leva narrativa che contribuisce a definire l’estetica e l’impatto visivo di un’opera audiovisiva. Dalla storia dei formati tradizionali come il 4:3 e il 16:9, fino all’uso sofisticato di tecnologie moderne come l’anamorfico, ogni scelta di rapporto d’aspetto riflette un’intenzione creativa e una visione artistica.

Per i professionisti e gli appassionati del settore, comprendere le peculiarità di ciascun formato è fondamentale per evitare errori tecnici e massimizzare la qualità del prodotto finale. Errori comuni, come l’uso improprio delle bande nere, possono compromettere non solo l’aspetto tecnico del video ma anche l’impressione che esso lascia sul pubblico. Per questo, lavorare con contenitori e proporzioni corrette è essenziale per garantire un risultato professionale e ottimizzato per le piattaforme moderne.

Infine, l’aspect ratio non è solo un’eredità del passato, ma un elemento in continua evoluzione. Con le tecnologie digitali sempre più accessibili e potenti, le possibilità creative non hanno limiti. Sia che si tratti di una produzione hollywoodiana, di un documentario indipendente o di un semplice video per il web, scegliere e utilizzare consapevolmente il formato giusto può fare la differenza tra un contenuto ordinario e un’esperienza visiva indimenticabile.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]Grazie per aver letto l’articolo, e se vuoi mi pui seguire anche su instagram per supportarmi in quello che faccio.[/vc_column_text][/vc_column][/vc_row]

Read More