SOON

Autore: Marco Billardello

Marco Billardello
Il Cinema Digitale

[vc_row][vc_column][vc_column_text css=””]

Gestione del Look

I dailies (il girato giornaliero) ben corretti cromaticamente e con un look curato imprimono nella mente del regista, dei produttori, dello studio, dei montatori e di tutti i membri del team una chiara percezione dell’aspetto visivo desiderato per il progetto. Questo rappresenta un passaggio fondamentale per ottenere un risultato finale che rispecchi fedelmente la visione del direttore della fotografia.

Una volta che il team creativo si abitua al look dei dailies, modificarlo successivamente diventa spesso molto difficile. Non è raro che il direttore della fotografia non sia presente o non venga coinvolto nella sessione finale di color grading: per questo motivo, curare attentamente la gestione del look durante la produzione è il modo migliore per garantire che l’aspetto finale delle immagini corrisponda alla visione originale.

La Situazione Attuale

I “giorni difficili” legati all’invenzione e allo sviluppo delle prime cineprese digitali sono ormai alle spalle. Abbiamo superato una fase di transizione ed è iniziata l’era matura della cinematografia digitale. Il periodo pionieristico, caratterizzato dai rischi tipici degli “early adopter” (i primi utilizzatori di nuove tecnologie), è terminato: oggi le cineprese digitali dotate di sensore CMOS con pattern Bayer a chip singolo dominano il mercato cinematografico.

Gli strumenti della cinematografia digitale sono ormai da tempo nelle mani dei professionisti e hanno avuto modo di maturare ed evolversi.

La buona notizia è che da questo punto in poi possono solo migliorare. Oggi questi strumenti non solo eguagliano le potenzialità che offriva la pellicola, ma in alcuni aspetti superano persino le sue capacità di riproduzione dell’immagine. Questo progresso comporta anche una responsabilità: è fondamentale formarci adeguatamente per padroneggiare l’uso quotidiano di questi strumenti professionali.

 

Come Funzionano le Cineprese Digitali

La cinematografia è l’arte di catturare, registrare e manipolare immagini in movimento, sia su pellicola che tramite sensori digitali.

Il cuore di questa disciplina consiste nel saper bilanciare la gamma tonale delle scene inquadrate davanti all’obiettivo con la capacità di registrazione del supporto sensibile (pellicola o sensore) posto dietro l’obiettivo. L’obiettivo è catturare e registrare quella gamma tonale in modo artisticamente efficace.

La Risposta Visiva Umana alla Luce

Il modo in cui i nostri occhi percepiscono l’intensità luminosa non è lineare. L’occhio umano è capace di adattarsi a una gamma straordinariamente ampia di intensità luminose: la sorgente più luminosa che possiamo tollerare è oltre dieci miliardi di volte più intensa della sorgente più debole che riusciamo a percepire. Tuttavia, la nostra percezione della luce funziona in modo simile a come la pellicola negativa registra la luce.

Sia la visione umana che la pellicola negativa rispondono al raddoppio (o al dimezzamento) dell’intensità luminosa percependolo come una variazione di circa uno stop nella luminosità.

Entrambi i sistemi – la visione umana e l’esposizione dei cristalli di alogenuro d’argento nell’emulsione fotografica – seguono un comportamento non lineare che può essere descritto approssimativamente attraverso una funzione logaritmica o una legge di potenza. Lo psicofisico Stanley Smith Stevens, studiando le leggi psicofisiche dell’intensità luminosa, ha dimostrato che la risposta visiva umana alla luminosità segue effettivamente una funzione molto simile a quella logaritmica.

[/vc_column_text][vc_single_image image=”4834″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

  • 1-bit color significa acceso/spento, quindi solo due toni: bianco e nero
  • 10-bit color significa 2 elevato alla decima potenza, cioè 2¹⁰ = 1024 tonalità per ciascun colore (rosso, verde e blu)

Dei 1024 valori disponibili nella codifica a 10 bit, i 4 valori più alti e i 4 più bassi sono riservati per altri scopi tecnici. Quindi, in pratica, il colore RGB a 30 bit (10 bit per canale) offre circa 1015 valori per il rosso, 1015 per il verde e 1015 per il blu, per un totale di oltre un miliardo di possibili sfumature di colore (1.045.678.375 per la precisione).

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

  • 1-bit color significa acceso/spento, quindi una coppia binaria di toni: bianco/nero.

  • 10-bit color significa 2 alla decima potenza, cioè 2¹⁰ = 1024 tonalità per ciascun colore (rosso, verde e blu).

Dei 1024 valori disponibili nella codifica a 10 bit, i 4 valori più alti e i 4 più bassi vengono riservati ad altri dati. Quindi, approssimativamente, il colore RGB a 30 bit offre 1015 valori per il rosso, 1015 per il verde e 1015 per il blu, che equivalgono a 1.045.678.375 possibili sfumature di colore.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

A ciascun fotosito viene assegnato un valore numerico digitale che indica l’intensità tonale per il rosso, il verde o il blu. Il numero totale di valori tonali disponibili è chiamato profondità in bit del colore (color bit depth). Maggiore è la profondità in bit, più numerosi sono i valori tonali disponibili e quindi minori sono le differenze di colore appena percettibili.

Nel cinema digitale, la profondità in bit indica il numero di bit digitali utilizzati per codificare ciascun componente di colore di un singolo pixel. Un bit è una cifra binaria che può assumere uno di due stati, comunemente rappresentati come 0/1, vero/falso, sì/no, +/− oppure acceso/spento. Ad esempio:

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_separator color=”custom” style=”shadow” border_width=”5″ css=”” accent_color=”#000000″][vc_single_image image=”4846″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Come i Sensori Catturano la Luce

Per oltre cent’anni, la pellicola fotografica ha utilizzato minuscoli cristalli fotosensibili di alogenuro d’argento per registrare le immagini. Quando questi cristalli venivano esposti alla luce e poi sviluppati chimicamente, si trasformavano in argento metallico scuro, creando le aree più scure del negativo. In pratica: più luce ricevevano, più scuri diventavano.

I sensori digitali funzionano in modo diverso ma con un principio simile. Utilizzano milioni di microscopici componenti elettronici chiamati fotodiodi – dei veri e propri “collettori di luce” in silicio. Quando la luce li colpisce, questi fotodiodi permettono agli elettroni di accumularsi, generando una carica elettrica. La fotocamera misura questa carica una volta per ogni fotogramma, poi la scarica e azzera il contatore, pronta per il fotogramma successivo.

[/vc_column_text][vc_single_image image=”4835″ img_size=”full” css=””][vc_column_text css=””]

La Griglia del Sensore

Un sensore digitale è costituito da una griglia ordinata di fotodiodi disposti in righe e colonne, come una scacchiera microscopica. Ogni fotodiodo accumula carica elettrica mentre i raggi luminosi provenienti dall’obiettivo formano un’immagine sulla superficie del sensore.

Per capire meglio questo meccanismo, possiamo pensare all’elettricità statica che si accumula quando camminiamo su un tappeto con le scarpe da ginnastica in una giornata secca: più camminiamo, più carica accumuliamo. Allo stesso modo, più luce colpisce un fotodiodo, maggiore sarà la carica elettrica accumulata; con meno luce, la carica sarà minore.

Photosites e Sensels: I Mattoncini dell’Immagine Digitale

Nel linguaggio tecnico dell’imaging digitale, ogni singolo fotodiodo viene chiamato photosite (sito fotografico), mentre il segnale elettrico che genera è detto sensel (elemento sensore). I sensori delle fotocamere moderne contengono migliaia di righe e colonne di photosites che lavorano come microscopici raccoglitori di luce indipendenti, convertendo la luce in segnale elettrico, photosite per photosite, fotogramma per fotogramma. Questa griglia ordinata di photosites è chiamata raster.

C’è però un limite importante: questi photosites non sono in grado di distinguere autonomamente i colori. Possono solo misurare l’intensità (cioè la quantità) di luce che li colpisce e convertirla in un segnale elettrico. Per ottenere informazioni sui colori, è necessario dotarli di un meccanismo aggiuntivo. Approfondiremo questo aspetto più avanti nel capitolo.

K e Risoluzione: Attenzione alle Etichette

Quando un produttore dichiara che una fotocamera è “4K”, si riferisce al numero di photosites presenti lungo la dimensione orizzontale del sensore. La “K” sta per migliaia (dal prefisso “kilo”): una fotocamera 4K ha quindi almeno 4.096 photosites in orizzontale.

Tuttavia, attenzione: il numero di photosites non corrisponde necessariamente alla risoluzione effettiva delle immagini prodotte dalla fotocamera. Come vedremo nel prossimo capitolo, i photosites non sono la stessa cosa dei pixel dell’immagine finale.

[/vc_column_text][vc_single_image image=”4836″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Conversione da Analogico a Digitale (A/D)

Durante il processo di conversione analogico-digitale (A/D), la carica elettrica accumulata in ciascun fotosito viene trasformata in codice binario tramite un circuito di campionamento. Nelle immagini digitali, ogni fotosito è rappresentato da un valore numerico discreto che rimane costante per l’intera durata del fotogramma.

Il processo che trasforma le cariche elettriche dei fotositi in valori numerici è chiamato quantizzazione. Al termine di ogni fotogramma, la carica di ciascun fotosito viene trasferita al convertitore analogico-digitale. Il valore numerico risultante, chiamato campione, rappresenta la quantità di carica accumulata durante il tempo di esposizione. Essendo valori numerici, questi campioni possono essere archiviati nella memoria del computer e salvati su disco come dati digitali.

Codifica della Luminanza in Valori Numerici

Il sensore risponde alla luce in modo lineare: con il doppio della luce si ottiene il doppio della carica elettrica, con metà della luce si ottiene metà della carica. Tuttavia, se assegniamo valori numerici lineari a queste cariche lineari, emergono rapidamente dei problemi.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4838″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]La Figura sotto mostra un sistema di codifica lineare in cui la luminosità della scena viene misurata su una scala da 0 a 1 (dove 0 rappresenta il nero totale e 1 il bianco massimo). In questo schema, ogni valore di luminosità viene convertito direttamente in un numero digitale seguendo una relazione proporzionale: se la luce raddoppia, raddoppia anche il valore digitale[/vc_column_text][vc_single_image image=”4840″ img_size=”full” css=””][vc_column_text css=””]

Il problema della codifica lineare

L’intervallo di luminanza della scena che va da 1 a 0,5 rappresenta una differenza di uno stop, cioè un dimezzamento della luce (fattore 2). In uno schema di codifica lineare a 10 bit, questo intervallo corrisponde ai valori da 1024 a 512, il che significa che allo stop più luminoso vengono assegnati 512 valori di codice discreti. Scendendo da 0,5 a 0,25 di luminanza abbiamo ancora uno stop, ma qui sono disponibili solo 256 valori di codice (da 512 a 256). Nell’intervallo successivo, da 0,25 a 0,125, abbiamo di nuovo uno stop ma con soli 128 valori disponibili (da 256 a 128). Continuando, da 0,125 a 0,0625 troviamo ancora uno stop con appena 64 valori di codice (da 128 a 64). Il quinto stop sotto 1 dispone di 32 valori, il sesto di 16, il settimo di 8, l’ottavo di 4, il nono di 2, e il decimo stop può essere rappresentato con un unico valore di codice.

Il problema è evidente: con uno schema lineare diretto avremmo valori più che sufficienti per rappresentare il primo stoppiù luminoso, ma valori insufficienti per le zone più scure della curva di esposizione. Nella codifica lineare, infatti, più la luminanza è bassa, minore è il numero di valori disponibili per rappresentarla.

Proprio per questa ragione non utilizziamo uno schema lineare per codificare immagini a 10 bit. Il difetto principale di questo approccio è che, mentre lo stop più luminoso dispone di valori abbondanti, gli ultimi sei stop ricevono troppo pochi valori per essere riprodotti con accuratezza. Questo significa che dobbiamo distribuire i valori di codice disponibili in modo molto più attento e appropriato per ogni stop di luce, in modo da utilizzare i bit disponibili in maniera più efficiente.

Dato che la percezione visiva umana della luminosità segue una funzione logaritmica o di potenza, è più sensato codificare le immagini digitali provenienti dai sensori utilizzando proprio una funzione logaritmica o di potenza. In questo modo la codifica si adatta meglio al modo in cui l’occhio umano percepisce realmente la luce.

[/vc_column_text][vc_column_text css=””]

La “Just Noticeable Difference” (JND) e la “Square Root Integral” (SQRI)

Quanti valori di codice (cioè quanti passaggi discreti di luminanza digitale) sono necessari per garantire che la quantizzazione non sia mai visibile in un’immagine lungo l’intero intervallo dinamico della videocamera? La risposta dipende dalla sensibilità del sistema visivo umano al contrasto, che è limitata. Se due livelli di grigio sono sufficientemente vicini in luminanza, la differenza diventa indistinguibile per l’occhio umano. Inoltre, la capacità di distinguere differenze tonali varia lungo l’intervallo che va dai toni scuri ai toni chiari.

Numerose ricerche scientifiche hanno studiato quanti livelli di colore l’occhio umano possa effettivamente distinguere nelle immagini. La soglia di questa capacità è descritta dal concetto di Just Noticeable Difference (JND), ovvero “differenza appena percettibile”. Nelle immagini, una JND rappresenta la minima variazione di colore o tonalità necessaria affinché un osservatore umano percepisca una differenza tra due colori o tonalità adiacenti almeno la metà delle volte.

Questo concetto è fondamentale perché, se utilizziamo uno schema di codifica con meno valori di codice rispetto alle JND per ogni stop di luce, le sottili gradazioni di colore vengono percepite come bande distinte. Questo fenomeno, chiamato color banding o aliasing cromatico, riduce significativamente la fedeltà della riproduzione dell’immagine originale e compromette l’esperienza visiva. Il numero di JND per stop di luce varia in base al colore e alla luminanza: l’occhio è più tollerante verso differenze maggiori nei toni scuri rispetto ai toni chiari.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””] 

Come regola generale, uno schema di codifica dovrebbe prevedere circa 60–70 valori di codice per stop di luce nelle gamme tonali intermedie. La distribuzione ottimale dei valori per stop varia passando dai toni scuri (dove sono ammesse variazioni percentuali più ampie di contrasto) ai toni chiari (dove sono richieste variazioni percentuali molto più piccole). Questa distribuzione segue quella che viene definita Barten ramp.[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4843″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

A ciascun fotosito viene assegnato un valore numerico digitale che indica l’intensità tonale per il rosso, il verde o il blu. Il numero totale di valori tonali disponibili è chiamato profondità in bit del colore (color bit depth). Maggiore è la profondità in bit, più numerosi sono i valori tonali disponibili e quindi minori sono le differenze di colore appena percettibili.

Nel cinema digitale, la profondità in bit indica il numero di bit digitali utilizzati per codificare ciascun componente di colore di un singolo pixel. Un bit è una cifra binaria che può assumere uno di due stati, comunemente rappresentati come 0/1, vero/falso, sì/no, +/− oppure acceso/spento. Ad esempio:

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_separator color=”custom” border_width=”5″ css=”” accent_color=”#000000″][vc_single_image image=”4846″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Codifica Lineare vs. Gamma/Logaritmica

Gli ingegneri televisivi dei primi anni dovettero risolvere un problema importante: la differenza tra come l’occhio umano percepisce la luminosità e come i dispositivi di visualizzazione la riproducevano. Questo accadde molto prima dell’avvento del cinema digitale. I vecchi monitor televisivi a tubo catodico (CRT) convertivano il segnale video in luce in modo non lineare. In pratica, quando veniva inviato un segnale di grigio medio (valore 0,5), sullo schermo appariva un grigio molto più scuro, circa il 22% dell’intensità del bianco anziché il 50% atteso.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4848″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

La soluzione fu applicare al segnale una correzione matematica chiamata gamma, che compensa questa distorsione. La gamma è una funzione che regola il rapporto tra la luminanza codificata nel sistema e la luminanza effettiva che vogliamo vedere sullo schermo. Questa e altre funzioni simili, come le codifiche logaritmiche, vengono chiamate Opto-Electronic Transfer Functions (OETF), cioè funzioni di trasferimento optoelettroniche. La lettera greca gamma (γ) indica il fattore di correzione che permette di codificare la luce in modo efficiente per la registrazione e la distribuzione del video.

La gamma si manifesta visivamente come un cambiamento di contrasto. Modifica i valori tonali intermedi tra nero e bianco, mentre il nero puro (0,0) e il bianco puro (1,0) rimangono inalterati. Un valore gamma di 1 significa nessuna modifica; valori superiori a 1 aumentano il contrasto, mentre valori inferiori a 1 lo riducono.

La codifica gamma è un metodo non lineare utilizzato principalmente nel video RGB a 8 bit e a 10 bit per l’alta definizione (HDTV), come definito nello standard Rec. 709. In questo sistema, i valori RGB vengono codificati applicando un’elevazione a potenza di circa 0,45 alla luce lineare catturata dal sensore.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4850″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_column_text css=””]

Durante l’elaborazione delle immagini e nelle operazioni di post-produzione (come compositing ed effetti digitali), viene spesso applicata una funzione inversa (OETF⁻¹) che riconverte i dati nel formato lineare originale, necessario per calcoli corretti.

Infine, quando il segnale viene inviato al monitor o al proiettore, viene applicata un’Electro Optical Transfer Function (EOTF) – come gamma 2.2, gamma 2.4, gamma 2.6, Perceptual Quantizer (PQ) o Hybrid Log Gamma (HLG) – che bilancia la correzione applicata in fase di codifica. Il risultato è un sistema visivamente lineare da capo a fondo: il segnale viene deliberatamente “distorto” durante la registrazione con la gamma, in modo che quando viene “distorto” al contrario dal display, l’osservatore percepisca la scala tonale corretta.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Raccomandazione ITU-R BT.709

La raccomandazione ITU-R BT.709 definisce una funzione di trasferimento per la codifica gamma dei segnali delle videocamere in alta definizione (HDTV). La funzione matematica gamma del Rec.709, con γ = 0,45, utilizza una combinazione intelligente: nei valori vicini allo zero usa una retta inclinata che si fonde gradualmente in una funzione di potenza, creando una curva con pendenza continua e senza salti.

Livelli di tensione nei segnali video HD

Nei segnali video HD, quando un fotosito viene esposto a un bianco diffuso al 100%, produce una tensione di uscita di 714 mV, che nel linguaggio tecnico video corrisponde a 100 IRE. Il segnale può spingersi fino al 109% di bianco (sovraesposizione), raggiungendo 785 mV o 109 IRE. Il livello del nero è fissato a 53,57 mV, pari a 7,5 IRE. (IRE è un’unità di misura dei segnali video compositi. Il nome deriva dall’Institute of Radio Engineers.)

Le diverse videocamere che implementano il Rec.709 producono risultati molto simili quando visualizzati su un monitor o con un oscilloscopio a forma d’onda. Le scale tonali in Rec.709 possono essere codificate in due intervalli differenti:

  • Legal range (intervallo legale): codifica la scala tonale dai valori 64 (parte bassa) a 940 (parte alta), lasciando un margine del –4% per la sottoesposizione e del +9% per la sovraesposizione.
  • Full range (o extended range, intervallo completo): codifica il segnale dai valori 4 (parte bassa) a 1019 (parte alta), riservando i bit 0–3 e 1020–1023 per i segnali di sincronizzazione video.

Problemi comuni e soluzioni

La differenza tra queste due codifiche Rec.709 genera spesso confusione quando si passa dall’una all’altra, o quando le impostazioni del monitor o proiettore non corrispondono al tipo di segnale ricevuto. Nella maggior parte dei casi, l’intervallo legal range è la scelta corretta per i livelli video. Una scelta sbagliata si nota subito osservando i neri:

  • Neri troppo scuri o “tagliati” (clipping) indicano che si sta visualizzando un segnale full range su un monitor impostato per legal range
  • Neri “sollevati” o grigiastri indicano che si sta visualizzando un segnale legal range su un monitor impostato per full range

La scelta tra Data Level (full range) e Video Level (legal range) dipende quasi sempre dal codec utilizzato per registrare o esportare, e il 90% dei codec è progettato per i livelli video legali (Video Levels). Alcuni sistemi di elaborazione utilizzano tutti i 1024 valori di codice colore disponibili durante il processing interno, ma questa codifica non è uno standard ufficiale per la trasmissione broadcast.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Codifica Logaritmica per la Pellicola

Il sistema Cineon fu creato da Eastman Kodak all’inizio degli anni ’90 per risolvere il problema della codifica efficiente della luce lineare nel cinema digitale. Cineon fu uno dei primi sistemi digitali cinematografici completi a 4K con codifica a 10 bit log, interamente basato su computer e gestito end-to-end (dall’acquisizione alla distribuzione). Il sistema era composto da tre elementi integrati: uno scanner per pellicola, una workstation digitale con il software Cineon per compositing, effetti visivi, restauro e gestione del colore, e un registratore di pellicola per riportare il contenuto su supporto filmico.

Già alla fine degli anni ’80, il sistema Cineon aveva sviluppato una codifica logaritmica specifica per la scansione della pellicola cinematografica. Questa curva di codifica log divenne il modello di riferimento per tutte le successive codifiche logaritmiche utilizzate nelle videocamere digitali moderne.

Il progetto Cineon portò anche alla creazione del formato file Cineon (.cin) a 10 bit log, progettato specificamente per gestire i fotogrammi digitalizzati della pellicola. Questo formato divenne la base del successivo standard SMPTE Digital Picture Exchange (.dpx). I file Cineon e i file DPX sono molto simili tra loro e vengono spesso usati in modo intercambiabile. Entrambi i formati includono intestazioni (header) contenenti metadati con informazioni sul file e sul suo utilizzo. Le intestazioni dei file DPX sono più flessibili e adattabili alle esigenze di diverse industrie, mentre il formato Cineon è più specificamente orientato al cinema su pellicola.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4853″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_column_text css=””]

Formato File Cineon/DPX a 10 Bit Log

In un file Cineon (.cin o .dpx), ciascun canale colore (rosso, verde, blu) viene codificato con 10 bit, utilizzando tipicamente un intervallo che va dal “punto di nero” al valore 95 fino al “bianco diffuso” al valore 685, su una scala totale da 0 a 1023.

Il valore 685 (bianco diffuso) rappresenta una superficie bianca che riflette la luce in modo uniforme in tutte le direzioni, secondo una riflessione lambertiana. Questo tipo di riflessione è diversa dalle riflessioni speculari (come i riflessi su superfici lucide), che concentrano la luce in un’unica direzione.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Per rendere più naturale la transizione verso le zone molto luminose, fu introdotto un “soft clip” che gestisce gradualmente il passaggio ai bianchi estremi.

I valori superiori a 685 sono riservati ai toni “più chiari del bianco”, come i riflessi speculari o la luce diretta del sole.

I valori inferiori a 95 sono riservati alle informazioni “più nere del nero”.

Quando in laboratorio un negativo viene “stampato più chiaro” per ragioni artistiche o per uniformare i colori tra le scene, queste informazioni nascoste sotto il nero possono emergere e risultare visibili. Allo stesso modo, stampando un negativo “più scuro” è possibile recuperare dettagli dalle zone sovraesposte.

Le scansioni log Cineon catturano l’intera gamma di esposizione di ogni fotogramma di pellicola e la memorizzano come file a 10 bit log. Poiché il negativo cinematografico risponde alla luce in modo logaritmico (proprio come la visione umana), è il negativo stesso a determinare la forma della curva log. Il file digitale deve semplicemente registrare in modo fedele e accurato la densità del negativo a ogni livello tonale. Maggiore è l’esposizione alla luce, più valori di codifica vengono allocati in modo percettivamente utile.

La pellicola viene misurata in unità di densità logaritmica, proporzionali alla densità ottica del negativo. Quando si codifica la latitudine di esposizione della pellicola, è fondamentale distribuire con attenzione il numero di valori di codice per ogni stop di luce, in modo da utilizzare i bit disponibili nel modo più efficiente possibile.

Se si tentasse di comprimere l’intera gamma di luminosità della pellicola nell’intervallo completo 0–1023, rimarrebbero solo circa 75 valori di codice per rappresentare la gamma tra 0 e 1 stop, lo stesso numero di valori che verrebbero allocati per la gamma tra +12 e +13 stop. Ma le alte luci della pellicola non necessitano di così tanti valori di codice, e l’occhio umano non è in grado di distinguere tra due riflessi estremamente luminosi così vicini in intensità.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

Poiché il nero è mappato al valore 95, rimangono solo 928 valori di codice disponibili per rappresentare tutta la restante gamma di esposizione. Nelle scene con luci estremamente intense, i valori possono superare l’intervallo standard Cineon: in questi casi, nelle codifiche DPX standard, quelle luci vengono perse per clipping (taglio).

L’enorme gamma dinamica della pellicola non avrebbe potuto essere preservata durante la post-produzione digitale senza caratterizzare accuratamente la risposta della pellicola (con la sua caratteristica curva a “S”, composta da spalla e piede) e senza codificarla in log. Per questo motivo Kodak sviluppò la curva di codifica log Cineon, in modo da conservare la massima latitudine della pellicola nelle scansioni digitali utilizzando un file log a 10 bit.

[/vc_column_text][vc_column_text css=””]

Intervalli di codifica Cineon/DPX

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4854″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text][/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’evoluzione delle videocamere digitali

Alla fine degli anni ’90 e nei primi anni 2000, le videocamere digitali hanno iniziato un’evoluzione che le avrebbe portate a competere con la pellicola cinematografica tradizionale e, in alcuni casi, a sostituirla completamente.

Nel 1998, la videocamera SONY F900 (con risoluzione 1920 × 1080) e i suoi registratori HDCAM rappresentavano una seria minaccia per la supremazia della pellicola. Tuttavia, uno dei principali ostacoli al suo successo nel mondo del cinema era il sistema di colore Rec 709, che si rivelò inadeguato per le esigenze cinematografiche.

Il caso Star Wars

Nel giugno 2000, Star Wars: Episodio II – L’attacco dei cloni iniziò le riprese interamente con una videocamera SONY HDW-F900, utilizzando il formato Rec 709 con registrazione su nastro HDCAM. Questo fu un momento storico: un grande film hollywoodiano girato completamente in digitale. Tuttavia, la F900 si rivelò rapidamente insufficiente per la qualità richiesta dal grande schermo cinematografico.

Questa esperienza accelerò lo sviluppo di nuove tecnologie. Divenne chiaro che per competere con la pellicola, le videocamere digitali avrebbero dovuto supportare un segnale a 10 bit con campionamento 4:4:4 (larghezza di banda completa per tutti i canali colore).

Nel 2005, l’American Society of Cinematographers e la Producers Guild of America organizzarono la ASC/PGA Camera Assessment Series, un test comparativo storico. Vennero messe alla prova sette videocamere digitali di punta:

  • ARRI D-21
  • Panasonic AJ-HPX3700
  • Panavision Genesis
  • Red One
  • SONY F23 e F35
  • Thomson Grass Valley Viper

Come termine di paragone, venne utilizzata una cinepresa ARRI 435 con quattro diverse pellicole Kodak: due per luce artificiale (tungsteno) e due per luce diurna (daylight).

Il passaggio alla codifica logaritmica

La decisione di gestire il materiale in post-produzione con un flusso di lavoro digitale simile a quello della pellicola impose una svolta fondamentale. Dove possibile, le videocamere dovevano registrare un segnale codificato logaritmicamente anziché con la tradizionale codifica Rec 709.

Ma cosa significa “codifica logaritmica”? È un metodo che imita le caratteristiche del negativo cinematografico, permettendo di:

  • Riprodurre una gamma dinamica più ampia (più dettagli nelle zone molto scure e molto chiare)
  • Catturare uno spazio colore più ricco, simile alla pellicola

Uno dei risultati più importanti di questi test fu l’impegno dell’industria a sviluppare codifiche log specifiche per il cinema e spazi colore più ampi, aprendo la strada al successo delle videocamere digitali nella produzione cinematografica professionale.

L’era delle codifiche log

Oggi, la presenza di codifiche log nelle videocamere da cinema digitali è diventata uno standard. Ogni videocamera che aspira a essere presa sul serio nel mondo del cinema offre il proprio sistema log. Vediamo i più importanti.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

ARRI Log C

La curva Log C è una codifica logaritmica dei valori tonali della scena. La sua caratteristica principale è che la relazione tra l’esposizione (misurata in stop, le unità che indicano il raddoppio o dimezzamento della luce) e i valori numerici usati per codificare il segnale rimane costante su un ampio intervallo.

La forma della curva Log C è simile alla curva Cineon del negativo cinematografico, anche se le caratteristiche cromatiche sono diverse a causa delle differenze fondamentali tra un sensore digitale e la pellicola.

Come funziona Log C

Log C non è un’unica curva, ma un insieme di curve diverse per diversi valori di sensibilità (EI/ASA, simili agli ISO in fotografia). Ogni curva funziona secondo questo principio:

  • Il segnale del sensore corrispondente a una luminanza del 18% di grigio (il grigio medio di riferimento) viene mappato a un valore di 400 in un segnale a 10 bit
  • Un segnale a 10 bit offre 1024 valori totali (da 0 a 1023)
  • Il valore massimo della curva cambia in base alla sensibilità impostata

Esempio pratico: Se chiudi il diaframma dell’obiettivo di uno stop e aumenti la sensibilità da EI 800 a EI 1600, il sensore catturerà uno stop in più di informazioni nelle alte luci (le zone luminose). Poiché Log C rappresenta i valori reali di esposizione della scena, il valore massimo della curva aumenta di conseguenza.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4863″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4864″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

SONY S-Log

S-Log è in realtà una famiglia di tre curve (S-Log, S-Log2 e S-Log3), ciascuna ottimizzata specificamente per le videocamere cinematografiche SONY per massimizzare le prestazioni del sensore.

L’evoluzione delle curve S-Log

Le curve S-Log sono progettate con un obiettivo preciso: registrare e trasmettere quante più informazioni possibili catturate dal sensore, preservando tutto lo spazio colore e la gamma dinamica disponibili.

S-Log1: Il direttore della fotografia può preservare fino al 1000% della gamma dinamica dello standard Rec 709 (ovvero 10 volte superiore).

S-Log2: La gamma dinamica aumenta fino al 1500% rispetto a Rec 709.

S-Log3: Offre prestazioni simili a S-Log2, ma con importanti miglioramenti:

  • Maggiori dettagli nelle ombre (zone scure)
  • Gamma dinamica estesa tra toni medi e alte luci
Le caratteristiche tecniche di S-Log3

S-Log3 si basa sul sistema Cineon Digital Negative revisionato nel 2007 e presenta caratteristiche specifiche:

  • Niente “shoulder” (la compressione graduale delle alte luci)
  • “Toe” ridotto (la curva non lineare nell’area delle ombre è minimizzata)

Questo rende S-Log3 più simile a una codifica logaritmica pura rispetto a S-Log2, offrendo una maggiore flessibilità nella correzione colore in fase di post-produzione.


In sintesi: Le codifiche logaritmiche hanno rivoluzionato il cinema digitale, permettendo alle videocamere di catturare immagini con una qualità e una flessibilità paragonabili, e in alcuni casi superiori, alla tradizionale pellicola cinematografica.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Display Referred vs. Scene Referred

Quello che possiamo apprendere dall’evoluzione dalla codifica Rec 709 alla codifica log è che l’intento creativo della cinematografia ci ha spinti da un approccio di codifica percettiva Display Referred (ovvero “riferito al display”), in cui le immagini vengono trasformate direttamente per adattarsi alle caratteristiche non lineari dello schermo utilizzato, verso un approccio Scene Referred (ovvero “riferito alla scena”), in cui i dati dell’immagine vengono mantenuti in un formato che rappresenta il più fedelmente possibile i valori di luce reali della scena originale, preservando tutti i colori e l’ampia gamma dinamica catturati.

La codifica log cattura l’integrità delle immagini originali dalle videocamere digitali in modo più fedele rispetto alla codifica Gamma, e al contempo permette di memorizzare le immagini in file molto più piccoli rispetto alla codifica lineare (che registra i valori di luce così come sono fisicamente). Quindi, per ora, la codifica log ci offre il flusso di lavoro più efficace: massima qualità con dimensioni gestibili.

Ogni produttore comprende ormai che caratterizzare le prestazioni di un nuovo sensore e sviluppare una curva di codifica log specifica per quel sensore è una delle chiavi del successo di una videocamera.

Nota le variazioni in % IRE (l’unità di misura del segnale video, dove 0% è il nero e 100% è il bianco) e nei valori di codice numerici dal nero al grigio medio fino al bianco al 90% tra una codifica e l’altra. Le decisioni che i produttori di videocamere prendono nella codifica variano ampiamente da un modello all’altro. Una conseguenza diretta è che in post-produzione è necessario avere accesso ai profili di de-log accurati per ogni videocamera utilizzata, in modo da poter decodificare e correggere correttamente il colore delle immagini. Non è raro che una scena includa materiale girato con mezza dozzina di videocamere diverse, quindi l’accesso e l’uso dei corretti profili di codifica e decodifica è assolutamente imprescindibile.

[/vc_column_text][/vc_column][/vc_row]

Read More
Marco Billardello
Guida ai setup da videomaker: quattro fasce di budget a confronto

[vc_row][vc_column][vc_column_text css=””]

In questo articolo analizziamo quattro setup diversi per videomaker, suddivisi in base a differenti fasce di budget:  1000€, 3000€, 5000€ e i 10.000€. Ogni fascia offrirà una panoramica delle caratteristiche principali, del modo ottimale per allocare il budget e delle inevitabili rinunce da considerare per avvicinarsi il più possibile al limite stabilito. Va comunque tenuto presente che, a seconda delle scelte personali e della disponibilità dei prodotti, il costo complessivo potrebbe risultare leggermente inferiore o leggermente superiore al budget indicato.

Setup da 1000€

Considerando che oggi uno smartphone di fascia alta, come un iPhone, parte da circa 1000€ e che con questa cifra non è semplice ottenere un setup completo e versatile per la produzione video, ho optato per una delle fotocamere Sony apsc più economiche, che ritengo abbia un rapporto qualità-prezzo davvero notevole. Questo setup è pensato per chi desidera iniziare a lavorare seriamente con il video, pur avendo un budget molto limitato, senza però rinunciare troppo alla qualità dell’immagine.

La camera in questione infatti si tratta della Sony ZV-E10, una fotocamera mirrorless progettata per i vlogger, con sensore APS-C e obiettivi intercambiabili. È stata sviluppata combinando elementi delle precedenti linee Sony a6xxx e ZV-1, offrendo funzionalità avanzate come:

  • Schermo LCD orientabile
  • Microfono a tre capsule con paravento incluso
  • Spia frontale di registrazione
  • Pulsante “Bokeh Switch” per sfocare lo sfondo
  • Jack per cuffie e microfono

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]Registrazione video:
La ZV-E10 permette di registrare in 4K e Full HD con alcune limitazioni:

  • In 4K a 30/25/24p con stabilizzazione attiva c’è un crop di 1,4x; in modalità standard o senza stabilizzazione, il crop si riduce a 1,2x o scompare.
  • In Full HD (1080p) non c’è crop se la stabilizzazione è disattivata, mentre con stabilizzazione attiva si ha un crop di 1,4x.

Attualmente, la ZV-E10 ha un prezzo su Amazon di circa 550€ (690€ con obiettivo kit). Tuttavia, consiglio di acquistare solo il corpo macchina e abbinarlo a un obiettivo fisso luminoso come il Samyang AF 24mm F2.8 FE (Amazon circa 300€).[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4119″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]Con i restanti 150€ si può investire nel sistema wireless audio SYNCO G2 A2, che include due trasmettitori, un ricevitore e due microfoni lavalier.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4122″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_column_text css=””]Perché il SYNCO G2 A2?

Questo microfono wireless è compatto, facile da usare e ideale per vlog, interviste e video. Offre:

  • Trasmissione stabile fino a 150m
  • Filtro low-cut per un suono più pulito
  • Batteria con 8 ore di autonomia e display per monitorare le impostazioni
    Unica pecca: non è impermeabile e manca la ricarica rapida, ma resta un’ottima scelta per chi cerca qualità a un prezzo accessibile.

Li potete trovare su Amazon a 149€[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Setup da 3000€

Con un budget di 3000€, possiamo permetterci un setup più completo, incluso un sistema di illuminazione. Come camera consiglio la Sony Alpha 6700 (su Amazon a circa 1500€), abbinata al versatile Sigma 18-50mm f/2.8 DC DN (550€) e al sistema audio Hollyland Lark Max (280€).

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]Caratteristiche della Sony Alpha 6700:

  • Registrazione video in 4K sovracampionato da una lettura completa del sensore 6K senza pixel binning
  • Slow motion fino a 240fps in Full HD (con crop 1,5x)
  • Profili colore S-Log 3, S-Cinetone e HLG
  • Codec video avanzati (XAVC S, XAVC S-I e XAVC HS)
  • Funzionalità AI come Auto-Framing e Eye AF, con riconoscimento di soggetti complessi (animali, auto, treni, insetti)

Per il reparto luci, suggerisco:

 [/vc_column_text][vc_single_image image=”4132″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4124″ img_size=”full” css=””][vc_single_image image=”4133″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Setup da 5000€

Quando si parla di un setup da 5000 euro, la scelta diventa davvero difficile, poiché ci troviamo davanti a una vasta gamma di telecamere di altissima qualità. La selezione delle attrezzature dipende molto dalle esigenze specifiche del videomaker. Ad esempio, avrei potuto consigliare la nuova Pyxis Camera di Blackmagic o la Pocket Cinema Camera 6K, entrambe ottime soluzioni per chi lavora su set strutturati e pianificati. Tuttavia, nonostante siano eccezionali, non le ritengo ideali per un videomaker che opera in contesti dinamici e con ritmi serrati. Le vedo più adatte a piccole produzioni cinematografiche o a set pubblicitari, dove c’è il tempo di preparare meticolosamente ogni ripresa.

Personalmente, mi trovo spesso a dover completare progetti con tempi ristretti e necessito di attrezzature che siano rapide da impostare e pronte all’uso. In queste situazioni, sono disposto persino a rinunciare alla qualità superiore del B-Raw offerta da Blackmagic, in favore di un sistema che mi consenta di lavorare con maggiore agilità e fluidità operativa.

In questo contesto, Sony offre delle soluzioni più ‘plug and play’, che garantiscono una qualità d’immagine eccellente senza richiedere configurazioni complesse. Non intendo consigliare la miglior fotocamera Sony in assoluto, bensì una tra le mirrorless che monta uno dei migliori sensori per il video in assoluto: la Sony ZV-E1. Questa scelta permette di destinare una parte del budget a ottiche di alto livello, ottenendo così un setup versatile e adatto a molteplici situazioni.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4126″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

La Sony ZV-E1 è una nuova fotocamera full-frame pensata per vlogger, ma che grazie alle sue specifiche tecniche si adatta perfettamente anche a esigenze più avanzate. Erede di molte caratteristiche dell’a7S III, si distingue per le straordinarie capacità in condizioni di scarsa illuminazione e per le significative migliorie nell’autofocus, arricchite da funzionalità avanzate basate sull’intelligenza artificiale.

Caratteristiche principali

Sensore e processore:

  • Sensore da 12 megapixel derivato dall’a7S III.
  • Processore Bionz XR, lo stesso utilizzato nei modelli di fascia alta come a7R V, a7 IV e a1.

Formato compatto e leggero:

  • Design simile alla Sony A7C, che ne fa la fotocamera full-frame più leggera e compatta della gamma.

Specifiche tecniche principali

  • Registrazione video fino a 4K/60p senza crop.
  • Aggiornamento firmware (previsto per giugno) per abilitare la registrazione in 4K/120p e Full HD/240p.
  • Registrazione a 10-bit 4:2:2 con modalità All-Intra.
  • Profili colore S-Cinetone e S-Log.
  • Modalità Cinematic Vlog che registra automaticamente in 4K con rapporto d’aspetto 2.35:1, a 24p o 25p, con profilo colore S-Cinetone predefinito (personalizzabile con 4 “look” e 4 “mood”).

Stabilizzazione e batteria:

  • Nuovo Dynamic Active Stabilizer, che migliora ulteriormente la stabilizzazione dell’immagine.
  • Alimentata dalla batteria NP-FZ100, già utilizzata nei modelli mirrorless di fascia alta di Sony.

Punti di forza

  1. Eccellenti capacità in condizioni di scarsa illuminazione:
    • Come l’a7S III, la ZV-E1 offre immagini pulite fino a ISO 12.800, con una sensibilità massima che raggiunge ISO 256.000.
  2. Autofocus migliorato:
    • Riconoscimento avanzato di soggetti come uccelli, auto/treni, aerei e persino insetti.
    • Funzione “bokeh switch” che consente di evidenziare rapidamente un soggetto creando uno sfondo sfocato.
    • Compensazione del focus breathing per transizioni di messa a fuoco più fluide.
  3. Funzionalità AI avanzate:
    • Framing stabilizer: mantiene automaticamente il soggetto al centro dell’inquadratura.
    • Auto framing: ritaglia dinamicamente l’inquadratura per rendere il video più dinamico, con possibilità di regolare velocità ed entità del ritaglio.

Formati di registrazione video

XAVC HS 4K:

  • 3840 x 2160, 10 bit, 4:2:0
  • Frame rate: fino a 59.94p con bitrate fino a 200 Mbps.

XAVC S 4K:

  • 3840 x 2160, 8 bit, 4:2:0
  • Modalità 4:2:2 10 bit con bitrate massimo di 200 Mbps.

XAVC S HD:

  • 1920 x 1080, 8 bit, 4:2:0
  • Frame rate fino a 119.88p con bitrate fino a 100 Mbps.

Attualmente ho trovato in offerta la Sony ZV-e1 a 1940€ da Photospecialist.

Obiettivi consigliati

Dal momento che il budget maggiore deve essere destinato alle ottiche per ottenere un setup completo e versatile, suggerisco di investire in due obiettivi che coprano un’ampia gamma focale a un costo contenuto:

  1. Sigma 28-45mm f/1.8 (Art) DG DN SONY E-Mount:
    • Si tratta del primo obiettivo zoom al mondo con apertura costante di f/1.8, offrendo una straordinaria qualità d’immagine e versatilità.
    • Prezzo attuale: 1590€ presso Fotoluce Films.
  2. SIRUI Aurora 85mm f/1.4:
    • Ideale per interviste e riprese con sfocato pronunciato.
    • Apertura rapida f/1.4, eccellente nitidezza anche a tutta apertura.
    • Autofocus veloce, silenzioso e preciso.
    • Peso ridotto (540 g), ideale per l’uso su gimbal.
    • Prezzo attuale: 500€ su Amazon.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4129″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4128″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Upgrade audio

Per quanto riguarda l’audio, consiglio un upgrade con i DJI Mic 2, che offrono qualità audio eccellente e la funzione di registrazione interna a 32 bit. Questo permette di ottenere un audio più pulito senza preoccuparsi eccessivamente della regolazione del volume in fase di registrazione.

  • Prezzo: 340€ (senza lavalier).

Se si desiderano microfoni lavalier aggiuntivi, suggerisco:

  • Rode Lavalier Go: capsula piccola e discreta, ideale per essere nascosta sotto gli indumenti usando il sistema URSA Fur Circles. Prezzo 95€ la coppia
  • Lavalier DJI: per chi vuole risparmiare qualcosina ci sono anche i lavalier dji, con la medesima qualità sonora dei rode, unica pecca hanno la capsula più grande, quindi più difficile da nascondere sotto gli indumenti, ma ottimi per essere usati con la capsula in vista, costo 60€ la coppia.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Reparto illuminazione

Infine, per il reparto luce possiamo considerare lo stesso setup proposto per il budget inferiore, con un investimento di poco superiore ai 500€, garantendo così un’illuminazione adeguata per qualsiasi tipo di ripresa.

Con queste scelte, il setup da 5000 euro risulta ben bilanciato, versatile e capace di affrontare un’ampia gamma di situazioni lavorative, dal vlog dinamico alle produzioni più strutturate.

[/vc_column_text][vc_column_text css=””]

Setup da 10.000€

Se sei arrivato al punto di investire un budget di 10.000€ per la tua attrezzatura video, significa che sei un professionista. Questo budget ti consente di fare scelte oculate che migliorino la versatilità del tuo equipaggiamento senza sacrificare la qualità, un aspetto fondamentale che abbiamo considerato anche nei budget più ridotti.

Ma è meglio puntare su una singola videocamera di fascia alta o su due dispositivi più versatili? Personalmente, sceglierei la seconda opzione, perché avere un secondo corpo macchina offre più flessibilità, soprattutto per progetti come documentari o interviste dove due prospettive diverse sono quasi essenziali.

Come primo corpo macchina consiglio quello che utilizzo io quasi ogni giorno, quella camera che sta in mezzo tra la “cine line” sony e la serie “Alpha”, sto parlando della Sony FX3.

Questa videocamera full-frame è una delle migliori opzioni sul mercato per la qualità video, grazie al suo sensore da 12 MP, e la straordinaria pulizia ad alti ISO, lo stesso sensore della Sony A7SIII. Ecco alcune delle sue caratteristiche principali:

  • Risoluzione video: Fino a 4K 100p.

  • Profili colore professionali: S-Log3, S-Cinetone.

  • Output RAW: Fino a 14 bit.

  • Aggiornamenti futuri: Registrazione in B-RAW tramite Blackmagic Video Assist.

  • Funzionalità cinema: Shutter angle, Cine EI.

  • Slow Motion: Fino a 240fps in 1080p.

  • Sistema di raffreddamento attivo: Ventola integrata.

Il prezzo di listino della Sony FX3 è di 4700€, ma attualmente è disponibile a 3948€ su Fotoluce Films, un’offerta davvero imperdibile.

Sony ZV-E1 o FX30?

Per il secondo corpo macchina, due opzioni si contendono il podio: la Sony ZV-E1 e la Sony FX30. Entrambe si posizionano nella fascia di prezzo di circa 2200€, ma con caratteristiche diverse che le rendono adatte a esigenze differenti.

  • La Sony ZV-E1, con sensore Full Frame, offre un’ottima qualità d’immagine e una notevole capacità in low-light, pur essendo orientata verso i content creator. Ha un design compatto, perfetto per riprese in movimento.
  • La Sony FX30, invece, è una videocamera APS-C della Cine Line. Nonostante il sensore più piccolo, offre molte delle funzionalità professionali della FX3 (ne eredita il corpo infatti), come cine EI, S-Log3 e un eccellente sistema di raffreddamento, a un prezzo più contenuto.

Entrambe sono valide scelte, e il confronto merita un articolo a parte, ma in questo caso la scelta può cambiare in base alle tue esigenze.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Ottiche

Come ottiche anche qui consiglio l’acoppiata Sigma 28-45 1.8 e il Sirui Aurora 85 1.4.

Questi due obiettivi, insieme, coprono la maggior parte delle necessità di un filmmaker, mantenendo un alta qualità e tanta luce.

Soluzioni Audio: DJI Mic 2 e Sennheiser MKE 600

Partiamo dall’audio, un elemento essenziale per la riuscita di qualsiasi intervista. Come opzione principale, consigliamo come per il budget di 5000€ i microfoni DJI Mic 2, abbinati ai lavalier Rode. Questo setup ti garantisce un audio chiaro e nitido, ideale per interviste e riprese sul campo, al costo complessivo di 435€.

Visto che il budget ce lo consente, suggeriamo di aggiungere anche un boom, una soluzione più funzionale rispetto ai lavalier in alcune situazioni, come riprese statiche o ambienti rumorosi. Una scelta eccellente è il Sennheiser MKE 600, disponibile a circa 250€. Si tratta di un microfono direzionale di alta qualità, perfetto per catturare il dialogo in maniera precisa, riducendo al minimo i rumori di fondo. Questo microfono può essere attaccato direttamente alla camera, perchè si può alimentare anche a batterie, e quindi fare a meno della phantom 48v, però consiglio un registratore esterno per avere un audio più pulito, e un registratore dall’ottimo rapporto qualità prezzo è indubbiamente lo Zoom H1 XLR, un registratore a 32bit con due ingressi XLR, e attualmente l’ho trovato al prezzo scontato di 150€ da musicalstore2005.

Non abbiamo incluso nel budget accessori come cavi, bracci o antivento, poiché si tratta di componenti secondari che non influiscono pesantemente sulla spesa complessiva. Tuttavia, ne parleremo più avanti per fornirti alcune raccomandazioni utili.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4148″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4147″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Treppiedi Robusti e Versatili

Con due videocamere pronte per la ripresa, è indispensabile disporre di treppiedi affidabili e adatti al tipo di produzione. Per questo livello di qualità, consigliamo:

  1. SIRUI SQ75+VHS10: un treppiedi robusto con una testa fluida eccezionale, perfetto per garantire stabilità e movimenti fluidi durante le riprese. Lo trovi su Amazon a circa 440€.
  2. K&F S211: un treppiedi compatto, leggero e versatile, ideale per chi ha bisogno di trasportarlo facilmente o utilizzarlo in spazi ridotti. Il costo è di 105€.
  3. Neewer Testa Fluida: per il K&F S211, consigliamo di aggiungere una testa fluida come questa di Neewer, disponibile a 45€, per ottenere movimenti fluidi e precisi.

Con una spesa totale di poco superiore ai 500€, avrai due treppiedi adatti a qualsiasi situazione di ripresa, completando perfettamente il tuo setup.

Luci

Come setup luci, visto che siamo al limite del nostro budget, ci orienteremo sempre con lo stesso setup trattato in precedenza, è un setup base, ma efficace per la maggior parte delle esigenze.

Altre cose essenziali che non possono mancare

Sebbene abbiamo già trattato gli elementi principali, ci sono alcuni strumenti essenziali ma che influiscono relativamente poco ne budget, che dipendono molto dalle esigenze personali. Vediamoli nel dettaglio.

1. Cavi di Qualità per Microfoni

Ad esempio, se usate un microfono come lo Sennheiser MKE 600, il tipo di cavo dipende dalle vostre esigenze: preferite un cavo da 1 metro o uno da 5 metri? Un buon cavo XLR può costare circa 20€. Il mio consiglio è di investire in un prodotto di qualità. Io utilizzo i cavi Cordial, che garantiscono affidabilità e durata.

2. C-Stand: Il Migliore Amico di un Videomaker

Un altro accessorio che consiglio vivamente è il C-Stand. Anche nelle versioni più compatte, è uno strumento incredibilmente versatile. Rispetto ai tradizionali stativi, offre molte più opzioni di posizionamento, soprattutto per le luci. Inoltre, è perfetto per reggere il boom. Immaginate di girare un’intervista: voi siete dietro la camera, mentre il boom è posizionato sopra l’intervistato grazie al C-Stand. Un vero must-have per chi lavora nel mondo del video.

3. Filtri ND: Essenziali per il Controllo della Luce

Un buon filtro ND è indispensabile per qualsiasi videomaker. La qualità è fondamentale: io utilizzo i filtri ND variabili Nisi, ma se preferite risparmiare e puntare alla massima qualità, i filtri ND fissi sono un’ottima scelta. Valutate le vostre necessità e scegliete un filtro che soddisfi le vostre esigenze.

4. Borse e Zaini per l’Attrezzatura

Proteggere la vostra attrezzatura è essenziale. Potete optare per una borsa morbida o un case rigido, in base alle vostre preferenze. Su Amazon ci sono molte opzioni valide, come gli zaini K&F Concept, che offrono un ottimo rapporto qualità-prezzo.

5. Schede di Memoria: Qualità e Prestazioni

La scelta della scheda di memoria dipende dal tipo di videocamera:

  • Sony ZV-E10: Per questa camera, anche le schede più economiche come le SanDisk V30 sono sufficienti. Una scheda da 128 GB costa circa 26€.
  • Sony ZV-E1: Qui è necessario puntare su schede V90, che permettono di registrare in tutti i formati supportati dalla camera. Io utilizzo le ProGrade, che hanno un prezzo più elevato: una scheda da 64 GB costa circa 80€, mentre quella da 128 GB arriva a 150€.
  • Sony FX3: Anche per questa camera, le schede V90 sono una scelta affidabile e performante. Tuttavia, per chi cerca la massima velocità e affidabilità, la FX3 supporta le CFexpress Tipo A, che offrono prestazioni superiori ma a un costo elevato. Ad esempio, una scheda CFexpress Tipo A da 160 GB costa circa 330€.
    Va notato che, a differenza delle altre camere Sony, sulle Cinema Line (di cui la FX3 fa parte) non è previsto il cashback. Tuttavia, Sony propone spesso offerte interessanti: quando ho acquistato la mia FX3, era inclusa una scheda CFexpress Tipo A a soli 100€, una promozione che viene riproposta frequentemente su questo modello.

Grazie per aver letto l’articolo, e se vuoi mi pui seguire anche su instagram per supportarmi in quello che faccio.[/vc_column_text][/vc_column][/vc_row]

Read More
Marco Billardello
Blackmagic presenta PYXIS

[vc_row][vc_column][vc_column_text css=””]Si è parlato per anni dell’estetica della Blackmagic Pocket Cinema Camera e del suo form factor, che non è stato gradito da tutti, con molti utenti che speravano in una camera dal design più tradizionale e pratico. La richiesta di una camera in stile box è stata spesso avanzata, e in maniera inaspettata, Blackmagic ha sorpreso tutti con l’annuncio della sua nuova PYXIS 6K. Questa videocamera box-style, che è stata presentata poco prima del NAB 2024, sta suscitando molto interesse nella community, con opinioni contrastanti ma un grande entusiasmo per la sua uscita.

Blackmagic PYXIS: sensore full-frame con 13 stop di gamma dinamica

Il sensore misura 36 x 24 mm e, secondo Blackmagic, offre una gamma dinamica di 13 stop. Puoi consultare il nostro test di laboratorio sulla Blackmagic Cinema Camera 6K per verificare l’accuratezza di questa affermazione. La risoluzione è di 6048×4032 e la camera dispone di un doppio ISO nativo (ISO 400/3200), con un intervallo massimo di ISO 25.600 per un’elevata performance in condizioni di scarsa illuminazione. L’intera area del sensore può essere utilizzata in modalità Open Gate 3:2, consentendo un migliore riposizionamento delle inquadrature in post-produzione o l’uso di obiettivi anamorfici.


 [/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4077″ img_size=”520″ css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4076″ img_size=”520″ css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Nuovo mirino elettronico (EVF)

IIl nuovo EVF, annunciato insieme all’URSA Cine 12K, è compatibile anche con il modello box-style. Il mirino offre un display OLED a colori da 1920×1080 e pulsanti personalizzabili soft-touch. Si collega alla camera tramite USB-C e sarà compatibile con altre videocamere. Al momento non è previsto un bundle per la PYXIS 6K, quindi l’EVF deve essere acquistato separatamente al prezzo di $ 1.695, inclusivo del sistema di montaggio per collegare l’EVF alla PYXIS o all’URSA Cine 12K. Resta sintonizzato su CineD per un’intervista dedicata a questo accessorio.

3 opzioni di attacco per obiettivi, ma senza filtri ND interni

La camera è disponibile in tre modelli, con attacchi per obiettivi L-Mount, EF o PL. Questi attacchi non possono essere cambiati, quindi scegli attentamente quale opzione preferisci. L’attacco L-Mount è probabilmente la scelta più sicura e flessibile, dato che esistono già molti adattatori EF e PL per L-Mount sul mercato. Nota però che la versione con attacco PL è leggermente più costosa rispetto alle altre due.[/vc_column_text][vc_single_image image=”4079″ img_size=”full” css=””][vc_column_text css=””]

Opzioni di registrazione

La Blackmagic PYXIS ha due slot per schede CFexpress integrate e una porta di espansione USB-C per registrare direttamente su dischi flash esterni o SSD

Risoluzioni di ripresa

  • 6048 x 4032 (Open Gate 3:2) fino a 36 fps
  • 4832 x 4032 (Anamorphic 6:5) fino a 36 fps
  • 6048 x 3408 (6K 16:9) fino a 46 fps
  • 6048 x 3200 (6K DCI 17:9) fino a 48 fps
  • 6048 x 2520 (6K 2.4:1) fino a 60 fps
  • 4096 x 3072 (Super 35 4:3) fino a 50 fps
  • 4096 x 2304 (4K 16:9) fino a 60 fps
  • 4096 x 2160 (4K DCI 17:9) fino a 60 fps
  • 2112 x 1184 (Super 16 16:9) fino a 100 fps
  • 1920 x 1080 (1080 HD 16:9) fino a 120 fps

Frame rate

Il frame rate massimo del sensore dipende dalla risoluzione e dal codec selezionati. Frame rate di progetto: 23.98, 24, 25, 29.97, 30, 50, 59.94 e 60 fps.
Frame rate off-speed fino a 60 fps in 6K 2.4:1 e 4K DCI 17:9, 100 fps in Super 16 16:9 e 120 fps in 1080HD

Elenco delle caratteristiche principali

  • Sensore full-frame da 36×24 mm con risoluzione 6K (6048×4032).
  • Modalità Open Gate 3:2, altezza completa 6:5 per anamorfico e Super 35.
  • Scelta di modelli con attacco obiettivo L-Mount, PL o EF bloccato.
  • Registra alla risoluzione massima fino a 36 fps o fino a 120 fps in modalità finestra.
  • Schermo LCD HDR integrato da 4″ con luminosità di 1500 nit.
  • Registra in Blackmagic RAW e proxy H.264.
  • Registrazione su schede CFexpress dual slot ultra veloce.
  • Ethernet o connessione dati mobile per lo streaming remoto.
  • EVF Blackmagic URSA Cine opzionale.
  • 12G-SDI per il monitoraggio con overlay di stato.
  • Ingresso mini XLR professionale con alimentazione phantom a 48V.
  • Soluzione completa per lo streaming su YouTube, Facebook, Twitter e altre piattaforme.
  • Batterie ad alta capacità della serie BP-U.

Prezzo

Attualmente, la Blackmagic PYXIS 6K è disponibile al prezzo di € 2.999,00 su Thomann, nella versione con attacco L-Mount, che personalmente consiglio vivamente. Questo attacco offre una grande versatilità, poiché permette di adattare facilmente ottiche PL, che sono prive di motore di messa a fuoco. Dato che molte ottiche PL sono di alta qualità, questa scelta consente di ottenere risultati eccellenti senza compromettere la funzionalità.

Al contrario, il sistema EF, seppur ancora molto popolare, potrebbe rischiare di perdere rilevanza negli anni. Canon, infatti, sta puntando tutto sul suo nuovo sistema RF con le nuove fotocamere mirrorless, e questa potrebbe essere una direzione che renderà il sistema EF meno interessante nel lungo periodo. È importante precisare che questa è solo una mia opinione personale e da prendere con le pinze. Certamente, se il sistema EF dovesse subire un declino, non accadrà dall’oggi al domani.

Inoltre, grazie alla collaborazione con Panasonic e Sigma, il sistema L-Mount sta guadagnando sempre più terreno. Entrambe le aziende offrono ottiche con un ottimo rapporto qualità-prezzo, il che rende questa scelta ancora più vantaggiosa. L’ampia disponibilità di nuove ottiche sia da parte di Panasonic che di Sigma, unita alla qualità e competitività dei loro prezzi, fa pendere decisamente la bilancia a favore del sistema L-Mount.

 

Grazie per aver letto l’articolo, e se vuoi mi pui seguire anche su instagram per supportarmi in quello che faccio.

[/vc_column_text][/vc_column][/vc_row]

Read More
Marco Billardello
Il Mistero dei Sant'Elmo - Dietro le quinte

[vc_row][vc_column][vc_column_text css=””]

Oggi voglio raccontarvi di un progetto che mi sta particolarmente a cuore: Il mistero dei Sant’Elmo.
Si tratta di un cortometraggio realizzato per partecipare al 48 Hour Film Project, un contest cinematografico che mette alla prova le capacità tecniche e creative di giovani talenti. La sfida? Creare un cortometraggio, dalla pre-produzione alla post-produzione, in sole 48 ore!

L’idea è nata quasi per gioco durante le riprese di un altro corto, XP|30 di Max Standford. Mentre chiacchieravamo sul set, io, Davide Salerno, insieme ai registi Giuseppe Billardello e Dario Parisi, ci siamo detti scherzando: “Perché non partecipiamo al 48H Film Festival?” Sembrava una battuta fine a se stessa, ma dopo meno di un mese, mio fratello Giuseppe mi ha comunicato che stavano davvero organizzandosi per il festival.

All’inizio, Dario Parisi aveva formato una sua squadra per girare il cortometraggio a Roma, ma a causa di alcune difficoltà tecniche abbiamo deciso di unire le forze e realizzare il progetto a Mazara del Vallo.

Sia Giuseppe, che Dario e Davide provengono dalla scuola di cinema indipendente Piano Focale, che a sua volta stava preparando un team con alcuni dei migliori studenti per partecipare allo stesso festival. Per me, a quel punto, è diventata una vera sfida: dovevo fare meglio di loro!

Questa competizione amichevole ha reso l’esperienza ancora più intensa e stimolante.

La Sfida

La sfida più grande è stata realizzare un progetto così ambizioso in sole 48 ore con una squadra che, nella sua totalità, non aveva mai lavorato insieme. Alcuni di noi si conoscevano già: io, ad esempio, avevo collaborato con Giuseppe, e durante le riprese del cortometraggio di Max Standford mi ero occupato del backstage. Tuttavia, non avevo mai avuto un ruolo di responsabilità sul set con gli altri membri del team.

Nei giorni precedenti al festival, abbiamo iniziato a organizzarci, ma presto sono sorti i primi imprevisti: due membri della squadra, per problemi di salute, non hanno potuto partecipare. Inoltre, a quattro giorni dall’inizio delle riprese, arriva una telefonata inaspettata: il nostro fonico ha la febbre alta e non può garantire la sua presenza. In preda all’ansia, contatto subito il mio caro amico e collega Gabriele Tringali, chiedendogli in prestito la strumentazione audio. Lui si rende disponibile e affida l’attrezzatura a Samuele Montalto, che in quel momento si trovava a Roma. Il giorno successivo, Samuele riesce a farcela arrivare, risolvendo così un problema che avrebbe potuto compromettere tutto il progetto.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4757″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4758″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

È Venerdì mattina, 22 novembre 2024.

Io nel frattempo continuo a preparare l’attrezzatura insieme a Samuele Montalto, e nello specifico abbiamo preparato due Sony Fx3 per le riprese del corto, entrambe settate in XAVC S-I DCI 4K 24p Slog-3, invece per il Backstage abbiamo preparato due Sony A7cII, una per le foto fatte da Chiara Piccione, e l’altra per le riprese effettuate da Lucrezia Benigno.

Mancano poche ore al via. Sono il primo ad arrivare alla nostra base operativa, seguito poco dopo da Davide Salerno (montatore) e Dario Parisi (regista). A ruota arrivano anche Giuseppe Billardello (regista), Samuele Montalto (camera operator), Paola Lucido e Irene Nasca (trucco e parrucco), Salvo Vilardi (segretario di edizione), uno degli attori, Roberto Maddiona e direttamente dalla Spagna arriva anche Max Standford (direttore di produzione)

Dopo gli ultimi preparativi, ci colleghiamo in diretta con Roma, dove avviene l’estrazione del genere per ogni squadra e vengono annunciati i tre elementi obbligatori da inserire nel cortometraggio: un personaggio, un oggetto di scena e una frase. Il conto alla rovescia è ufficialmente iniziato.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4762″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4761″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Mentre seguiamo la diretta, arriva anche Nicola Adamo, uno degli autori. Poco dopo viene estratto il genere assegnato alla nostra squadra: Whodunit. Io, che speravo tanto in un horror, ma non me ne faccio niente della speranza, bisogna solo mettersi subito al lavoro.

Io e Nicola iniziamo a buttare giù qualche idea. Nel frattempo, si fanno le 19:30 ed escono anche i tre elementi obbligatori da inserire nel cortometraggio:

  • Personaggio: Fabio Ansaldi, amministratore di condominio
  • Oggetto di scena: Schiaccianoci
  • Frase: “Domani castagne e vino rosso.”

A quel punto, ci riuniamo tutti per un briefing. Dario prende la lavagna e iniziamo a discutere: ognuno dice la sua, proviamo a definire cosa significa per noi il genere Whodunit e quali elementi dovrebbe includere la storia. In poco tempo, la prima facciata della lavagna è completamente piena di appunti e idee sparse, senza un’apparente logica. Ma noi, nel caos, ci navighiamo tranquillamente.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_images_carousel images=”4770,4769,4768,4767,4766,4765,4764,4763″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Le ore scorrono e, senza quasi accorgercene, arriviamo alle 23:00. Alcuni membri del team vanno a casa, mentre restiamo io, Dario, Davide e Giuseppe. Quest’ultimo, però, accusa un malore ed è costretto ad allontanarsi. A quel punto, iniziamo seriamente a temere che il progetto possa saltare.

Passiamo tutta la notte a riempire lavagne di idee, cancellare, riscrivere da capo. Sono ormai le 4 del mattino e Giuseppe non risponde al telefono. Proviamo a chiamarlo più volte, finché alle 5 finalmente riusciamo a contattarlo. Alle 6 ci raggiunge e, senza perdere altro tempo, lui e Dario si chiudono in una stanza per stendere la sceneggiatura definitiva.

Ed è qui che arriva la sorpresa: da un copione inizialmente pensato per due attori, ci ritroviamo con una sceneggiatura che ne prevede sette. A quel punto, mi incazzo come una bestia, ma è inutile protestare. Abbiamo scelto la strada più lunga e difficile e ormai non si torna indietro. Sono le 7:30 del mattino. Sono già passate 12 ore. Ora non resta che trovare gli altri attori.

Giuseppe inizia a fare una serie di chiamate per trovare gli ultimi attori e, per una volta, la fortuna è dalla nostra parte. Carlotta Pernicone arriva accompagnata dal suo ragazzo, Alessandro Caporali, anche lui un bravissimo attore. Visto che eravamo ancora alla ricerca di interpreti, ne approfittiamo subito e lo coinvolgiamo nel progetto. Terzo attore trovato.

La prima chiamata di Giuseppe va a segno: Amir Boubaker, con grande entusiasmo, accetta di partecipare. Ne mancano ancora tre.

A quel punto, non riusciamo più a trovare altri attori professionisti, quindi decidiamo di allargare la ricerca a chi non fa l’attore di mestiere. Il primo nome che ci viene in mente è mio fratello, Ivan Billardello, che alla fine ricoprirà un ruolo fondamentale nel cortometraggio. Un altro ruolo viene assegnato a Dario Parisi, mentre l’ultimo lo affidiamo al proprietario della prima location, Giacomo Butera.

La mattinata scorre velocemente. Nel frattempo, io, Samuele Montalto e Alessandro Critti ci occupiamo degli ultimi preparativi e iniziamo a caricare le auto per l’inizio delle riprese. La sera prima avevamo programmato l’inizio alle 8:00, ma ormai sono già le 11:00. E come se non bastasse, ci avvisano che la location sarà disponibile solo a partire dalle 14:00.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_images_carousel images=”4783,4782,4777,4780,4776,4774,4775,4773,4778,4779,4781″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Sono il primo ad arrivare sul posto, un maneggio, insieme a Samuele, Alessandro e Giuseppe. Poco dopo, ci raggiunge il resto del team. Sono già le 15:30 e dobbiamo ancora microfonare tutti gli attori: dire che siamo in ritardo è un eufemismo.

Per recuperare tempo, decidiamo di semplificare la parte tecnica: niente monitor di preview per i registi, audio registrato direttamente in camera e nessuna luce artificiale per le riprese diurne. Non è la soluzione ideale, ma è l’unico modo per riuscire a girare tutto nei tempi previsti.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4785″ img_size=”full” css=””][/vc_column][vc_column width=”1/2″][vc_single_image image=”4784″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Diamo ufficialmente il via alle riprese, iniziando con Amir. Decidiamo di girare la sua scena in movimento con la Sony FX3, il Tamron 20-40mm f/2.8 e il DJI RS4, mentre Alessandro Critti, da remoto con lo smartphone, mi aiuta nella gestione del fuoco.

Subito dopo, il commissario e l’ispettore raggiungono Amir (il Conte), che li accompagna alla scoperta del cadavere, magnificamente interpretato del nostro direttore di produzione Max Standford. Per questa scena optiamo per una ripresa a mano libera con due FX3, per ottenere un effetto più dinamico e immersivo, e accelerare con i tempi.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_images_carousel images=”4797,4796,4795,4794,4793,4792,4791,4790,4788,4787,4786″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

All’interno del maneggio c’era anche una struttura che inizialmente avevamo scelto per le riprese degli interrogatori. Tuttavia, per ragioni di tempo e considerando che l’alimentazione elettrica del maneggio dipendeva esclusivamente da un impianto fotovoltaico, decidiamo di spostarci in un’altra location, dove avevamo a disposizione corrente elettrica senza limiti.

Una volta completato il backup delle riprese fatte al maneggio, ci affrettiamo a cambiare location. Per l’illuminazione, utilizzo un Godox SL150II posizionato all’esterno della stanza per simulare la luce diurna e un piccolo tubo LED sopra il tavolo dell’interrogatorio per attenuare le ombre sui volti. Anche qui lavoriamo con due camere in contemporanea. Durante le riprese dell’interrogatorio ci ha molto colpito la performance di Carlotta Pernicone dove ha trasmesso emozioni e capacità recitative non indifferenti.

Concludiamo le riprese degli interrogatori intorno alle 4 di notte. Esausti, ci spostiamo subito in terrazzo per girare la scena con le spade e, verso le 7 del mattino, iniziamo la ripresa della televendita con il Commissario La Scarpa.

A quel punto, crollo dalla stanchezza: mi siedo davanti alla videocamera e, senza neanche accorgermene, mi addormento. Quando mi sveglio, intorno alle 13, mi affretto a raggiungere il resto della squadra alla base operativa. Trovo Giuseppe, Dario e Davide impegnati nel montaggio, Ark (Max Standford) che sta preparando la documentazione, e Samuele Montalto che dorme in auto. Nel pomeriggio arrivano anche le truccatrici, accompagnate da Salvo Vilardi, prima della loro partenza per Palermo.

La fase di montaggio si rivela più complessa del previsto: ci ritroviamo a lavorare fino all’ultimo minuto e, alla fine, ho solo un’ora di tempo per il color grading.

Quando finalmente esportiamo il cortometraggio, siamo esausti. Guardiamo lo schermo in silenzio, ognuno immerso nei propri pensieri. Avremmo potuto fare meglio? Forse. Ma quello che abbiamo fatto, in quelle 48 ore di pura follia, resterà per sempre con noi.

Abbiamo corso contro il tempo, affrontato imprevisti, trovato soluzioni all’ultimo secondo, litigato, riso e perfino dormito in piedi. Ma soprattutto, abbiamo creato qualcosa di nostro.

. Questo progetto ha un grande valore per me, e sono certo che, imparando dagli errori di quest’anno, il prossimo potremo fare ancora di meglio.

Prima di lasciarvi ci tengo a scrivere qui di sotto tutta il Team dietro questo progetto:

🎬 Regia
GIUSEPPE BILLARDELLO e DARIO PARISI

🎭 Attori principali

  • CARLOTTA PERNICONE: Alma Di Sant’Elmo
  • ROBERTO MADDIONA: Ispettore Serafino
  • IVAN BILLARDELLO: Commissario La Scarpa
  • AMIR BOUBAKER: Conte
  • ALESSANDRO CAPORALI: Fabio Ansaldi, amministratore di condominio
  • GIACOMO BUTERA: Duca
  • DARIO PARISI: Gino, il giardiniere

📝 Sceneggiatura
DARIO PARISI, DAVIDE SALERNO, GIUSEPPE BILLARDELLO, NICOLA ADAMO

🎥 Direzione della fotografia
MARCO BILLARDELLO, SAMUELE MONTALTO

📋 Direttore di produzione
MAX STANDFORD

💄 Trucco e Parrucco
PAOLA LUCIDO, IRENE NASCA

✂️ Montaggio
DAVIDE SALERNO

🎨 Color Grading
MARCO BILLARDELLO

🏢 Produzione
ABAWORLD.EU, BLACK OPERA, AISHAXXI

🎬 Aiuto regia
CHIARA PICCIONE

📸 Backstage
LUCREZIA BENIGNO

📑 Segretario di edizione
SALVO VILARDI

🎥 Operatori di ripresa
SAMUELE MONTALTO, MARCO BILLARDELLO

📹 Assistente Operatore
ALESSANDRO CRITTI

💾 Data manager e Video assist
DAVIDE SALERNO

🏛 Con la collaborazione del
Comune di Mazara del Vallo

🎞 Distribuzione
MARTE STUDIOS

Dopo aver ringraziato tutto il Cast e la Crew, vi lascio con un breve video che racconta il dietro le quinte di questo fantastico progetto.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_video link=”https://youtu.be/qYDtcQwYYd4″ css=””][/vc_column][/vc_row]

Read More
Marco Billardello
Aspect Ratio: La Guida Completa al Formato nei Video

[vc_row][vc_column][vc_column_text css=””]

L’aspect ratio è una componente fondamentale del linguaggio visivo, in grado di influenzare profondamente l’esperienza dello spettatore. Questo articolo esplorerà la storia e l’evoluzione dell’aspect ratio, dai primi formati della pellicola alle moderne tecnologie digitali, analizzando le differenze tra i principali rapporti d’aspetto come il 16:9, il 2.39 (Cinemascope), e altri. Parleremo inoltre degli errori comuni nell’uso del formato nel digitale e approfondiremo il ruolo dell’anamorfico.

Cos’è l’Aspect Ratio?

L’aspect ratio (rapporto d’aspetto) rappresenta il rapporto tra la larghezza e l’altezza di un’immagine o di un video. Si calcola dividendo la larghezza per l’altezza:

Ad esempio, un video con risoluzione 1920×1080 pixel ha un aspect ratio di:1.78:1

I Formati Più Diffusi
  • 1.78:1: O più comunemente chiamato 16:9, standard universale per televisori, monitor e piattaforme digitali.
  • 4:3: Lo standard storico della televisione analogica e dei film muti.
  • 1.85:1: Detto “Flat”, è comune nei film americani prodotti per il cinema.
  • 2.39:1: Conosciuto anche come Cinemascope o Scope, è largamente utilizzato per film epici o di grande impatto visivo.
  • IMAX: Varia da 1.43:1 a 1.90:1, offrendo un’immersione visiva unica.

[/vc_column_text][vc_single_image image=”4180″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’Aspect Ratio nella Pellicola: Storia ed Evoluzione

I Primi Formati

Nei primi decenni del cinema, il formato più comune era il 4:3, derivato dalla pellicola 35mm utilizzata in orientamento verticale. Con il passare del tempo, l’industria ha sviluppato formati più larghi per migliorare l’immersione dello spettatore:

Formato

Aspect Ratio

Utilizzo

16mm

Varia

Documentari, film indipendenti

35mm

4:3, 1.85:1

Standard cinematografico storico

70mm (5 perforazioni)

2.20:1

Film epici, es. “Lawrence d’Arabia”

70mm (15 perforazioni)

1.43:1

IMAX, esperienze immersive

IMAX

1.43:1, 1.90:1

Esperienze immersive

[/vc_column_text][vc_single_image image=”4341″ img_size=”full” css=”” title=”Comparazione delle pellicole più utilizzate”][vc_single_image image=”4342″ img_size=”large” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

70mm a 15 Perforazioni vs 70mm a 5 Perforazioni

Il formato 70mm a 15 perforazioni è una variante avanzata del formato 70mm, concepito per ottenere una qualità dell’immagine e una risoluzione senza pari. Questo formato, che prende il nome dalla quantità di perforazioni per fotogramma (15 rispetto alle 5 perforazioni del formato standard), offre vantaggi decisivi in termini di qualità visiva, specialmente su schermi di grande formato.

70mm a 15 perforazioni: Caratteristiche principali
  1. Risoluzione più alta e dettaglio superiore: Con 15 perforazioni per fotogramma, il formato 70mm a 15 perforazioni raccoglie una quantità significativamente maggiore di informazioni visive rispetto al 70mm a 5 perforazioni. Questo si traduce in una risoluzione notevolmente più alta, rendendo possibile una proiezione estremamente dettagliata, che è visibile anche su schermi di dimensioni molto grandi. Le immagini appaiono più nitide, ricche di dettagli, con un contrasto elevato e una resa cromatica più ricca.
  2. Ideale per schermi di grandi dimensioni: La larghezza maggiore della pellicola e la sua capacità di registrare più informazioni per fotogramma lo rendono particolarmente adatto per schermi IMAX e per altre sale cinematografiche dotate di grandi superfici di proiezione. Gli spettatori seduti a distanze diverse dallo schermo possono godere di immagini estremamente dettagliate e ben definite, con una qualità che non degrada visibilmente anche su schermi enormi.
  3. Maggiore superficie per fotogramma: Ogni fotogramma nel formato a 15 perforazioni è più grande rispetto a quello a 5 perforazioni, il che consente una rappresentazione più precisa e definita dell’immagine cinematografica. Questa maggiore superficie, infatti, è anche una delle ragioni per cui le immagini proiettate con questo formato risultano così impressionanti visivamente.
  4. Utilizzo nel sistema IMAX: Sebbene il 70mm a 15 perforazioni sia associato con il sistema IMAX, è importante notare che non è limitato esclusivamente a questo. Il sistema IMAX sfrutta questo formato per massimizzare l’effetto visivo su schermi giganti, offrendo un’esperienza cinematografica immersiva. Tuttavia, il formato 70mm a 15 perforazioni può essere utilizzato in altre applicazioni cinematografiche di alta qualità dove è necessario mantenere una risoluzione straordinaria e un livello di dettaglio che il formato tradizionale non può raggiungere.
70mm a 5 perforazioni: Caratteristiche principali
  1. Utilizzo tradizionale e rapporto d’aspetto: Il formato 70mm a 5 perforazioni è stato storicamente usato per film epici e spettacolari, come “Lawrence d’Arabia” o “2001: Odissea nello Spazio”. Questo formato è caratterizzato dal rapporto d’aspetto 2.20:1, che è particolarmente adatto per le proiezioni cinematografiche tradizionali. Pur avendo una risoluzione inferiore rispetto al 70mm a 15 perforazioni, il 70mm a 5 perforazioni offre comunque un livello di qualità superiore rispetto al 35mm, mantenendo una definizione d’immagine elevata e una buona resa cromatica.
  2. Maggiore compatibilità con sistemi di proiezione convenzionali: Il formato 70mm a 5 perforazioni è ampiamente compatibile con i proiettori tradizionali, quindi viene utilizzato anche in teatri che non sono equipaggiati per la proiezione del formato a 15 perforazioni. Le immagini sono comunque di alta qualità, ma la risoluzione e il livello di dettaglio sono inferiori rispetto al formato a 15 perforazioni.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_single_image image=”4182″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Differenze tra IMAX e 70mm a 15 Perforazioni

La distinzione tra IMAX e 70mm a 15 perforazioni può sembrare sottile, ma ci sono alcune differenze chiave che influenzano l’esperienza visiva.

In sostanza, IMAX è un sistema di proiezione che utilizza pellicola 70mm a 15 perforazioni, ma non tutti i film proiettati in 70mm a 15 perforazioni sono IMAX.

Ecco le principali differenze:
  • Sistema completo: IMAX è un sistema completo che include non solo la pellicola, ma anche proiettori, schermi e sale progettate specificamente per massimizzare l’impatto visivo.
  • Formati e aspect ratio: Mentre IMAX è principalmente associato a un formato widescreen molto ampio, il 70mm a 15 perforazioni può essere utilizzato anche per altri formati, come il formato quadrato.
  • Qualità dell’immagine: La qualità dell’immagine IMAX è generalmente considerata superiore grazie a una serie di fattori, infatti le pellicole IMAX sono spesso trattate per ottenere un contrasto più elevato e una maggiore fedeltà cromatica.

Quindi, quando si parla di IMAX, si fa riferimento a un’esperienza cinematografica completa e ottimizzata, mentre il 70mm a 15 perforazioni è semplicemente un tipo di pellicola.

Per riassumere:

  • Tutti i film IMAX utilizzano pellicola 70mm a 15 perforazioni.
  • Non tutti i film proiettati in 70mm a 15 perforazioni sono IMAX.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Cinemascope e Anamorfico

Negli anni ’50, il Cinemascope introdusse il rapporto 2.39:1 utilizzando lenti anamorfici.

L’anamorfico è una tecnica ottica in cui le lenti comprimono l’immagine orizzontalmente durante la ripresa. Ciò consente di catturare un campo visivo più ampio sullo stesso supporto (pellicola o sensore digitale). In fase di proiezione o post-produzione, un altro sistema ottico o software “decomprime” l’immagine, ripristinando le proporzioni originali.

Il risultato è un’immagine più larga rispetto all’aspect ratio nativo del supporto, spesso caratterizzata da un’estetica unica, con effetti come bagliori orizzontali (lens flares) e sfocature ovali (bokeh).

[/vc_column_text][vc_single_image image=”4186″ img_size=”full” css=””][vc_column_text css=””]

L’anamorfico nell’era della pellicola

Nell’epoca della pellicola, l’anamorfico fu introdotto per rispondere alla necessità di offrire al pubblico un’esperienza visiva più immersiva. Hollywood adottò il formato anamorfico, noto come CinemaScope, negli anni ‘50 per competere con la crescente popolarità della televisione.

Con pellicole da 35mm, le lenti anamorfica permettevano di ottenere un aspect ratio di 2.35:1 o 2.39:1, comprimendo l’immagine orizzontalmente di un fattore 2x durante la registrazione. Al momento della proiezione, un obiettivo anamorfico decompressava l’immagine, ripristinando le proporzioni corrette. Questo approccio consentiva di massimizzare l’uso del supporto filmico mantenendo una risoluzione elevata.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4191″ img_size=”full” css=””][vc_column_text css=””]

L’anamorfico nell’era digitale

Con il passaggio al digitale, l’anamorfico ha subito un’evoluzione per adattarsi ai nuovi sensori delle telecamere. I sensori digitali, spesso nativamente 16:9, non corrispondono direttamente agli aspect ratio cinematografici più larghi. Le lenti anamorfica permettono di mantenere il look e l’ampiezza visiva del cinema tradizionale, comprimendo l’immagine sul sensore e sfruttando al massimo la risoluzione disponibile.

In fase di post-produzione, l’immagine viene decompressa digitalmente per ottenere il formato finale desiderato. Questo processo conserva l’estetica distintiva dell’anamorfico, mentre l’avanzamento delle tecnologie ha reso più accessibile la correzione di eventuali distorsioni o aberrazioni ottiche.

 

Effetto visivo: l’impronta dell’anamorfico

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/2″][vc_column_text css=””]

L’anamorfico è riconoscibile per caratteristiche visive uniche, tra cui:

  • Bokeh ovale: le aree fuori fuoco assumono una forma ellittica piuttosto che circolare.
  • Lens flare orizzontali: le sorgenti luminose producono bagliori lunghi e orizzontali, un tratto distintivo che aggiunge drammaticità.
  • Compressione dell’immagine: un look “più stretto” delle proporzioni durante la ripresa.
  • Ampiezza del campo visivo: consente di includere più elementi nella scena senza dover utilizzare una lente ultra-wide, che potrebbe introdurre distorsioni indesiderate.

Questi tratti rendono l’anamorfico particolarmente adatto a produzioni cinematografiche e televisive che vogliono ottenere un look epico o drammatico.

[/vc_column_text][/vc_column][vc_column width=”1/2″][vc_single_image image=”4193″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Compressione e decompressione: una spiegazione visiva

Immaginate di riprendere un paesaggio con una lente anamorfico 2x. L’immagine catturata sul sensore sarà compressa orizzontalmente: ad esempio, un cerchio apparirà come un’ellisse più stretta. Durante la decompressione, l’ellisse tornerà a essere un cerchio, ripristinando l’immagine alla sua proporzione naturale.

Graficamente, possiamo rappresentare così:

Compressione:

    • Input: Cerchio (scena reale).
    • Output sul sensore: Ellisse (immagine compressa).
  • Decompressione:
    • Input: Ellisse (immagine compressa).
    • Output finale: Cerchio (immagine decompressa).

Questa trasformazione preserva la risoluzione verticale, massimizzando il dettaglio e mantenendo un elevato standard qualitativo.

Risoluzione: nativa vs di output

Quando si parla di risoluzione con l’anamorfico, è fondamentale distinguere tra:

  • Risoluzione nativa: Il numero di pixel catturati dal sensore, che rimane invariato nonostante la compressione.
  • Risoluzione di output: La risoluzione del file finale, che può variare a seconda delle proporzioni decompressa e del dispositivo di visualizzazione.

Ad esempio, un sensore 4K (4096×2160) che registra con una lente 2x produrrà un’immagine decompressa con una larghezza effettiva doppia, ottenendo un file finale in 8192×2160.

L’anamorfico è una tecnologia che unisce tecnica e creatività, offrendo una firma visiva senza tempo. Nell’era digitale, il workflow si è semplificato, ma l’essenza rimane invariata: catturare immagini che raccontano storie con un tocco cinematografico unico. Sia che lavoriate su un blockbuster hollywoodiano o su un progetto indipendente, le lenti anamorfica possono trasformare il modo in cui il pubblico vive il vostro lavoro.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Flat vs 16:9: Qual è la Differenza?

È importante distinguere tra il formato “Flat” (1.85:1) e il 16:9 (1.78:1):

  • 1.85:1: Leggermente più largo, è pensato per il cinema.
  • 16:9: Nato per la televisione, è lo standard attuale dei video digitali.

Se prendiamo come esempio un video in FullHD 1920×1080(16:9), l’analogo Flat sarà 1998×1080.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Aspect Ratio nel Digitale: Errori Comuni

Commedia di un errore: le bande nere nei video digitali

Nell’era del digitale, in cui la qualità visiva e l’attenzione ai dettagli sono fondamentali, si assiste a un errore ricorrente e piuttosto grave nel montaggio video: l’utilizzo improprio delle bande nere per simulare un aspect ratio cinematografico. Questo problema, apparentemente banale, compromette l’integrità del prodotto finale e dimostra una scarsa conoscenza tecnica.

  • 16:9 è il formato più comune per i video digitali e per le televisioni moderne (1920×1080 pixel nella risoluzione Full HD).
  • 2.39:1 è uno degli standard più usati nel cinema, spesso percepito come più “cinematografico” per via della sua ampiezza.

Quando si decide di adottare un aspect ratio diverso dal 16:9, è necessario comprendere le implicazioni tecniche di questa scelta per evitare errori.

L’errore delle bande nere

Un errore comune è aggiungere bande nere sopra e sotto un video 16:9 per simulare un formato più ampio come il 2.39:1. Questo approccio è sbagliato per una ragione fondamentale: il contenitore rimane comunque 16:9, anche se l’aspetto visivo è simile al 2.39:1.

In pratica:

  • Se hai un video 1920×1080 e aggiungi bande nere, l’output finale avrà ancora una risoluzione di 1920×1080.
  • Le bande nere non sono parte del video vero e proprio, ma semplicemente riempiono lo spazio, creando un’illusione ottica di aspect ratio diverso.

Questo approccio genera diversi problemi:

  1. Compressione inefficiente: Le bande nere aumentano inutilmente la dimensione del file senza aggiungere informazioni visive rilevanti.
  2. Compatibilità ridotta: Piattaforme come YouTube o Vimeo, progettate per il 16:9, potrebbero visualizzare il video con distorsioni o ridimensionamenti non desiderati.
  3. Scarsa professionalità: Inserire bande nere invece di lavorare sull’aspect ratio reale trasmette una mancanza di cura e competenza tecnica.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4199″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

La soluzione corretta: cambiare il contenitore

Per ottenere un video con aspect ratio 2.39:1, bisogna modificare il contenitore del video, non semplicemente aggiungere bande nere. Questo si fa impostando una timeline nel software di montaggio con le proporzioni desiderate.

Esempio pratico

Se vuoi creare un video 2.39:1 partendo da un filmato in 1920×1080:

  1. Calcola l’altezza corretta: 1920 / 2.39 = 804 pixel.
  2. Imposta una nuova timeline con dimensioni 1920×804 nel tuo programma di montaggio.
  3. Riposiziona il video nella timeline, assicurandoti di adattare il contenuto visivo al nuovo aspect ratio.
  4. Esporta il video nelle stesse proporzioni, senza bande nere.

Così facendo, il file finale sarà effettivamente in formato 2.39:1, senza informazioni visivamente inutili come le bande nere.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

Perché è importante farlo correttamente
  1. Qualità visiva superiore: Un video senza bande nere è più pulito, ottimizzato e si adatta meglio ai diversi dispositivi di riproduzione.
  2. Compressione efficiente: Codificatori video come H.264 o H.265 gestiscono meglio un contenitore ottimizzato, riducendo la dimensione del file senza sacrificare la qualità.
  3. Estetica professionale: I video con un aspect ratio corretto mostrano attenzione ai dettagli e dimostrano competenza tecnica, elementi fondamentali nel settore audiovisivo.

Aggiungere bande nere per simulare un aspect ratio diverso è un errore tecnico che penalizza il risultato finale. Lavorare direttamente con contenitori e timeline appropriati è l’unico modo per ottenere un prodotto professionale e tecnicamente valido. Chiunque lavori nel montaggio video dovrebbe comprendere l’importanza di queste scelte, perché la differenza tra un lavoro amatoriale e uno professionale si misura anche nei dettagli.

La prossima volta che crei un video, chiediti: sto aggiungendo valore al mio progetto o sto commettendo una “commedia di un errore” con le bande nere?

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

come calcolare l’aspect ratio

Calcolare l’aspect ratio è un’operazione piuttosto intuitiva. Basta dividere la larghezza dell’immagine in pixel per la sua altezza. Ad esempio, per uno schermo con risoluzione 1920×1080, il calcolo sarebbe 1920 / 1080, che ci dà un risultato di circa 1,78. Questo valore ci indica che la larghezza dello schermo è 1,78 volte più grande della sua altezza.  In termini più semplici, l’aspect ratio ci fornisce un rapporto tra la larghezza e l’altezza di un’immagine o di uno schermo. È un parametro fondamentale, in quanto determina la forma dell’immagine e influisce sulla sua percezione visiva.

Calcolare l’altezza in pixel per ottenere l’aspect ratio desiderato

Supponiamo di avere un video in Full HD (1920×1080) e vogliamo ridimensionarlo per ottenere un aspect ratio cinematografico di 2.39:1, mantenendo la stessa larghezza (1920 pixel).

Ecco come procedere:

  1. Converti l’aspect ratio in un numero decimale: 2.39:1 è equivalente a 2.39.
  2. Imposta un’equazione:
    • Indichiamo con “x” l’altezza che vogliamo trovare.
    • Sappiamo che l’aspect ratio è dato dal rapporto tra la larghezza e l’altezza: 1920 / x = 2.39
  3. Risolvi l’equazione:
    • Per trovare “x”, moltiplichiamo entrambi i membri dell’equazione per “x” e poi dividiamo entrambi i membri per 2.39.
    • Otteniamo: x = 1920 / 2.39 ≈ 803,34 pixel.

Quindi, per ottenere un aspect ratio di 2.39:1 a partire da un video 1920×1080, dovrai ritagliarlo o ridimensionarlo a 1920×803 che comunemente si arrotonda a 804 pixel.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4732″ img_size=”full” css=””][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]Abbiamo analizzato in dettaglio i principali aspect ratio utilizzati nel cinema e nei video, spiegando come calcolarli e il ruolo dei contenitori di formato. Tuttavia con l’evoluzione digitale, i formati video sono diventati sempre più numerosi e complessi. Inoltre, i calcoli spesso non producono numeri interi, richiedendo arrotondamenti per ottenere valori utili. Per semplificare, e per offrire una risorsa pratica, di seguito trovate una tabella dettagliata tratta dal sito unravel.com, che elenca tutti i formati orizzontali standardizzati. Potete anche scaricare il PDF completo cliccando qui. Questa guida vi aiuterà a scegliere il formato video ideale per ogni esigenza!


PDF VERSION
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_single_image image=”4205″ img_size=”full” css=””][vc_column_text css=””]
PDF VERSION
[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]

L’aspect ratio rappresenta molto più di un semplice parametro tecnico: è una potente leva narrativa che contribuisce a definire l’estetica e l’impatto visivo di un’opera audiovisiva. Dalla storia dei formati tradizionali come il 4:3 e il 16:9, fino all’uso sofisticato di tecnologie moderne come l’anamorfico, ogni scelta di rapporto d’aspetto riflette un’intenzione creativa e una visione artistica.

Per i professionisti e gli appassionati del settore, comprendere le peculiarità di ciascun formato è fondamentale per evitare errori tecnici e massimizzare la qualità del prodotto finale. Errori comuni, come l’uso improprio delle bande nere, possono compromettere non solo l’aspetto tecnico del video ma anche l’impressione che esso lascia sul pubblico. Per questo, lavorare con contenitori e proporzioni corrette è essenziale per garantire un risultato professionale e ottimizzato per le piattaforme moderne.

Infine, l’aspect ratio non è solo un’eredità del passato, ma un elemento in continua evoluzione. Con le tecnologie digitali sempre più accessibili e potenti, le possibilità creative non hanno limiti. Sia che si tratti di una produzione hollywoodiana, di un documentario indipendente o di un semplice video per il web, scegliere e utilizzare consapevolmente il formato giusto può fare la differenza tra un contenuto ordinario e un’esperienza visiva indimenticabile.

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text css=””]Grazie per aver letto l’articolo, e se vuoi mi pui seguire anche su instagram per supportarmi in quello che faccio.[/vc_column_text][/vc_column][/vc_row]

Read More