Video – discorsi intorno all’editing – attività 5 – #edmu14

Clicca qui per scaricare la versione in PDF (196 KB)


Interno cabina della locomotiva a vapore HG 3/4 Nr. 1
Interno cabina della locomotiva a vapore HG 3/4 Nr. 1 “Furkahorn”, fabbricata in Winterthur (CH) nel 1913 per operare sulla tratta a scartamento ridotto di alta montagna Brig-Furka-Disentis, successivamente venduta in Vietnam nel 1947, dove ha operato fino al 1993, anno nel quale è stato riportata in Svizzera per viaggiare nella stagione estiva sulla linea Oberwald-Furka-Realp. Foto trasformata in scala di grigi e aggiustata per vedere il fumo… (vedi testo). Elaborazione grafica eseguita con Gimp.

 

Dipingere con la luce

Un caro amico che ci ha lasciato troppo presto, Andrea, cameraman e montatore video, mi diceva: “Tutto parte dalla fotografia e fare fotografia vuol dire conoscere la luce. Il mio mestiere consiste nello studio della luce.”

Il fotografo di National Geographic, Richard Olsenius, ha intitolato Dipingere con la luce un capitolo del suo Corso di fotografia in bianco e nero. Dopo avere raccontato come la luce diretta appiattisca troppo, come la luce del mezzogiorno sia la meno indicata per dipingere le immagini, come invece il primo mattino e il tardo pomeriggio possano essere magici , come addirittura le brutte giornate possano arricchire di toni preziosi l’immagine con l’uso sapiente di obiettivi luminosi e post-elaborazione o come negli interni convenga illuminare i soggetti con luce diffusa, magari luce che viene dalla finestra, alla fine Olsenius conclude così (P. 74):

Ora divertitevi, violate le regole, sperimentate. Lasciate che la vostra visione personale sia il vostro punto di vista, ma ricordate che, come tutto, il successo non si ottiene da un giorno all’altro.

La foto della locomotiva all’inizio del post è dipinta? Sì, perché non è tal quale. Ad essere franchi l’idea che esista una realtà tal quale è di per sé peregrina. Lorenzo Viani scrisse che

il pittore che si propone la rappresentazione del vero è sempre nel falso

Vale anche per la fotografia perché il risultato è figlio di numerosi fattori: formato, inquadratura, focale, tempo di esposizione, pellicola o chip, operazioni condotte in camera oscura o post-processing digitale. Uno scatto, illimitati risultati. Non esiste la “foto vera” e poi le sue possibili variazioni. Ogni scatto produce un insieme di dati e con questi si possono produrre infinite immagini, nessuna più vera delle altre. Dipende da ciò che si vuole dire.

Ho fatto quella foto con un piccolo apparecchio automatico. Gli apparecchi fotografici non producono la “foto vera” ma propongono la miglior scommessa prodotta da un algoritmo, migliore nel senso immaginato dagli ingegneri che hanno progettato la macchina. Nella fattispecie, la foto proposta dall’apparecchio non descriveva ciò che mi aveva colpito: quel fumino evanescente sulla destra, appena visibile, sprigionato dalla macchina con il respiro del sonno. Nella foto non si vedeva più, invece era proprio quello che mi aveva spinto a fare lo scatto: nella pancia della macchina di ferro c’è qualcosa che si muove, c’è del caos, che è quello che trasforma tutte quelle immobili tonnellate di ferro in una locomotiva. Questa era l’idea che mi piaceva e che volevo condividere. La foto sul display era deludente, tutta colorata e piena di particolari, non rivelava quello che aveva sollecitato l’immaginazione. Ma ero consapevole di avere acquisito molte più informazioni con quello scatto e confidavo che nella tranquillità dello studio sarei forse riuscito a recuperare quello che avevo visto.

Questo è editing. È esattamente qui che si dispiega l’immaginazione, è qui che la macchina diviene strumento e l’uomo autore. Molto molto lontano dalle “selfie”, per intendersi.

Raccontare

Le immagini congelano la scena ma possono narrare se offrono una chiave di lettura. L’osservatore costruisce il proprio racconto – è la chiave che conta. Il video sembrerebbe invece narrare esplicitamente ma non è così banale. Non basta premere il tasto rosso e zoomare a perdifiato.

Prendiamo una videocamera – o un software di screencasting – e si riprenda qualcosa che si dipana nel tempo. Raramente si ottenuto così un prodotto finito. In gergo cinematografico, è raro che un’intera storia venga realizzata mediante un piano sequenza, ovvero mediante la scansione temporale del “girato”. Il video finale ha un suo tempo, diverso dal tempo naturale del piano sequenza, nel quale vengono collocate sequenze diverse, a prescindere dalla loro origine, magari anche singoli fotogrammi o immagini sintetizzate in altri modi. Questo processo è quello del montaggio, o più precisamente del montaggio non lineare, con il quale si possono andare a prendere sequenze qualsiasi, in modo del tutto arbitrario all’interno del girato. Un metodo questo che è peculiare degli strumenti di montaggio software, con i quali si possono applicare anche effetti particolari senza distruggere il girato, potendo cioè sempre fare un passo indietro. Prima dell’avvento del digitale, il montaggio rappresentava – e rappresenta – un lavoro defatigante: tipicamente, per produrre un cortometraggio di dieci minuti, potevano occorrere molte giornate di lavoro taglia-incolla eseguito su ore o decine di ore di girato. Anche per chi usa il digitale il montaggio è un lavoro molto lungo ma oggi ci sono possibilità e flessibilità che prima erano inimmaginabili.

Nei software per montaggio è invalso l’uso di chiamare le singole sequenze clip e la successione delle clip storyboard. In realtà la storyboard è nata ben prima che tali sistemi vedessero la luce. Si trattava di una serie di bozzetti che venivano – e spesso vengono – disegnati, per tratteggiare la successione delle scene più significative. Esiste anche un software che serve a comporre storyboard, celtx, scaricabile in una versione free piuttosto articolata, da quello che ho potuto vedere in cinque minuti. Simpatico, ma penso che si possa fare benissimo anche a mano. Può essere che organizzare una storyboard a priori sia utile ma mi guardo bene dall’enunciare regole in proposito. Anzi, colgo l’occasione per allargare la visione, menzionando l’esperienza di un grande italiano: Vittorio De Seta, scomparso lo scorso novembre. Facciamoci introdurre De Seta da Martin Scorsese (copertina posteriore del DVD):

Avevo sentito parlare dei documentari di De Seta come accade per i luoghi leggendari: qualcuno li aveva visti, nessuno sapeva dove. De Seta stesso era una figura leggendaria e misteriosa. A New York all’inizio degli anni sessanta avevo visto Banditi a Orgosolo. Uno dei film più insoliti e straordinari… De Seta era un antropologo che si esprimeva con la voce di un poeta.
Da dove veniva questa voce? Qualche tempo fa ho ricevuto un regalo inaspettato, le copie in 35mm dei documentari diretti da Vittorio De Seta tra il 1954 e il 1958. Titoli incantevoli: Lu tempu di li pisci spata… Isole di fuoco… Contadini del mare… Parabola d’oro…
Li ho proiettati, e sono rimasto stupefatto, sopraffatto da un’emozione intensa, come se, oltrepassato lo schermo, mi fossi ritrovato in un mondo mai conosciuto, che improvvisamente riconoscevo.
Era l’Italia del Sud, la mia cultura ancestrale che volgeva alla sua fine, a un passo dal suo ingresso nella sfera del mito. Un tempo in cui la luce del giorno era preziosa e le notti completamente buie e misteriose. Erano i figli di Prometeo, che aveva rubato il fuoco agli dei per donarlo ai mortali, e per questo erano stati puniti. Gente che cercava la redenzione attraverso il lavoro manuale: nelle viscere della terra, in mare aperto, tagliando il grano.
Gente che sembrava pregare attraverso la fatica delle mani.

Ebbene, come aveva proceduto Vittorio De Seta per realizzare questi straordinari documenti? Premetto solamente che, in primo luogo si recava sul posto mesi prima, per familiarizzare con le persone e assorbire l’atmosfera dei luoghi, poi lavorava praticamente da solo con l’aiuto di un ragazzo, manovrando macchine pesanti e complesse, tecnicamente limitate, per esempio con sensibilità di 25-50 ASA, in situazioni complicatissime, su piccole barche, o in miniera, manovrando sia la registrazione del sonoro che del video, sperimentando allo stesso tempo la grande novità del cinemascope che richiedeva due successive messe a fuoco di due diversi sistemi di lenti, il tutto senza poter vedere il video, ma solo sentire il sonoro, per mesi, prima di entrare in sala di montaggio. Un gigante. Ma un gigante anche per avere avuto l’intuito di andare a cogliere le ultime espressioni di un mondo che fu, di lì a poco irrimediabimente perduto. E anche per avere colto quell’intuizione senza aspettare di avere acquisito le competenze . Per il resto lasciamo parlare De Seta stesso, in questo brano di una conversazione con Goffredo Fofi, che ho tratto da La fatica delle mani, a cura di Maro Capello, allegato al DVD Mondo perduto, p. 23:

GF: Il tuo passaggio alla regia , dopo una prima “prova” [come secondo aiuto regista nel 53, quando De Seta era trentenne], è radicale sia nella scelta di un ambiente sia nell’approccio a esso.

VDS: Nel ’54, in Aprile feci La Pasqua, in bianco e nero, 16 mm, assieme a Vito Pandolfi…

GF: In quegli anni Pandolfi mise insieme un libro interessante, Copioni da due soldi, che era una perlustrazione di tutto il teatro minore: dai venditori di strada ai cantastorie, dalla sceneggiata alle feste. Tutto un percorso nella realtà italiana povera, un mondo che è stato poco raccontato, trascurato dallo stesso neorealismo…

VDS: In realtà Pandolfi lo conosceva mia moglie, che faceva teatro. Non ci fu un grande legame, né io possedevo una grande consapevolezza culturale. Il documentario era convenzionale, ma venne a vederlo Zavattini, e il suo entusiasmo mi incoraggiò. Di lì a pochi mesi, ho fatto Lu tempu di li pisci spata che era un lavoro difficile, visto che già era difficile stare sulla barca a fare riprese. Per me la cosa determinante fu l’abolizione del commento. Incominciai a girare le prime inquadrature senza avere un chiaro progetto. Alla sera ascoltavo il sonoro, che avevo registrato con ricchezza, voci, suoni, canti, musiche, rumori del mare, atmosfere. Sentivo che era un elemento determinante perché, abolendo lo speaker, che rappresenta l’ossatura ideologica del documentario, il film si deve reggere sulle proprie forze. Così viene in primo piano il sonoro; tutta la struttura deve essere fondata sul ritmo. Sulla base del sonoro, che non era un suono “sinc” ma ricostruito, mi componevo in testa la struttura del documentario, prima di poter vedere finalmente le immagini.

Fermatevi a guardare questo cortometraggio. Ne vale la pena.

Lu tempu di li pisci spata
Questo è il primo dei dieci cortometraggi contenuti nel DVD Mondo perduto. Mi sono piaciuti così tanto che ne ho comprati tre, uno per me, due li ho regalati a due amici. Confido che diffondere sequenze in rete finisca col fare acquistare più originali…

E queste immagini De Seta le potè vedere solo una volta tornato a Roma, dopo avere sviluppato le pellicole in studio. Ricordo di avere sentito un’altra sua intervista, dove raccontava di essersi messo a piangere dopo avere visto che le immagini c’erano, perchè avrebbero potuto essere anche tutte vuote!
Quel sonoro di cui parla De Seta, è stato il percorso sul quale dipinse le sequenze disponibili, che non erano mai in sincronia perchè non era possibile, in quelle condizioni, registrare contemporaneamente il video e il sonoro. Ecco, in questo esempio si percepisce appieno la forza creativa che può essere espressa nella fase di montaggio.

 

Quali strumenti

Qui c’è da perdere la testa con l’enorme strumentario che abbiamo a disposizione oggi. Proviamo a stare inizialmente alti per poi calare in qualche particolare.

La video camera, gli apparecchi fotografici, gli smartphone offrono opportunità sconfinate, che ben pochi sfruttano, e di cui ben pochi educatori fanno tesoro, a tutti i livelli. Naturalmente le eccezioni non mancano. Un esempio è Paolo Beneventi, di cui avete letto il libro che abbiamo proposto.

Sono assolutamente straordinarie le cose che si possono fare con le macchine digitali che oggi troviamo sugli scaffali di un qualsiasi supermercato. In Digital Film Making, Mike Figgis descrive la propria esperienza di regista cinematografico che decide di esplorare a fondo il nuovo universo digitale. Digital Film Making è un ottimo libro da leggere per chiunque voglia cimentarsi con il video. Non poteva mancare un capitolo sulla luce, nel quale Figgis espone una tesi interessante. Con le prime tecnologie, il cinema era affamato di luce. Hollywood è la patria del cinema perché nella California del sud c’è quasi sempre molta luce. Antonino Delli Colli, direttore della fotografia anche in Totò a colori, il primo film italiano a colori, racconta come per gli attori fosse una vera tortura recitare negli interni con la quantità di luce necessaria a tirare fuori i colori dalla pellicola Ferraniacolor, che aveva un sensibilità di soli 6 ASA! In pratica arrostivano. Sebbene con l’evolversi della tecnologia le pellicole divenissero sempre più sensibili e le lenti più luminose, questa atavica fame di luce ha lasciato una traccia profonda: fare cinema richiede una grande luce e quindi un grande direttore della fotografia. Mike Figgis, sostiene che fare un video è diverso da fare cinema, anche in virtù della straordinaria sensibilità – e non solo – delle videocamere, e critica l’abitudine di predisporre grandi luci anche quando si usano videocamere: una luce artificiale extra può ingoiare una luce naturale che avrebbe potuto contribuire significativamente all’espressione di una scena. E sostiene anche che i registi dovrebbero smettere di continuare a illuminare quando fanno cinema con macchine digitali. È interessante la convergenza con i suggerimenti di Richard Olsenius per la fotografia: meno luce può essere meglio.

E già che siamo con Figgis, rimaniamoci ancora a proposito di un altro pezzo di stumentazione: il software di editing video.

La mia esperienza con iMovie è stata interessante. Il programma c’era già sul mio computer ma non l’avevo mai usato. Poi un giorno avevo ripreso qualcosa ma non volevo ancora che qualcuno montasse il video. Volevo giusto dare un’occhiata a cosa era venuto fuori. E non avevo un’idea di come si facesse a usare iMovie. Non sono esattamente uno che capisce di computer. Non mi piacciono. Sono stato costretto ad usarli e l’ho fatto controvoglia, sono rimasto sì sorpreso da quello che ci si può fare ma ho avuto difficoltà all’inizio. Diciamo che sto nella parte bassa della scala di capacità in questo campo. A paragone di chi ha meno di trent’anni, che ha già di gran lunga più esperienza digitale di quanto io ne abbia accumulata in tutta la vita, sono all’età della pietra. Ebbene, in queste condizioni, accesi il sistema e mi imbattei in un piccolo tutorial incluso nel programma che serviva ad aiutare la gente. In breve mi resi conto di come si faceva a collegare la videocamera in maniera da usarla come un mezzo di riproduzione e di importazione dei video. Il tutto fu immediato.

A quel punto iniziai a importare qualche clip e scoprii alla svelta come queste si allineavano spontaneamente in una sorta di catalogo. Nel giro di un paio d’ore avevo montato una sequenza. Iniziai a pensare come avrei potuto inserire qualche dissolvimento del suono e trovai un menu che mostrava gli effetti che si potevano usare con l’audio e con le immagini. E tutto era così ovvio e così autoesplicativo che perfino un novellino come me poté montare un video di 5 minuti piuttosto sofisticato. Avevo fatto tutto in un giorno partendo da zero. Fu subito chiaro che avrei potuto montare un film intero in questo modo.

Successivamente, Mike Figgis ha montato interi film con iMovie. Dopo faremo una piccola disanima degli strumenti disponibili, ma ciò che conta veramente è il vostro obiettivo e il vostro atteggiamento di fronte allo strumento, qualsiasi esso sia.

Editing, si diceva…

In pratica

È difficile entrare nei dettagli, considerata l’enorme varietà e variabilità dei sistemi. Proviamo comunque a estrapolare alcune indicazioni pratiche, in maggior parte desunte da conversazioni avute con esperti.

  1. Nelle riprese video dedicare del tempo, se possibile, a cercare l’inquadratura: punto di ripresa, profondità del campo, luce. In pratica quello che si fa prima di scattare una foto.
  2. Essere ariosi nell’inquadrare… Non è detto che il soggetto principale debba essere piazzato al centro della scena. Questo vale anche per lo scatto di immagini; è una faccenda di composizione. Immaginare di dividere il campo di vista con due linee parallele orizzontali e due verticali, che lo dividano quindi in una scacchiera 3×3. Provare a piazzare gli elementi o le linee importanti – orizzonti eccetera – sui punti o sulle linee di tale griglia. Per esempio, un soggetto posto in posizione decentrata potrebbe essere messo in maggiore enfasi da un gioco di prospettive. Affidarsi quindi alla propria ispirazione.
  3. Vero è che la luce è la carta su cui si scrivono foto e video, ma non è detto che la miglior carta sia quella candida. Se si ha libertà nella programmazione di una ripresa esterna, porsi il problema della luce, privilegiando le ore con luci radenti e soffuse. Pensare alle tonalità assunte dall’atmosfera nei luoghi dove vi trovate, nella diverse fasi del giorno, nelle particolari condizioni metereologiche. Magari poi non decidete niente di preciso, ma non pensarci potrebbe significare perdere un’occasione.
  4. Cercare di utilizzare le luci naturali dell’interno; con la sensibilità delle macchine di oggi si può lavorare in condizioni incredibili. Se la luce fosse veramente troppo carente, provare a utilizzare la luce diffusa da una finestra, se possibile. Oppure, se dovesse essere necessario, aggiungere luci artificiali, non illuminare mai il soggetto con luce diretta, ma dirigere le luci su qualche superficie chiara circostante. Sperimentare. Seguire l’ispirazione.
  5. Non c’è dubbio che lo zoom sia una trovata formidabile per controllare il campo, ma non usarlo come effetto speciale nel video! Zoomate pure girando, per cercare il campo giusto volta volta, ma poi durante il montaggio tagliate via le zoomate. A meno che lo zoom non venga utilizzato con intenti molto precisi, come per esempio nella sequenza iniziale di Quarto Potere.
  6. I file video sono molto grandi perché contengono una quantità enorme di informazione. Volendo fare una scala a braccio: la Divina Commedia richiede 0.5 MB, una foto in buona risoluzione 10 MB, un video di una decina di minuti 500 MB. Non è una buona idea manipolare file molto grandi, i trasferimenti possono essere troppo lunghi, altrettanto le operazioni di “rendering” o di codifica. Le operazioni di editing vengono rallentate da attese che possono rivelarsi molto lunghe, durante le quali non si può fare niente. Con la mole di dati di una clip troppo lunga non è difficile ritrovarsi con il sistema inchiodato per delle ore. E il programma inchiodato su calcoli troppo lunghi può essere fonte di instabilità per tutto il sistema operativo, talvolta anche solo perché l’utente non interpreta correttamente lo stato della macchina e, cliccando inconsultamente altrove, finisce col paralizzare tutto. Inoltre, se le clip sono memorizzate in file separati, magari perché sono state acquisite già così – buona idea interrompere ogni tanto le registrazioni – allora , meglio ritrovarsi con un solo piccolo file pasticciato, fra tanti, che con un unico grande file pasticciato. Abituarsi quindi a fare clip relativamente brevi.
  7. Se il sonoro contiene la voce di un narratore, come può essere anche il caso di un banale tutorial, conviene “ripulirlo” da una serie di accidenti antiestetici che allungano inutilmente i tempi: balbettamenti, attacchi strascicati in cerca della parola, colpi di tosse, schiocchi eccetera. I software di montaggio  mostrano la traccia del sonoro sulla cosiddetta timeline – due tracce se l’audio è stereo. Si tratta di un grafico in funzione del tempo che esprime l’andamento delle onde di pressione con il quale si propaga il suono, come abbiamo visto nelle brevi note tecniche sull’audio digitale. Ma a prescindere dal significato tecnico del grafico, ci si abitua rapidamente ad associare la forma delle onde alla struttura delle frasi e anche a certi particolari tratti del parlato. Per esempio, le vocali allungate nella ricerca della prossima parola hanno la forma di una sorta di salsiccia allungata, che è molto facile individuare anche solo visivamente e eliminare con i comandi dell’editor – nel prossimo video vediamo come si fa. Ricordo un commento alla radio dove si raccontava come Pasolini lavorasse puntigliosamente insieme al montatore per ripulire l’audio di una certa intervista, cercando di ridurre al massimo i tempi morti, timoroso che gli spettatori si annoiassero. Tutto questo con misura e buon senso: attenzione ad azzerare tutti i tempi morti perché le pause contribuiscono all’intelligibilità del discorso. Rendendole tutte molto brevi e tutte eguali, il parlato si appiattisce, l’attenzione crolla. Infine un commento  sull’esecuzione di questo tipo di editing. Quando l’audio accompagna un video, questo è associato alla traccia video. I sistemi di editing consentono di “sganciare” la traccia audio e di lavorarci separatamente, per poi riaccoppiarla appropriatamente a quella video. Tuttavia, gli interventi di pulizia a cui abbiamo accennato possono essere fatti direttamente sulle due tracce accoppiate, perché i tagli che vengono fatti sono solitamente di durata abbastanza piccola da non essere percepiti nella visione.
  8. Salvare, salvare tutto frequentemente, ossessivamente. Questa è una regola aurea delle elaborazioni digitali ma quando i materiali e le elaborazioni sono complesse allora è veramente pericoloso non osservarla. Sommersi di software come siamo – dal telefono al computer è tutto software – non ci badiamo ma spesso usiamo con disinvoltura applicazioni che nascondono un enorme livello di complessità. Probabilmente un software di editing video di oggi è molto più complesso di quello che servì a controllare la missione sulla luna di Apollo 11 del 1966. E il software, tutto il software del mondo, è sempre pieno di errori. Non esiste un software privo di errori, a meno che non sia assolutamente banale ma allora anche probabilmente del tutto inutile. Ci sono invece software che hanno meno errori di altri, e anche software che probabilmente hanno davvero pochi errori. E dove si trovano questi ultimi? Fra quelli molto vecchi! Il software è come il vino buono, migliora con il tempo, a condizione che venga usato costantemente e che vi sia una comunicazione ininterrotta fra chi lo usa e chi lo ha prodotto e lo mantiene. Nei casi in cui le prestazioni sono critiche, per esempio nei software utilizzati nelle missioni spaziali o anche in quelli utilizzati per la gestione delle transazioni finanziarie o bancarie, si tende ad utilizzare software delle generazioni precedenti perché è più importante la minore incidenza degli errori piuttosto che un maggior numero di brillanti opzioni nuove. Per tante applicazioni meno critiche, il requisito di solidità cozza con gli interessi di mercato, e quindi i regimi economici frenetici privilegiano la diffusione di applicazioni che sono straricche di opzioni ma anche piuttosto instabili, talvolta sorprendentemente instabili. E naturalmente, l’instabilità cresce con la complessità del software e dell’informazione che questo deve processare. È esattamente il caso delle applicazioni di editing multimediale. Quindi salvare, salvare, salvare. Nel video successivo mostrerò anche come.
  9. Se l’ispirazione vi induce ad infrangere alcune delle precedenti regole, fatelo.

Piccola e incompleta lista di strumenti

  • I software di Screencasting sono quelli che consentono di registrare in un video quello che accade sullo schermo di un computer. Sono utilissimi per mostrare procedure di ogni tipo. La rete è popolata da una quantità smisurata di tutorial costruiti a partire da uno screencast.
    • In precedenza avevamo incluso CamStudio fra le possibilità, ma quest’anno è emerso che scaricandolo c’è il rischio di includere del malware, come abbiamo rilevato nel post del picchio. Lo dico perché è molto popolare fra gli utenti Windows.
    • Jing è prodotto dalla TechSmith per Windows e Mac, ma viene offerto anche in versione free con alcune limitazioni fra cui: durata massima 5 minuti e se uno vuole salvare il video, anziché condividerlo su Youtube, in formato flash (tipo swf). La versione Pro consente di abbattere il limite temporale e di salvare i video in formato MP4, ma 15 $ all’anno
    • Flavia quest’anno ha segnalato ezvid, pare che funzioni bene.
    • Camtasia. È interessante perché in realtà è anche un ottimo strumento di montaggio ma non è free.  Lo cito anche dopo.
  • Montaggio video. La prima osservazione che vale la pena di fare è che, purtroppo, appena le ambizioni crescono, anche di poco, tocca pagare qualcosa. È un’osservazione che faccio con fatica, perché sono sempre tutto contento quando posso suggerire qualche prodotto software valido creato nel mondo del software libero, e ce ne sono veramente di eccellenti. Non è purtroppo il caso dei prodotti destinati alla manipolazione dei video, dove le soluzioni free o sono troppo limitate, o sono troppo lente nelle operazioni di elaborazione, o offrono scelte limitate nelle codifiche esportate. Peccato, magari con il tempo qualcuna migliorerà. Sarò felice di cambiare questo paragrafo. Per ora mi limito a citare ciò che mi è capitato di usare fin qui.
    • Windows Movie Maker è l’applicazione di video editing che si trova(va) in Microsoft Windows Me, XP, e Vista. Lo sviluppo di Windows Movie Maker è stato abbandonato dopo il rilascio di Windows Vista. È stato sostituito con Windows Live Movie Maker, incluso nel pacchetto Windows Essentials, un insieme di applicazioni scaricabili da Windows Live, il tentativo di Microsoft di offrire una piattaforma con software scaricabile e servizi Web. La nuova versione è diversa, taluni lamentano che è troppo semplificata. La precedente versione era un po’ instabile. Vari studenti in passato si sono lamentati, riferendo tutta una serie di disavventure. Il più pessimista diceva di starne più lontano possibile, la più ottimista aveva invece raccontato di essere riuscita a fare un bel lavoro con i suoi bambini, ma a condizione di tenere sempre tutti i file in una stessa cartella senza spostarli mai e di fare salvataggi frequenti. Norma quest’ultima che è comunque sempre consigliabile, come abbiamo già detto. Forse la nuova versione ha guadagnato in stabilità, a fronte della semplicità. Si può scaricare qui. L’esercizio che propongo dopo si riferisce all’uso di questo software.
    • iMovie è invece l’applicazione di editing video che un tempo era inclusa nel sistema Mac OS X.  Ora si può scaricare dal Mac Apple Store per 13.99$. Qualche anno fa l’ho usata abbastanza spesso, nella versione free. Era sufficientemente potente e ragionevolmente solido, come testimonia Mike Figgis.
    • Il mio amico Andrea, che era un professionista (i professionisti di audio e video usano spesso prodotti Apple) usava Final Cut Pro, un’applicazione da più di €1000. Un giorno, in un grande magazzino trovai in vendita un cd, Final Cut Express, che costava qualcosa meno di €100. Final Cut Express era una versione più abbordabile ma non doveva costare così poco. Mi resi conto di essermi imbattuto in un’offerta perché l’Apple aveva smesso di produrlo. Ora esiste solo Final Cut Pro X: 230 €. Qualche anno fa, influenzato dai video di Sir Ken Robinson, produssi dei cosiddetti bricovideo per illustrare le infrastrutture che sostengono il web nel post Una piccola introduzione alla nuvola. In quel caso avevo usato Final Cut Express perché avevo bisogno di qualcosa che mi facesse cambiare la velocità delle clip. Mi pare che si possa fare tutto quello che si vuole, o quasi.
    • Camtasia l’avevo già citato come applicazione di Screencasting. Purtroppo è un software proprietario e non costa pochissimo: €258 per Windows e €90 per Mac. È la soluzione alla quale alla fine mi sono dovuto piegare, con la quantità di tutorial che mi tocca fare. La versione Windows è quella più completa.
    • Avidemux. Software libero per tutti i sistemi. Se basta, meglio.
    • Openshot. Software libero Linux. Se basta, meglio.
    • Kdenlive. Software libero Linux. Se basta, meglio.
    • Animoto. Questo è un servizio web. Una specie di tritacarne dove butti dentro immagini, clip, audio e lui ti confeziona una sorta di trailer. Può essere utile per avviarsi al mondo del video ma ti perdi il piacere di creare.

E infine concludo con un video dove cerco di mostrare alcune delle pratiche suggerite in questo post.
Per fare un video bene occorre tempo, invece questo video è stato fatto di fretta. Fra i tanti difetti ha anche quello di essere un po’ lungo. Metto qui sotto un indice per chi volesse andare direttamente a vedere alcuni punti specifici del video. Sotto, in versione embedded, trovate il video intero.




L’attività

L’idea è di fare qualcosa di simile a De Seta 😉 : abbiamo un video e un audio separati e con questo materiale vogliamo fare un montaggio che abbia un senso.

Il materiale consiste in un video e un audio non sincronizzati fra loro che avevo fatto questa estate a un grosso insetto, credo un Lamia Textor. L’audio lo feci dopo perché mi resi conto che il nostro Lamia Textor s’arrabbiava se lo toccavi e protestava squittendo nervosamente! Ho fatto una prova con Windows Live Movie Maker e mi pare che la cosa sia possibile.

In questo link trovate una versione sottotitolata in italiano di un tutorial che mostra come sostituire la traccia audio usando Windows Live Movie Maker. Se non vedete i sottotitoli cliccate sull’icona “cc” in basso a sinistra nel video.

Ora non ho una versione di iMovie sul mio sistema Mac ma credo che sia possibile fare un lavoro del genere.

In questo link potete scaricare il file insetto.zip (92 MB) che contiene:

  1. insetto.mov – file video (ho visto che WLMM legge questo formato)
  2. insetto.aup – file Audacity
  3. insetto_data – cartella dati Audacity

L’esercizio consiste nel produrre un breve video, anche molto breve, di pochi secondi. Si tratta di tagliare via dal video la traccia audio, estrarre e ricomporre i pezzi migliori. Trovare con Audacity gli squitii del Lamia Textor e eliminare il resto, magari migliorare la qualità togliendo un po’ di rumore e amplificando quanto basta. Poi esportare in MP3 e importare in WLMM. Infine esportare il prodotto finito, per esempio in formato MP4.

Dal punto di vista fiscale: non considero obbligatoria questa attività. Coloro che la eseguiranno, avendo fatto anche tutte la altre, prenderà la lode.

 


 

Riferimenti

  • DIPINGERE CON LUCE
    CORSO DI FOTOGRAFIA, BIANCO E NERO
    Richard Olsenius
    National Geographic Society, 2005
    P. 62
  • SCRITTI E PENSIERI SULL’ARTE
    Lorenzo Viani
    Mauro Baroni Editore, Viareggio, 1997
    P. 95
  • IL MONDO PERDUTO
    I cortometraggi di Vittorio De Seta
    1954-1959
    Cineteca Bologna, 2008
  • DIGITAL FILM-MAKING
    Mike Figgis
    Faber & Faber
    London, 2007
    P. 125
  • TOTÒ A COLORI
    steno1952
    Nel cofanetto “Totò, il principe della risata”
    Dino De Laurentis – Filmauro Home Video, 2004

Immagini – attività 3 – #edmu14

Continuiamo con il proposito di dar corso a più attività contemporaneamente per dar modo a ciascuno di scegliersi il percorso più confacente. In questa ottica ho fatto un po’ di pulizie nel blog – si erano accumulate un po’ troppe tracce; ero quasi giunto a cambiare drasticamente il tema del blog, in favore di uno più moderno, poi mi sono dato una calmata. Non esageriamo con le attività in parallelo! Tuttavia ne ho approfittato per organizzare i post pensati per il corso di editing in categorie che ho elencato nella barra destra. Elenco anche qui gli URL delle categorie:

Cliccando questi link si ottengono le rispettive raccolte di post, ordinati nel modo dei blog, i più vecchi in fondo. L’ultima categoria serve a radunare tutti i post che non ricadano direttamente in una delle attività previste, in maniera che possiate ritrovare tutto quanto è stato pubblicato di pertinente al vostro corso.

Colgo l’occasione per far notare il modo “pulito” con cui WordPress genera questi URL, che potrebbero addirittura essere ricordati a memoria. Per chi volesse ripassare come sono fatti link, un passo indietro….

Veniamo dunque alle immagini. Se cliccate su https://iamarf.org/category/edmu14/immagini/ trovate tre post.

Il primo (più vecchio) è un tutorial sugli screenshot. All’inizio del post si riporta l’esito di un sondaggio dove emerge che 1/3 delle persone non sa cosa sia uno screenshot. Più che sufficiente a riproporlo, perché può essere utile in molti casi, ad esempio quando si chiedono informazioni su un problema da risolvere al computer. Porre domande tecniche senza descrivere compiutamente il contesto è molto irritante per chi le riceve. Talvolta un’immagine aiuta, e ci vuole poco a farla. Il post all’inizio contiene anche un sondaggio sull’impiego dei web feed che facemmo quando lo pubblicai. Non ho motivi per toglierlo.

Quello centrale è centrale anche di fatto perché concerne direttamente l’elaborazione delle immagini.

Con il terzo (più recente) ho cercato un modo arioso per illustrare i concetti fondamentali della compressione delle informazioni.

Bene, studiate questa roba. Poi provate ad applicare qualcosa di quello che avete letto. Per esempio potrebbe essere uno screenshot sul quale, sfruttando i livelli, aggiungete delle informazioni grafiche, frecce, scritte ecc. O qualsiasi altra cosa vi venga in mente. Poi, quando vi sembrerà di avere finito, scrivete il solito abstract da caricare in piattaforma, magari includendo le opere grafiche vostre. Se avete problemi fate le domande mediante commenti ai post, non per email a Lucia o a me: dobbiamo imparare a trarre vantaggio dalla comunità.

La compressione non conservativa di Michelangelo – #loptis

Clicca qui per scaricare la versione in pdf.


Questo è un complemento al post Elaborazione di immagini – tre fatti che fanno la differenza dove riprendiamo un esempio fatto qualche giorno fa nella classe di medicina per dare un’idea intuitiva della compressione non conservativa.

Ricapitolando brevemente, i metodi di compressione possono essere conservativi e non. I formati ZIP, GIF e PNG comprimono i dati in maniera rigorosamente conservativa mentre JPEG, MP3 e MP4 impiegano anche una componente di compressione non conservativa. Rammentiamo anche che ZIP serve a archiviare in forma compressa qualsiasi cosa – testi, dati, software ecc. – GIF, PNG e JPEG sono sistemi di codifica di immagini, MP3 e MP4 codificano informazioni audio e video rispettivamente.

Con i metodi conservativi si comprimono i dati sfruttando eventuali ripetizioni in essi – la decompressione in questo caso fornisce una copia perfetta dei dati originali e il fattore di compressione dipende dalla loro natura: se sono presenti molte ripetizioni allora la compressione è più efficace.

È facile comprendere come la ripetizione dei dati possa essere sfruttata ai fini della compressione. Facciamo un esempio banale. Supponiamo di avere un file di testo contenente solo una sequenza ininterrotta di caratteri “A”  e supponiamo che questi siano 1 milione. Poiché ogni carattere viene codificato in un byte, il file risulterà lungo 1 milione di byte. Ora, applichiamo una compressione “fai da te” dove assumiamo che, quando una lettera dell’alfabeto è immediatamente seguita da un numero, allora la lettera deve essere ripetuta quel preciso numero di volte, ad esempio: “A5” significa “AAAAA”. Ecco, applicando una codifica del genere, il nostro file (demenziale), una volta compresso in questo modo, conterrebbe solo il testo “A1000000”. In questo esempio la compressione sarebbe vigorosa: da 1 milione di byte saremmo scesi agli 8 byte che servono a codificare la sequenza di caratteri “A100000”! Naturalmente, questo esempio è lontano dagli schemi che vengono applicati dai sistemi di compressione conservativa reali, che sono ben più sofisticati, ma serve perfettamente per capire il concetto. Serve anche a capire come il fattore di compressione possa dipendere molto dalla natura dei dati: applicando il suddetto metodo a un testo reale lungo 1 milione di byte, probabilmente otterremmo una compressione molto ridotta, di poco inferiore a 1 milione di byte.

I metodi non conservativi invece comprimono i dati eliminando parte dell’informazione, tout court. L’idea si basa sul fatto che probabilmente non tutta l’informazione presente verrà utilizzata effettivamente. È un’idea che si può applicare ai suoni e alle immagini e sfrutta i limiti percettivi e cognitivi di chi ascolta i suoni o guarda le immagini. Non si tratta banalmente di sbarazzarsi di alcune parti delle immagini o alcune sezioni di un brano musicale – questo sarebbe davvero poco soddisfacente – ma di aspetti che si suppone i fruitori di quelle informazioni non percepiscano.

Confronto fra il volto dell'Ignudo di sinistra sopra la Sibilla Eritrea, nella Cappella Sistina e il volto della Madonna nel Tondo Doni, ambedue dipinti da Michelangelo Buonarroti.
Clicca l’immagine…

Il volto di sinistra è quello di uno dei due Ignudi che sovrastano la Sibilla Eritrea nella Cappella Sistina. Quello di destra è il volto della Madonna nel Tondo Doni.

La mano è sempre quella di Michelangelo ma le differenze sono molte: ad esempio il primo volto è un affresco mentre il secondo una tempera su tavola, la prima immagine è una scansione tratta da un libro d’arte [1] mentre la seconda è un’immagine presa da Wikipedia [2]. Ma le numerose e rilevanti differenze dipendenti dalla diversa natura delle opere e delle loro riproduzioni non nascondono il modo assai diverso con cui Michelangelo ha realizzato questi due ritratti, dove il primo sembra quasi uno schizzo preparatorio rispetto all’esecuzione completamente rifinita del volto della Madonna.

Ebbene, questa è la compressione non conservativa di Michelangelo. La volta della Cappella Sistina si trova a circa 13 metri dal pavimento e questo pone un limite alla capacità di vedere ad occhi nudo piccoli dettagli, che sono invece apprezzabili in un dipinto che può essere visto molto da vicino. Michelangelo ha quindi dipinto “meno informazione” in quelle situazioni in cui sapeva che nessuno le avrebbe potute apprezzare – in condizioni normali – ottenendo così una compressione delle informazioni fondamentale: se avesse inteso dipingere tutta la volta con la stessa accuratezza del Tondo Doni ci avrebbe messo ben più dei quattro anni che gli sono occorsi, e forse anche la salute… [3].

I' ho già fatto un gozzo in questo stento,
come fa l'acqua a' gatti in Lombardia
o ver d'altro paese che si sia,
c'a forza 'l ventre appicca sotto 'l mento.

La barba al cielo, e la memoria sento
in sullo scrigno, e 'l petto fo d'arpia,
e 'l pennel sopra 'l viso tuttavia
mel fa, gocciando, un ricco pavimento

E' lombi entrati mi son nella peccia,
e fo del cul per contrapeso groppa,
e' passi senza gli occhi muovo invano.

Dinanzi mi s'allunga la corteccia,
e per piegarsi adietro si ragroppa,
e tendomi com'arco sorïano.

Però fallace e strano
surge il iudizio che la mente porta,
ché mal si tra' per cerbottana torta.

La mia pittura morta
difendi orma', Giovanni, e 'l mio onore,
non sendo in loco bon, né io pittore.

Quindi Michelangelo ha approssimato JPEG? Semmai il contrario! Per applicare una compressione non conservativa nel migliore dei modi occorrerebbe il massimo dell’intelligenza, cosa che non si può richiedere ad un sistema automatico. Per questo si deve stare attenti a dosare la compressione di JPEG, mettendo almeno un pochino di intelligenza nel salvare un’immagine in tale formato. Si vada per tentativi, magari figurandosi l’impiego che ne dovrà esser fatto: un conto è un’immagine che deve essere vista in un piccolo formato su un monitor, un conto è inviare un’immagine da stampare in un grande formato. Chiaro che il primo è il caso di gran lunga più frequente: perfettamente inutile lasciare i setting di massima qualità nell’applicazione di fotografia del telefonino, considerato l’uso prevalente (e ridondante) di quelle foto…

Per lo stesso motivo, un musicista potrebbe non gradire la riproduzione MP3 di un brano musicale: un conto è un pezzo heavy metal e un altro una sonata per violino di Bach…

Non s’è preteso di spiegare molto. Per comprendere in maniera più approfondita il meccanismo della compressione non conservativa, occorrerebbe avventurarsi nei territori dell’analisi di Fourier. Tuttavia ci illudiamo così di avere dato un’idea anche a chi quei territori non li ha mai vistati o è tanto tempo che non vi è tornato.


[1] Michelangelo – Leben und Werk – Belser Verlag, Stuttgart, 1989, pag 86

[2] L’opera d’arte mostrata in questa immagine è nel pubblico dominio per via della data del decesso del suo autore (la norma si applica all’Unione europea, agli Stati Uniti e a tutti quei paesi in cui il copyright scade 70 anni dopo la morte dell’autore).

[3] Michelangelo Gedichte, Insel Verlag, 1992.

Elaborazione di immagini – tre fatti che fanno la differenza – #loptis

Clicca qui per scaricare la versione in pdf (1.8MB)


  • Sicuramente un post per gli studenti di “Editing multimediale” della IUL ma anche per tutti quelli a cui capita di lavorare con le immagini
  • Grafica bitmap e vettoriale
  • Due o tre cose sui formati più noti, GIF, PNG e JPEG, sulla compressione delle informazioni, conservativa e non, e sui formati “dedicati” XCF e SVG
  • Gimp e Inkscape, due bellissimi software liberi per l’elaborazione delle immagini che girano su Linux, Mac e Windows
  • Elaborazione delle immagini in livelli

Primo fatto: software libero anziché proprietario

Il fatto che il software sia libero o proprietario è fondamentale, per motivi etici prima ancora che tecnici. L’espressione sintetica di Marina è perfetta:

software libero vuol dire che rende le persone più libere

Aggiungo: la scuola e l’università hanno il dovere morale di dimostrare, diffondere e promuovere il software libero. Il resto l’abbiamo detto in un post precedente.

Secondo fatto: distinguere fra grafica bitmap e vettoriale

Immagini digitali

Le immagini digitali sono sempre formate da una sorta di scacchiera di piccoli quadratini denominati pixel, il cui interno è rappresentato con un colore uniforme al quale nel computer corrisponde un certo valore numerico. Anche se le immagini sono monocromatiche vale lo stesso concetto. Per fare un esempio noto a tutti, le immagini TAC (Tomografia Assiale Computerizzata) sono rappresentate in scale di grigi. Ebbene, anche lì in ogni pixel, l’intensità di grigio è in relazione con un numero che rappresenta (con una certa approssimazione) la densità media dei tessuti del corpo nella spazio rappresentato da quel pixel.

dpi e risoluzione

In qualsiasi immagine digitale potete scorgere i pixel, se vi avvicinate o la ingrandite a sufficienza. Naturalmente è proprio quello che non si vuole vedere, di solito. In questo articolo useremo il termine risoluzione per il numero di pixel dell’immagine – maggiore risoluzione significa maggior numero di pixel. In realtà, il concetto di risoluzione spaziale di un’immagine è differente e molto più complesso ma qui ci atterremo alla prassi corrente per rendere il discorso più agile e compatto. Invece con dimensione intenderemo la grandezza del file in cui l’immagine viene memorizzata, e potrà essere espressa in Mega Byte (MB) o in Kilo Byte (KB) [1].Per esempio se fate una scansione di un documento o un’immagine dovete fare attenzione al parametro dpi (dots per inch, punti per pollice). Un pollice sono 2.54 cm e valori accettabili stanno usualmente fra 100 e 200 dpi, ma dipende da cosa dovete scannerizzare. Occorre quindi fare delle prove scegliendo il valore più basso che dà la qualità adeguata, nel contesto che vi interessa. Non vale esagerare, perché la dimensione delle immagini cresce grandemente in proporzione inversa alle dimensioni dei pixel: se i pixel di un’immagine sono più piccoli vuol dire che ve ne saranno di più – se scelgo 200 dpi anziché 100, vuol dire che su ogni lato dell’immagine ho il doppio dei pixel, quindi il numero totale dei pixel dell’immagine sarà 2×2=4 volte più grande, ergo raddoppiare la dimensione lineare vuol dire quadruplicare la dimensione dell’immagine, e quindi anche la dimensione del file dove questa viene memorizzata. Infatti, dal punto di vista del computer, un’immagine digitale è semplicemente una fila di numeri, tanti quanti sono i pixel in cui è suddivisa. Quando il computer la deve rappresentare su un qualche supporto – monitor, stampa… – allora legge i numeri a partire dal primo e decodifica ciascuno di essi in maniera da produrre l’effetto dovuto, in termini di colore e intensità, poi li “scrive” nello spazio dell’immagine come si fa nelle lingue occidentali: da sinistra a destra, dall’alto al basso.

Tipi di grafica

Ma non sempre le immagini vengono memorizzate secondo la logica di un “elenco dei contenuti dei pixel”. Si danno infatti due possibilità, una che prende il nome di grafica vettoriale e l’altra di grafica bitmap, o grafica raster (raster: griglia; da qui in poi utilizzeremo il termine bitmap). Le immagini bitmap sono memorizzate così come abbiamo già detto. Ad esempio le fotografie e le immagini mediche sono di questo tipo. Le immagini vettoriali sono invece memorizzate attraverso una rappresentazione ad oggetti. I disegni CAD (Computer Assisted Design) fatti da un progettista e i documenti PDF sono esempi di immagini vettoriali. Facciamo un esempio affinché la differenza sia chiara.

Grafica bitmap

Supponiamo prima di disegnare una circonferenza con un software di tipo bitmap, poi immaginiamo di ingrandire molto l’immagine: prima o poi la circonferenza rivelerà la struttura in pixel, che le darà un aspetto frastagliato.

si mostra come un'immagine bitmap si deteriori ingrandendola oltre un certo limite
Immagine di una circonferenza generata in grafica bitmap. L’immagine di destra rappresenta l’ingrandimento del quadrato rosso raffigurato nell’immagine di sinistra.

Grafica vettoriale

Disegnate ora la stessa circonferenza con un software di tipo vettoriale e provate a ingrandire l’immagine a piacimento: la circonferenza sarà sempre lì, con gli stessi identici attributi che le avrete assegnato all’atto della sua creazione. Magari ne vedete solo un piccolo arco perché avete ingrandito l’immagine veramente tanto, ma non vi sono artefatti.

si mostra come un'immagine vettoriale rimanga inalterata con l'ingrandimento
Immagine di una circonferenza generata in grafica vettoriale. L’immagine di destra rappresenta l’ingrandimento del quadrato rosso raffigurato nell’immagine di sinistra.

Perché questa differenza? Il software di tipo bitmap parte da un’immagine che è tanti pixel alta e tanti pixel larga. Dopodiché qualsiasi cosa facciate, il software si preoccupa di riempire i pixel come dite voi. Altro non fa. Se avete chiesto di disegnare una circonferenza, il sistema utilizza l’equazione matematica della circonferenza

x^2 + y^2 - 2 \alpha x - 2 \beta y + \alpha^2 + \beta^2 - r^2 = 0

dove α e β sono le coordinate del centro e r è il raggio della circonferenza, per riempire appropriatamente i pixel. Poi se ne dimentica, ovvero dimentica i suoi parametri, α, β e r [2]. Invece, il software di tipo vettoriale, utilizza l’equazione della circonferenza per disegnarla sullo schermo, con i parametri di rappresentazione correnti, ovvero riempie i pixel che voi vedete sullo schermo, e invece di memorizzarne i contenuti memorizza l’equazione della circonferenza, sotto forma dei suoi parametri  α, β e r, e di altri eventuali attributi grafici, quali spessore e colore della linea. Poi, ogni volta che voi rinfrescate l’immagine sullo schermo, ricaricandola o variandone le dimensioni, ricalcola i contenuti dei pixel a partire dall’equazione della circonferenza. E così per tutti gli altri oggetti.

Riassumendo, con la grafica bitmap il sistema ricorda i contenuti di tutti i pixel dell’immagine – quando la deve rappresentare sul schermo costruisce l’immagine semplicemente rappresentando adeguatamente i singoli pixel. Con la grafica vettoriale il sistema ricorda l’idea di circonferenza, ovvero di quella precisa circonferenza con il centro posizionato in quella certa posizione, con quel certo raggio, con quel certo spessore e quel certo colore con cui deve essere tracciata – quando deve rappresentare l’immagine, prima calcola i contenuti dei pixel per rappresentare quella circonferenza, poi rappresenta i pixel così calcolati sullo scheermo.

Formati – compressione

Non vogliamo perderci qui nella foresta dei formati. Se necessario approndiremo dove opportuno. Solo gli esempi comuni. Tutte le immagini di origine fotografica sono gestite e memorizzate con la logica bitmap. È naturale: derivano tutte da una qualche matrice di rivelatori, intendendo per matrice una qualche precisa disposizione di rivelatori di radiazione elettromagnetica: luminosa, infrarossa, X o altro. I formati più comuni per la distribuzione di immagini bitmap nel web sono GIF, PNG e JPEG – detto anche JPG, è lo stesso.

Qui occorre un inciso sulla compressione. Le immagini – anche l’audio e a maggior ragione il video – contengono molta informazione, quindi i file tendono ad essere grandi – oggi si ama dire che sono “pesi”. Persino la fotocamera di un telefono produce immagini di vari milioni di pixel. Far viaggiare questa roba in internet può essere un problema, a maggior ragione per chi vive in paesi sottosviluppati – o “diversamente sviluppati”, come il nostro, duole dirlo ma all’atto pratico, fra la velocità di trasferimento subalpina e quella sovralpina può corre tranquillamente un fattore 10. Le tecniche di compressione dell’informazione sono quindi fondamentali, è grazie a queste che la distribuzione dell’informazione multimediale è esplosa, ad esempio nei formati MP3 (audio), JPEG (immagini) e MP4 (video). Tutti questi esempi – sono i più comuni ma ve ne sono tanti altri – sono caratterizzati dal fatto di impiegare un qualche sistema di compressione dell’informazione. E tutti e tre usano i sistemi di compressione più efficaci, ovvero quelli non conservativi, che per comprimere meglio buttano via qualcosa – qualcosa che non si sente nell’audio, che non si vede nelle immagini o nei video. Sono sistemi regolabili – se si esagera si finisce col deteriorare il messaggio.

Con la compressione conservativa invece non si butta via nulla, ma si sfruttano ripetizioni e regolarità, sfruttandole in modo intelligente. Ci capiamo subito con questo esempio: pensate a un’immagine fatta da un solo pixel centrale nero e tutti gli altri bianchi – non è interessante ma è utile per capire. Non è difficile immaginare un sistema abbastanza furbo da memorizzare il numero di pixel che sono uguali e il loro (unico) valore. Nel nostro esempio significa che invece di memorizzare milioni di numeri, basta memorizzare il numero dei pixel bianchi, il numero di quelli neri e i due valori corrispondenti al bianco e al nero: 4 numeri! Abbiamo semplificato molto ma il concetto c’è, ed è anche sufficiente a capire che il successo di questi metodi dipende dal tipo di immagine. Per esempio in un’immagine fotografica piena di  sfumature morbide ci sarà poco da comprimere. Un esempio di compressione conservativa molto noto è quello del formato ZIP. Può valer la pena di fare un giochino. Prendo un brano di questo scritto, lo salvo in un file con un editore di testo – un editore di testo, non Word!  – Mi è venuto un file di 1075 byte. Sempre con l’editore di testo scrivo “pippo pippo…” tante volte (alla Shining – non mi sta vedendo nessuno…) fino a ottenere un file egualmente lungo, ovvero di 1075 byte. Applico a tutti e due lo zip: nel primo caso viene un file di 725 byte e nel secondo di 173 byte. Potete provare anche voi per esercizio, inventandovi degli esempi simili, o scaricando il file numero 1 e il file numero 2 per zipparli da voi.

Dunque dicevamo che i formati più comuni per la distribuzione di immagini bitmap nel web sono, GIF, PNG e JPEG. Vediamoli brevemente.

Il formato GIF usa una compressione conservativa. Questo lo rende adatto a immagini che contengono testo o grafica composta da linee. Si può usare per fare immagini animate.

Anche il formato PNG comprime l’immagine in modo conservativo e quindi anche questo è adatto nei casi cui sono presenti testo o linee. È meglio rispetto al GIF perché è più recente: consente di rappresentare le immagini con maggiore qualità e le comprime meglio. Non si possono però fare immagini animate, per questo ci vuole il formato GIF. In fondo vedremo un esempio.

Il formato JPEG applica invece una compressione non conservativa. È il formato adatto alle immagini fotografiche. Se siamo noi a generare un file JPEG, allora all’atto del salvataggio si può scegliere il grado di compressione. Occorre controllare quindi: più si comprime e più l’immagine può risultare degradata, specialmente se vi sono dettagli fini e contrasti bruschi.

Per quanto riguarda la grafica vettoriale occorre certamente citare il PDF. È un’ottima occasione per puntualizzare che il PDF è un formato grafico, e per di più vettoriale, perché molti scambiano il PDF per una variante del formato DOC – quello di Word, o altri word processor. No, il PDF non è un formato di testo o testo formattato, bensì è un formato grafico: esportare un documento qualsiasi – testo, foglio di lavoro o altro – in PDF vuole dire farne una sorta di fotografia, ovvero congelarlo in un’immagine, e per di più un’immagine vettoriale, perché così risulta meno sensibile alla modalità con la quale viene rappresentato, grazie al meccanismo ad oggetti che abbiamo visto. Perché il PDF è nato proprio per diffondere documenti nella rete, in maniera che questi rimangano inalterati, indipendente dal supporto di visualizzazione o dalla modalità di stampa.

Manipolando foto

La questione del formato è particolarmente importante quando siamo noi che creiamo le immagini. Le immagini si possono presentare in una grande varietà di forme, agli estremi abbiamo le fotografie da un lato e i “disegni al tratto” dall’altro – diagrammi, grafici. Di foto ne produciamo tutti tante, anche troppe. La tendenza è scattare e riempire memorie – pensa a tutto la macchina. In realtà anche in un cellulare di fascia bassa si può intervenire su alcuni parametri, per non parlare degli smartphone. Sicuramente si possono determinare numero di pixel e qualità dell’immagine. La dimensione dei file cresce con il numero dei pixel e la qualità dell’immagine. La qualità è di fatto regolata mediante il rapporto di compressione JPEG. Prima di usare l’apparecchio, non sarebbe male fare delle prove, ripetendo lo stesso scatto con risoluzioni e qualità diverse, per poi scegliere i parametri che consentono di ridurre le dimensioni dei file ma senza introdurre artefatti nell’immagine.

Chi ha qualche velleità fotografica e utilizza macchine “serie” – reflex, street photography, grandi formati – ha certamente a disposizione l’opzione del formato cosiddetto RAW raw data: dati grezzi. Questi sono i numeri letti direttamente dai sensori dell’apparecchio, sui quali si può lavorare successivamente con gli appositi software di elaborazione fotografica. È il formato prediletto da chi vuol partecipare alla costruzione dell’immagine fotografica, un po’ come coloro che amavano sviluppare le proprie foto nella camera oscura. Con il formato RAW la libertà di espressione è maggiore ma anche la dimensione dei file è molto più grande dei file JPEG – meno scatti, più riflessione post processing – ex camera oscura – più qualità.

Fabbricando immagini

Diverso è il caso in cui le immagini ce le dobbiamo fabbricare “a mano”. Qui la risposta non è univoca perché dipende da quello che si deve fare. Nel caso di diagrammi o grafici, quasi certamente conviene optare per un formato di tipo vettoriale. Costruendo invece immagini composite nelle quali gli elementi fotografici sono importanti, allora probabilmente si può lavorare sia in forma vettoriale che bitmap – la scelta dipende dal tipo di fruizione dei risultati e, in ultima istanza, dalle preferenze personali.

Lavorare in forma grafica bitmap o vettoriale vuol dire usare software diversi. Qui citiamo due ottimi software liberi: Gimp per la grafica bitmap e Inkscape per la grafica vettoriale. La quantità e varietà di software e di servizi web per l’elaborazione delle immagini è impressionante. Molti conosceranno Photoshop per il ritocco delle immagini fotografiche, e forse avranno sentito nominare Autocad per la progettazione, quali esempi di software per grafica bitmap da un lato e vettoriale dall’altro, anche se quest’ultimo più di nicchia e strettamente professionale. Sono programmi dal prezzo elevato, probabilmente ingiustificato per la maggioranza delle finalità che può avere un utente generico. In realtà le alternative libere Gimp e Inkscape sono molto sofisticate e possono essere usate con profitto anche in contesti professionali. Gli esempi precedenti, dove abbiamo mostrato cosa succede ingrandendo immagini dei due tipi sono stati realizzati con questi due software, ma vediamo qualche esempio per dare un’idea delle potenzialità e delle differenze fra le due modalità.

Lavorare in grafica bitmap con Gimp

fotografia di 4320x3240 pixel, memorizzata in tre diversi formati, png, jpg  e jpg fortemente compresso, da sinistra a destra, rispettivamente
.

Questa immagine – chi vuole sapere di che si tratta può leggere la nota [3] – è stata è stata scattata con un apparecchio comune, di quelli automatici, nemmeno più tanto recente, e ciò nonostante già in grado di sparare immagini di 4320×3240 pixel, come  questa che vedete qui sopra, espressa in tre diversi formati, da sinistra a destra: PNG – compressione conservativa, cioè nessun degrado ma il file occupa 19MB; JPEG con compressione ridotta (94% di qualità secondo Gimp [4]) , e già così si ottiene un file di soli 3 MB; JPEG con compressione elevata, (10% di qualità sempre secondo Gimp), e si arriva a 213 KB: un fattore di compressione dell’1% e la qualità sembra la stessa! In effetti, con così tanti pixel si può andar giù pesanti con la compressione JPEG.

Ma la differenza c’è, dipende da come si intende usare l’immagine, in particolare da quanto si pensa di ingrandirla. Le tre immagini sopra sono scalate per farle entrare nel post, cliccando sopra appaiono le versioni originali, sulle quali potete cliccare un’altra volta per ingrandirle ulteriormente. Se con il vostro browser non funziona così, potete scaricarle sul vostro computer e poi ingrandirle con il software di visualizzazione di immagini che usate di solito. Ebbene, vedrete che, ingrandendo molto, se fra le versioni PNG (a sinistra) e JPEG 94% (quella di mezzo) non ci sono differenze apprezzabili, la versione JPEG 10% (a destra) risulta marcatamente degenerata, con una sorta di artefatto a blocchi. Ebbene quello è l’effetto di perdita di informazione, causato da una compressione JPEG troppo aggressiva. Dipende quindi da come si vogliono utilizzare le immagini.

Ma vediamo ancora più in dettaglio come stanno le cose, confrontando un particolare dell’immagine senza alterazioni, con risoluzione ridotta, con compressione JPEG e con tutti e due i trattamenti.

confronto del particolare di un'immagine: originale alta risoluzione, con compressione jpeg aggressiva, con riduzione della risoluzione del 20%, con ambedue i trattamenti, da sinistra a destra rispettivamente
1) immagine originale ad alta risoluzione 4320×3240 pixel, dimensione 19 MB; 2) sempre ad alta risoluzione ma molto compressa con JPEG, dimensione 213 KB; 3) a risoluzione ridotta del 20%, 864*648 pixel, dimensione 211 KB: 4) sia a risoluzione ridotta che molto compressa con JPEG, dimensione 23 KB. Clicca l’immagine per vedere gli effetti, poi clicca ancora sull’immagine che viene per zoomarla e vedere bene gli effetti.

Per vedere bene gli effetti occorre cliccare sull’immagine qui sopra, che è scalata per farla entrare nell’impaginazione, e poi cliccare nuovamente sull’immagine che appare per ingrandirla ulteriormente.

Ebbene, se la dimensione del file dell’immagine originale era di 19 MB, sia riducendo la risoluzione del 20% che applicando una compressione JPEG energica – 10% secondo Gimp – questa si riduce a circa 200 KB, ovvero dell’1%, e in ambedue i casi si osservano delle degenerazioni, che sono però di natura diversa. Applicando infine ambedue i trattamenti, si riduce sì di un ordine di grandezza la dimensione del file (23%) ma addio qualità.

Quindi, primo messaggio: per ridurre il “peso” di un’immagine si può agire sul parametro di qualità-compressione del formato JPEG ma occhio alla risoluzione: se i pixel sono pochi il rischio di rovinare l’immagine è alto, quindi bisogna essere prudenti: andare per tentativi e errori.

Secondo messaggio: per lavorare bene, può avere senso porsi il problema se convenga ridurre le dimensioni riducendo la risoluzione oppure comprimendo di più con il JPEG. Si confrontino le immagini 2), compressa con JPEG, e 3), alleggerita riducendo la risoluzione. La prima ha i contorni più conservati mentre si sono praticamente perse le sfumature delle superfici piane. Nella seconda le sfumature delle superfici sono ancora ben rappresentate ma i contorni sono deteriorati dalla dimensione dei pixel – meno pixel vuol dire pixel più grossi. Da tutto questo si vede come in ambedue i casi la riduzione delle dimensioni dell’immagine sia stata ottenuta al prezzo della perdita di una certa quantità di informazione, ma che tale perdita è qualitativamente diversa nei due casi. La riduzione della risoluzione tende a sciupare i contorni, la compressione JPEG tende a sparpagliare la degenerazione nell’immagine. L’indicazione pratica che se ne ricava è che nel caso di immagini morbide e con poche variazioni brusche di contrasto conviene ridurre la risoluzione, ovvero il numero di pixel; invece nel caso di immagini dove predominano linee e contorni forti, può convenire ricorrere ad una compressione JPEG più energica. In ogni caso: domandarsi come verrà usata l’immagine e cosa vogliamo comunicare e poi andare per tentativi ed errori, perché gli effetti cambiano a seconda del tipo di immagine.

Chi si cimenta nell’uso di Gimp si accorge che fra i 40 formati nei quali può salvare un’immagine, il primo che viene proposto è XCF. Questo è il formato nativo di Gimp, ovvero quello che è in grado di memorizzare tutte le informazioni fra una sessione di lavoro e l’altra. È il formato da usare quando si lavora con un’immagine e la vogliamo mantenere per ritornarci a lavorare in futuro – se la memorizziamo in questo formato siamo sicuri di ritrovare tutta quello che abbiamo fatto in precedenza. Non è il formato da usare per inviare un’immagine in rete, a meno che uno non voglia condividerla con qualcun altro che debba continuare a lavorarci con Gimp. Il processo corretto quindi è quello di memorizzare tutte le varie versioni dello sviluppo in XCF e poi esportare il risultato in un formato idoneo a essere trasmesso, per esempio GIF, PNG, JPEG o altro.

Resterebbe da dire qualcosa sulle elaborazioni in grafica bitmap, ma vedremo meglio dopo, ragionando del terzo fatto che fa la differenza, in materia di manipolazione di immagini.

Lavorare in grafica vettoriale con Inkscape

Le immagini si possono creare anche in grafica vettoriale. Anche per questo tipo di elaborazione esiste uno splendido software libero, che è Inkscape. Vediamo un esempio.

esempio di immagine creata in grafica vettoriale, mediante il software inkscape
Esempio di tipica immagine che conviene produrre in grafica vettoriale. Questa è stata prodotta con il software libero Inkscape. Clicca l’immagine per vederla meglio.

Il soggetto dell’immagine non ci interessa qui, se non per come è stato costruito graficamente. Chi fosse incuriosito dal senso del diagramma può leggere una breve nota [5]. Come abbiamo già visto, nella modalità vettoriale, ad essere memorizzati non sono i pixel dell’immagine ma le caratteristiche geometriche degli oggetti – in questo caso triangoli, ellissi, segmenti di vario tipo, sfondi, testi. È una modalità comodissima per fabbricare un diagramma del genere. Una volta costruito un triangolo, con le sue frecce, il suo sfondo e i testi, per fare gli altri, basta raggruppare tutti gli elementi con una semplice riquadratura e duplicare il tutto, spostare la copia nella posizione desiderata e poi intervenire sui singoli elementi che debbano essere eventualmente cambiati, per esempio i testi in questo caso. Ciò è reso possibile dal fatto che il sistema tiene traccia di ogni singolo oggetto e di ogni sua caratteristica, in un modo che rende  molto semplice manipolarlo, riprodurlo e nuovamente alterarlo in ogni successiva fase del lavoro:

dove si mostra come in grafica vettoriale si possa selezionare un intero gruppo di oggetti per poi portarlo in giro, duplicarlo o alterarlo in ogni sua parte
Esempio di come, in grafica vettoriale, sia facile selezionare un gruppo di oggetti, per poi spostarlo, replicarlo o modificare in ogni suo componente. Cliccare l’immagine per vederla meglio.

Fra i casi estremi che abbiamo mostrato esiste tutta una zona intermedia di risultati che possono essere raggiunti con ambedue i sistemi. Per averne un’idea può essere interessante andare a vedere in  DeviantART – un social network dedicato alle creazione grafiche – i lavori fatti sia dagli appassionati di Gimp che da quelli di Inkscape.

Anche Inkscape ha un formato di riferimento che conserva tutto ciò che serve per conservare il lavoro fra sessioni successive, è lo SVG. Valgono le stesse considerazioni fatte a proposito del formato XCF di Gimp. La differenza con Gimp è che Inkscape non offre formati che comprimono in modo non conservativo – per esempio si può salvare in PNG ma non in JPEG. Del resto, se vogliamo, il formato vettoriale opera intrinsecamente una forma di compressione, memorizzando solo i parametri geometrici degli elementi presenti anziché i contenuti dei pixel, che sono quasi sempre centinaia di migliaia o milioni. Ad esempio, l’immagine precedente, che è anche abbastanza complessa, è composta da 780’000 pixel ma il file in formato SVG occupa solo 85 KB. Se poi uno volesse comprimere ulteriormente un’immagine prodotta in grafica vettoriale usando il formato JPEG, per qualche giustificato motivo, non ha che da prendere la versione in PNG, caricarla in Gimp  e da lì salvarla in JPEG, con il grado di compressione desiderato. Lo faccio, esagerando, per far vedere ancora il tipo di degenerazione che può venir fuori. Il file in JPEG è diventato di 29 KB ma…

degenerazione che si ottiene comprimendo troppo in jpeg un'immagine prodotta in grafica vettoriale
Esempio del modo in cui si deteriora un’immagine prodotto in grafica vettoriale applicandole un’eccessiva compressione JPEG. Qui l’immagine è stato prodotta lavorando con Inkscape sul suo formato nativo SVG, poi è stata esportata nel formato tipo bitmap PNG, che comprime in modo conservativo, quindi è stata caricata in Gimp per essere infine salvata in formato JPEG con qualità del 10%. Clicca l’immagine per vedere bene gli effetti.

Terzo fatto: usare i livelli (layers)

Infine il terzo fatto che fa la differenza in materia di elaborazione di immagini: l’esistenza dei livelli (layers). I livelli consentono di costruire un’immagine attraverso la sovrapposizione di piani contenenti elementi diversi di quella che sarà l’immagine risultante. Un caso tipico può essere quello della sovrapposizione di scritte ad un’immagine fotografica: la fotografia sta in un piano e i testi da sovrapporre stanno in altri piani.

Quello dei livelli è uno strumento potentissimo. Un vantaggio fondamentale è la facilità con cui si può intervenire in tempi successivi solo su alcune parti delle immagini. Cambiare un testo ormai integrato in una fotografia può essere un incubo. Cambiarlo nel suo piano, lasciando tutto il resto inalterato, è un gioco da ragazzi.

Vediamo un esempio costruito sulla solita immagine della locomotiva.

illustrazione dell'impiego di livelli nella costruzione di un'immagine
Questa immagine è stata costruita con Gimp in 4 livelli: il primo contiene la fotografia resa monocromatica, il secondo contiene solo il fumo che spiffera dai meccanismi, reso in rosso, il terzo contiene gli elementi grafici in verde e il quarto i testi in giallo.

Le possibilità offerte dai livelli sono sterminate. Per esempio, sempre con Gimp, non è difficile ottenere dalla precedente un’immagina animata in GIF:

esempio di immagine animata gif ottenuta con Gimp

Anche il programma in grafica vettoriale Inkscape offre l’elaborazione in livelli. Tuttavia, siccome nella grafica vettoriale ogni oggetto rimane indipendente e può sempre essere riacciuffato successivamente, da solo o in gruppo, i livelli giocano un ruolo un po’ minore, anche se in certe circostanze possono tornare molto utili. Nella grafica bitmap invece l’esistenza dei livelli cambia la vita a chiunque voglia fare qualcosa di appena più elaborato di un semplice ritocco.

Coda

Non ho dato istruzioni per l’uso – come si fa a fare questo o quello. Non credo che si impari per istruzioni preconfenzionate ma per suggestioni. Se la suggestione per qualcuno c’è stata allora costui proverà a fare qualcosa. Se avrà problemi lo scriverà, e noi lo aiuteremo.


Note

  1. B: byte = 8 bit; 1 KB = 1024 B; 1 MB = 1024 KB; quindi 1 MB = 1024 x 1024 B, approssimativamente 1 MB è qualcosa più di un milione di B.
  2. Per chi ha poca dimestichezza con il linguaggio matematico. L’equazione dice molto semplicemente che il risultato dell’operazione a sinistra dell’uguale, deve essere uguale a ciò che c’è alla sua destra, vale a dire uguale a 0. L’operazione a sinistra non è altro che una somma algebrica (vale a dire che c’è anche roba col segno meno) di alcuni termini, che sono a loro volta prodotto di alcuni fattori: x2 vuol dire x moltiplicato x, 2αx vuol dire 2 moltiplicato α moltiplicato x, eccetera. α, β e r sono le cose fisse, i cosiddetti parametri. Sono fisse nel senso che se io attribuisco a ciascuna di esse un valore, allora ho definito una precisa circonferenza, all’interno del mondo di tutte le infinite possibili circonferenze possibili. Rimangono x e y. Queste sono le variabili, quelle che servono a disegnare la circonferenza su un pezzo di carta o sullo schermo del computer, in questo caso. In sintesi, il software considera x e y come le coordinate dei pixel sullo schermo, esattamente come nella battaglia navale o in una carta geografica. Poi si “diverte” a “provare” vari valori della x, risolvendo l’equazione, cioè trovando la y in modo che valga l’uguale. Trovata così la y per ogni x, usa tali valori per individuare il pixel di tali coordinate e lo riempie di colore. Così viene fuori la circonferenza. Questa è una descrizione un po’ semplificata ma è corretta.
  3. Interno cabina della locomotiva a vapore HG 3/4 Nr. 1 “Furkahorn”, fabbricata in Winterthur (CH) nel 1913 per operare sulla tratta a scartamento ridotto di alta montagna Brig-Furka-Disentis, successivamente venduta in Vietnam nel 1947, dove ha lavorato fino al 1993, anno nel quale è stato riportata in Svizzera per viaggiare sulla linea Oberwald-Furka-Realp, da allora operativa nella stagione estiva
  4. I programmi che consentono di salvare immagini nel formato JPEG offrono sempre la possibilità di determinare la qualità regolando il compromesso compressione-qualità mediante un fattore numerico. Talvolta questo fattore è espresso come una percentuale che va da 0 a 100, ma attenzione, questo non rappresenta il fattore di compressione del file risultante ma solo un indice numerico che esprime il livello del suddetto compromesso. Programmi diversi quantificano in maniera diversa tale compromesso, che delle volte è espresso in termini differenti da quello percentuale. Quindi, quando si salva un’immagine in JPEG, dire che si è usato quel certo livello di compressione non vuol dire nulla se non si specifica anche con quale software è stato ottenuto. Ecco perché nel testo abbiamo specificato per esempio “10% secondo Gimp”.
  5. Il diagramma rappresenta un tentativo ingenuo del sottoscritto di descrivere l’attività dell’insegnante nel cMOOC #ltis13 sulla base dell’activity theory di Yrjö Engeström. Giusto per dare un’idea di cosa rappresenti il diagramma, in maniera estremamente sintetica: i triangoli sono una generalizzazione del concetto di azione mediata di Vygotzky, rappresentata con un triangolo che descrive come il soggetto agisca sull’oggetto attraverso una mediazione complessa, realizzata mediante artefatti complessi, strumenti o simboli. Tale generalizzazione prende il nome di activity system e tiene conto del fatto che un soggetto agisce sempre all’interno di un sistema e che la descrizione delle sue azioni rappresentano una particolare prospettiva di quella che in realtà poi risulta un’attività del sistema. Facendo riferimento al triangolo di sinistra, per esempio un insegnante opera in un sistema caratterizzato da precisi insiemi di collaboratori (in basso al centro) che condividono un certo sistema di regole (vertice basso sinistro) e operano secondo una determinata divisione del lavoro (vertice basso destro), producendo, mediante un sistema di strumenti e simboli (vertice alto), un intervento che dovrebbe intercettare le domande e le necessità degli studenti, all’interno dalle loro rispettive zone di sviluppo prossimale.

Lo screenshot #loptis

Post aggiornato il 4 novembre 2013 @ 11:00: ho aggiunto un’appendice sullo screenshot con congegni touchscreen – tablet, cellulari ecc.

Clicca qui per scaricare la versione in pdf.


Cos’è lo screenshot? – abbiamo chiesto nell’ultimo post. In 48 ore hanno risposto 56 persone un terzo delle quali hanno votato “No”. Ne sarebbe bastata una per scrivere questo post. Prima però anticipiamo il prossimo argomento con un sondaggio…

%d blogger hanno fatto clic su Mi Piace per questo: