02/08/2017

Google e MIT al lavoro sul ritocco fotografico in tempo reale

Smartphone che applicano modifiche agli scatti ancora prima che vengano catturati

Il mondo della fotografia da smartphone sta affidandosi sempre di più a software e algoritmi per ottenere foto migliori da sensori già ai limiti delle proprie capacità fisiche. I migliori gadget in circolazione ormai applicano piccole e intelligenti modifiche ai propri scatti ancora prima di farceli vedere, ma Google sta studiando una soluzione ancora più estrema: insieme ad alcuni ricercatori del MIT ha elaborato una serie di algoritmi di ultima concezione basati sul machine learning e in grado di applicare modifiche complesse alle immagini in tempo reale, ovvero mentre ancora appaiono sullo schermo del telefono prima di essere catturate.

I ricercatori hanno addestrato il loro sistema con circa 5000 immagini fresche di scatto e con le loro versioni migliorate ognuna da cinque diversi fotografi professionisti tramite programmi di fotoritocco. In questo modo gli algoritmi si sono fatti un’idea di come si lavora per rendere più accattivante uno scatto fotografico all’occhio umano, per poi tentare di replicare il lavoro insegnatogli.

La tecnica ottenuta è interessante per due motivi.

l primo è che non si tratta della semplice applicazione di un filtro uniforme, né dell’unione di più scatti un uno (come avviene nella modalità HDR di molte fotocamere): le immagini vengono suddivise in aree differenti alle quali vengono apportate modifiche diverse in relazione agli oggetti rappresentati e alle informazioni contenute.

Il sistema sa distinguere un cielo limpido da un edificio in lontananza e trattarli di conseguenza — ad esempio diminuendo la luminosità del primo e aumentandone la saturazione, e contemporaneamente lavorando sul livello di dettaglio del secondo — e il risultato è molto più simile al lavoro di un fotografo in fase di post produzione, che sa dove sta andando a mettere le mani e sceglie i suoi strumenti di ritocco applicandoli solo nelle zone che li necessitano.

Il secondo aspetto intrigante è che questo genere di modifiche sulle immagini non richiede un supercomputer: trasformando questi filtri dinamici in regole matematiche, i ricercatori di Google e MIT sono riusciti a contenere il loro sistema in un pacchetto software di dimensioni ragionevoli, e a rendere le operazioni sufficientemente snelle da poter essere eseguite su un processore da smartphone. Questo vuol dire che il sistema arriverà prima o poi nelle mani del pubblico, anche se è presto per dire con precisione quando. A Google le bocche sono cucite, mentre gli osservatori più ottimisti sperano di trovare una versione preliminare di queste tecniche già a bordo degli smartphone Pixel 2.

Fonte: wired.it

Condividi su: