Google Pixel 3: ecco come funziona il Super-Res Zoom

16 Ottobre 2018 95

Google continua imperterrita nella sua strategia della fotocamera principale singola su Pixel 3 e Pixel 3 XL, e ieri sera ha spiegato il perché con dovizia di dettagli. L'estrema sintesi del lungo e tecnicissimo post sul blog ufficiale è che il suo nuovo algoritmo Super-Res Zoom riesce a produrre scatti di qualità paragonabile a quella di uno zoom ottico 2X.

Lo zoom di Google Pixel 2 VS quello di Google Pixel 3

Alla base del Super-Res Zoom c'è una tecnica di interpolazione usata già da diversi anni in astronomia. Si chiama drizzle, e crea immagini a risoluzione più alta dell'originale combinando le informazioni di più immagini, scattate in rapida successione (raffica) e da un punto di vista leggermente diverso. Per esempio, ogni foto successiva alla precedente viene spostata di un pixel in varie direzioni (destra, in basso, diagonale, in alto...).

Questa tecnica è già sfruttata da alcune fotocamere DSLR, e nei telescopi, ma solo con accorgimenti particolari. Il sensore e il soggetto devono essere allineati, e il movimento relativo tra i due elementi deve essere controllato con estrema precisione. In campo astronomico è il cielo a muoversi, con velocità e direzioni prevedibili con grande precisione grazie a formule che si possono facilmente trasformare in algoritmi; nelle DSLR serve un treppiede, e il sensore della fotocamera viene fisicamente spostato (il processo si chiama spesso microstepping).


Google è riuscita a rendere efficace questa tecnica anche su uno smartphone, che è per definizione mobile. La chiave di volta è trasformare in vantaggio lo svantaggio dell'impugnatura con la mano - ovvero usare quei piccoli tremori assolutamente fisiologici che causano lo spostamento dell'immagine di appena di una manciata di pixel che nemmeno la stabilizzazione ottica riesce a eliminare.

Gli effetti del tremore della mano

Scegliamo un'immagine nella raffica come riferimento, e poi allineiamo ad esso tutte le altre. Dopodiché, le immagini vengono combinate insieme. Naturalmente, è improbabile che il tremore della mano sposti l'immagine esattamente di un pixel, quindi dobbiamo interpolare tra i pixel adiacenti ogni nuovo frame prima di inserire i colori nella griglia di pixel del nostro frame di riferimento.

È interessante osservare come Google debba creare artificialmente questo movimento per usare il Super-Res Zoom nei casi in cui lo smartphone sia perfettamente stabile - per esempio appoggiato su una superficie, uno stand o un treppiede. Facendo un pinch-to-zoom al massimo nel viewfinder con il telefono in appoggio, si dovrebbe riuscire a vedere ad occhio nudo un movimento ellittico dell'oggetto inquadrato.

Detta così sembra facile, ma ci sono molti altri problemi da considerare per ottenere degli scatti di grande qualità. Per esempio, l'algoritmo deve capire quali pixel di un'immagine sono colori reali e quali invece sono rumore; deve saper gestire soggetti in movimento complesso come persone e automobili. Google dimostra in questo album su Foto la bontà del risultato finale, e anche il miglioramento rispetto ai Pixel di seconda generazione è tangibile.

Google Pixel 2 (SX) VS Google Pixel 3 (DX): non c'è storia.

Tuttavia, mancano confronti con i migliori smartphone dual (o più) cam oggi sul mercato. Darebbero un'idea un po' più completa della validità della soluzione rispetto alla concorrenza attuale, non rispetto al modello dell'anno scorso. Vi piacerebbe se approfondissimo con un nostro test?

In ogni caso, Google conclude con un po' di consigli su come sfruttare in modo ottimale il Super-Res Zoom:

  • Usare il pinch-to-zoom o usare il pulsantino "+" per incrementare lo zoom con step ben precisi
  • Doppio tap nell'anteprima per zoomare rapidamente
  • Super-Res Zoom funziona bene a tutti i livelli di zoom, ma si attiva solo sopra l'1,2x.
  • Ci sono limiti invalicabili dovuti alla risoluzione ottica di una fotocamera grandangolo. Per ottenere i risultati migliori, è meglio non zoomare troppo.
  • Meglio evitare oggetti che si muovono molto rapidamente. Il Super-Res Zoom li catturerà correttamente, ma difficilmente si avrà un incremento della risoluzione.
VIDEO

Google Pixel 3 XL è disponibile su a 530 euro.
(aggiornamento del 21 ottobre 2020, ore 03:33)

95

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
mdma

Peccato che qua il limite fisico te lo impongono loro... dandoti a soli 1000€ un solo sensore.
Un secondo tele + il loro software sarebbe molto meglio.

Massimo

visto che è tutto software immagino che possa essere portato senza grossi problemi almeno sui pixel 2 non hanno grosse differenze hardware

E K

Mi sa che hai ragione.

mdma

Eh c’hai ragione. Sarai sfigat0 dalla nascita, inutile ritentare.
Addio.

Ikaro

Lol certo certo... Basta che ci credi... Ahahaha

eric

....però difficilmente SOSTANZA fa rima con ELEGANZA
tra l'altro penso sia, ad oggi, quasi impossibile dedicarci due speaker frontali stereo senza cornici (Sony insegna) che siano veramente efficienti

mdma

Sei rimasto all’X forse. Xs ha finalmente un sensore top e un nuovo algoritmo sia per foto “normali” che per l’effetto blur.

Ritenta sarai più fortunato.

eric

....per curiosità credo che i primi ad implementare questa tecnologia siano stati in casa Olympus sulla versione OM-D EM5 II

onlykekko

ok ma il sensore dedicato già esiste e viene utilizzato da tutte le soluzioni con zoom ottico 2x in commercio.

E K

Allora, sulla k1II ci vogliono circa 30 secondi (in cui la cam non risponde a nessun altro stimolo) per sommare le foto automaticamente oppure lo si fa successivamente da pc con il software della pentax.

Le immagini vengono analizzate e sommate integralmente (ovvero oggetti in movimento o disallineati vengono riallineati, per quanto possibile, fino ad ottenere un'immagine totalmente rielaborata).
Le recensioni della mark 2 le trovi in inglese, giapponese (per chi ci capice qualcosa da g-translate) e tedesco, in italiano non ho trovato nulla di dettagliato.
Che io sappia la pentax é al momento l'unica dslr che permette il PS a mano libera (ed é stata la prima ad integrarlo per simulare il filtro passabasso, che aveva eliminato nella k3).
Ovviamente google tira l'acqua al suo mulino, e probabilmente ha implementato l'algoritmo in maniera ottima, cionondimeno no ha inventato, ma ha adattato una soluzione esistente. Quello che temo é che come con la gcam per le foto notturne, ci si trovi molti artefatti attorno alle aree di forte contrasto. Vedremo come funziona questa cam nel mondo reale. Sicuramente é una soluzione molto interessante se implementata bene.

dicolamiasisi

il problema nello smartphone lo risolvi con un sensore tele dedicato...il limite è non aspettarsi 5x o piu ma 2x e basta

onlykekko

Nì.
Mi spiego: il discorso sarebbe indubitalmente vero se le lenti fossero degne di questo nome.
Vero è che non esiste competizione tra uno zoom ottico ed un digitale, per quanto questo sofisticato sia.
Il punto è che lo zoom ottico negli smartphone presenta due enormi limiti (sensore minuscolo e lenti pessime) che rendono i risultati talmente mediocri da poter permettere a Google di provare ad avvicinarcisi con simulazioni software.
Poi è sacrosanto che uno zoom ottico sarà sempre meglio di un digitale.

Eros Nardi

Mi sono letto degli approfondimenti: è vero che la modalità di cui parli (la Dynamic Pixel Shift resolution) è da elaborare successivamente da computer?

Comunque è Goole stessa a dire che il suo algoritmo è unico e che i competitor (DSLR comprese) effettuano pixel shift solo se su treppiede.
Riguardo la Dynamic PS di Pentax in effetti non ho trovato dettagli se si stratta di un vero pixel shift o di uno stack potenziato (stile hdr).

Nel post di google inoltre viene specificato che lui selezione di base la migliore immagine poi applica la super risoluzione solo per gli oggetti per i quali riesce a riconoscere la corrispondenza tra i vari frame ad esempio ignora le foglie che si muovono al vento o una scia di fumo ecc..

dicolamiasisi

lo zoom ottico lo usi proprio per catturare dei dettagli che non riesce a darti un sensore standard ottimizzato e con pixel grandi

onlykekko

Assolutamente.
Anche perché non avendo un diaframma fisico possiamo capire già che razza di controlli davvero manuali siano :)

onlykekko

Diciamo che ottico in teoria sarà sempre migliore di una simulazione dei pixel mancanti, per quanto ben fatta.
Qua però stiamo discettando di “zoom ottico” come se non si trattasse di un giocattolino che funziona molto più per ragioni di marketing che nella realtà.
Quindi al momento la situazione è abbastanza semplice: accontentandosi dei risultati comunque mediocri si può affermare che in situazioni ideali di luce si comporta meglio lo zoom ottico, quando invece la luce cala (non parlo di scatti notturni, attenzione) la soluzione di Google funziona molto meglio.
Vedremo in futuro, al momento le cose pare stiano così.

alla fine sui controlli manuali a me basta che non tolgano la possibilità di modificare l'EV e di bloccare eventualmente l'autofocus e l'autoesposizione.

in realtà la dimensione dei pixel nello zoom frega eccome.

onlykekko

Ma infatti la strada di Google ha un suo senso, visto che i limiti fisici degli smartphone sono al momento un ostacolo insormontabile.
Nulla vieta alla concorrenza di utilizzare la strada di Google però: la potenza di calcolo lo permetterebbe.
Ovvero: se la luce è poca entra in gioco l’AI per migliorare, in questo caso, l’interpolazione.
Altra considerazione: ricordo come fino allo scorso anno ci si lamentasse dell’impossibilità di utilizzare le impostazioni manuali su Apple (cosa che comunque offrono molte app di terze parti, ndr), ora invece si ritorna al punta e scatta con scene predefinite dove l’AI la fa da padrone.
Cosa che secondo me ha molto più senso sugli smartphones.

dicolamiasisi

non sara mai loseless...solo un sistema ottico lo è....la dimensione dei pixel chissenefrega nello zoom

E K

È brevettato, ma non so da chi, la richo (pentax) la olimpus e la hasselblad usano quella tecnologia giá da qualche annetto. E anche secondo me google fa bene ad implementarla, ma da qui a dire che ha "inventato" qualcosa, ci passano 3 universi per il lato lungo.

Però in entrambi i casi la qualità non è ottima.,. e a sto punto meglio sta tecnologia.

Esatto, però anche se usa il secondo sensore quando la luce cala, la qualità sarà sempre molto mediocre.

Garrett

Si ma nel primo caso il problema è l'interpolazione e le informazioni di origine. Nel secondo caso dipende dalla focale.

Comunque è inutile dire che questa tecnologia non ha senso, quando i sensori zoom 2x dei telefoni sono tutti MEDIOCRI!

Si mediocri perchè funzionano bene solo con tanta luce, appena la luce cala (es interni o sera) la qualità scende drasticamente. Perchè?

Semplice: usano sensori grossi come una caccola (1/3.1-1/3.4"), pixel da 0,9-1 micron e focali molto piccole (f/2.4-2.6), e con caratteristiche del genere solo se c'è tanta luce si ottiene una buona foto. Anche se però facendo un crop si nota come la definizione perde di dettagli in lontananza.

e quando non c'è tanta luce ecco che la foto diventa uno schifo.

Se questa tecnologia permette di ottenere un risultato simile ma migliore quando la luce cala, è solo una cosa migliore che avere un secondo sensore dedicato. perchè qua almeno si sfrutta un sensore bello grande con pixel grandi.

onlykekko

Perché quando la luce cala non viene più utilizzata quella cam ma quella "normale" con un banale zoom digitale.

Han fatto bene ad ispirarsi al mondo delle dslr. Anche Sony si è ispirata al mondo delle dslr sui top di gamma

Con il 2x vedi lo stesso molto rumore appena cala la luce

Conta anche il sensore cge po fanno grande come una caccola e con pixel piccoli, perciò meno qualità e dettagli.
Sto punto meglio sta tecnologia quasi loseless

onlykekko

Ma infatti non ho parlato di migliore o peggiore.
Per quel che mi riguarda un "tele" 2x ottico con un sensore di quelle dimensioni è puro marketing: l'obbiettivo 2x in XS interviene solamente dai 3500 lumen in avanti (e 3500 lumen sono davvero tanti). Immagino che anche il resto della compagnia non si comporti tanto diversamente.
Però se una testata fa una recensione punto per punto analizzandone tutte le funzioni non puoi omettere questo comportamento o addirittura non conoscerlo.
La comparativa dello zoom non può basarsi su uno scatto e basta senza fornire nessun dato exif, senza sapere a quanti ISO la foto è stata scattata, il tempo di posa eccetera.
Insomma, sono d'accordissimo con te, ma a me interesserebbe anche sapere quali sono le condizioni in cui un prodotto si comporta meglio di un altro.
Nel caso dello zoom non sappiamo nemmeno quale sia la condizione, non si può scrivere "lo zoom 2x simulato di coso batte quello ottico di tizio" se tizio ha scattato quella foto utilizzando l'altro obbiettivo.
Tra l'altro tutte le altre testate, pur sottolineando l'ottimo lavoro svolto da google, scrivono che comunque lo zoom ottico per ora è un gradino sopra (come è comunque logico che sia).
Detto ciò, ripeto che lo zoom ottico su uno smartphone è materiale talmente ostico da risultare abbastanza inaccettabile in entrambi i casi: costringe all'utilizzo di un sensore troppo piccolo perché risulti utile in molte situazioni, quindi l'approccio di google ha senso, basta sapersi accontentare e non pretendere la luna.

E K

No, considerando che il pixelshift a mano libera della k1 mark2 trae vantaggio o compensa i tremolii (se controproducenti) in modo da avere un risultato migliore, direi che google non ha inventato nulla, ha solo semplificato gli algoritmi giá usati e li ha integrati nel suo. Vediamo poi come funziona con oggetti in movimento.

E K

Hanno preso soluzioni del mondo fotografico giá usate su varie altre reflex (che costano in alcuni casi meno di 1000€) e le hanno inserite in un telefono con cam scarsa. Avranno pagato in oro le varie Richo, Hasselblad, Sigma per la loro R&D secondo te? Io non ci credo.

I geni sono quelli del marketing, che vi fanno comprare cose scadenti vendendole per priiiimium.

Eros Nardi

Hai saltato tutta la parte in cui si spiega che qua non viene generato un movimento predefinito ma si procede a ritroso dal tremolio della mano vero?

Eros Nardi

Il mondo smartphone sta dimostrando il contrario.
Tante volte mi è capitato di vedere foto fatte con la scarsa ottica da zoom peggiori di quelle dell'ottica normale

Eros Nardi

Io faccio una sola considerazione.
Ho un telefono a 1000€, scatto una foto ad un soggetto lontano zoomando e vorrei che si vedesse al meglio.
Non sto li a dire "oh aspetta è un'auto in corsa allora non scatto" oppure "mmm forse c'è troppa poca luce, meglio non fare la foto".
Se un prodotto produce risultati migliori a parità di condizioni è semplicemente un prodotto migliore.

E K

Benvenuti nel 2015 con il pixelshift di pentax (introdotto per lo scatto a mano libera a marzo 2018 sulla mark2) e usato allegramente anche da Hasselblad.
Nulla di nuovo sotto il sole, google non ha inventato nulla, solo recuperato idee giá sviluppate altrove... inoltre avere una soluzione simile su un dualcamera l'avrebbe reso il miglior camerphone dell'anno.

dicolamiasisi

per lo zoom conta l'ottica

Per avere una qualità peggiore rispetto al sensore principale visto che è più piccolo, ha pixel più piccoli e apertura più piccola

Calcolando che molti sensori 2x no È che sono sti gran dettagli, ben venga questa risoluzione.

dicolamiasisi

in fotografia al primo posto l'hw poi il sw...ergo un sensore ottico 2x è sempre meglio

Garrett

Meglio I 2x ottici, reali.
Qui vedo solo molto rumore

Ikaro

Lol tu sei tutto matto ahahaha a parte che lo sfocato di un dual camera è sempre sw (dalla seconda camera prende solo le informazioni sui diversi piani focali), hai preso l'esempio e il telefono peggiori... I pixel asfaltano tutte nello sfocato e gli iPhone sono i peggiori, ritenta, sarai più fortunato...

mdma

“Unisci il tuo ottimo SW ad un HW pari alla concorrenza”

Quante teste di càzzò/fànboy Google popolano questo bIog?

GiovanniDB

Ma come potete paragonare un risultato software con uno hardware?

Mark

è inferiore ad un 2x ottico di qualità, ma sui cellulari non esiste 2x reale, tanto che non si vede differenza con un ritaglio

Mark

ma che cavolate dici? quindi il lavoro degli sviluppatori non va pagato a differenza dell'hardware? I geni google di queste eccellenze andrebbero pagati in oro, piuttosto

Tizio Caio

Peccato che il pixel 3 abbia la fotocamera migliore delle 2,3,4 fotocamere della concorrenza

efremis

Sarebbe ottimo da sfruttare via software anche con camere dual tele. Hardware più software

Lonza

riguardo il confronto fotografico ho proprio visto oggi quella di supersaf (che fra l'latro compara anche il superzoom).
poi tutte le altre recensioni principali

an-cic

Quindi dico che tra 2 giorni vendono il nuovo pixel col sw meno aggiornato del pixel 2?
Puoi farmi i nomi delle recensioni che hai visto e che, non dico approfondiscono ma almeno affrontano, il discorso zoom.

Ps: non resterò affatto deluso proprio perché io prima di farmi una opinione aspetterò che esca in commercio con la versione definitiva. Solo a quel punto valuterò se prenderlo o meno

Recensione Sony Xperia 5 II: il miglior top compatto Android

Recensione Realme 7 Pro: c'è di più oltre ai 65 Watt di ricarica

Recensione Samsung Galaxy Z Fold2: quello che non vi hanno detto, un mese dopo

Recensione Motorola Razr 5G: lo smartphone per distinguersi