Era una de las novedades de los iPhone 11 aunque ha habido que esperar a la llegada de la versión 13.2 del sistema operativo: Deep Fusion. Con este nombre Apple estrena un modo de alta resolución que mediante la suma de varias imágenes en un sólo disparo promete ofrecer más detalle y nitidez en las imágenes.
Una función que llega con el sistema operativo y la aplicación Camara pero que sólo está disponible en los tres iPhone 11 y no en los modelos anteriores que usen esta versión de iOS.
Se trata -explican desde la compañía- de un tema de potencia de procesador porque esto va de fotografía computacional, inteligencia artificial y todas esos trucos a las que recurren los smartphones para suplir sus carencias fotográficas.
Así que con iOS 13.2 recién instalado hemos ido rápidamente a la aplicación de cámara para comprobar la diferencia en los resultados. Primera pregunta obligada que seguro muchos se están haciendo: ¿dónde o cómo se activa?
Todo automático
Ni rastro de Deep Fusion entre las contados ajustes de cámara que se ofrecen ni en los menús de la aplicación. La respuesta es sencilla: no hace falta activarla porque funciona automáticamente. Es decir, el iPhone decide cuando utilizar este modo de multidisparo y cuando no y el usuario poco puede hacer al respecto.
Ni durante la toma ni al revisar las fotos se da ninguna pista sobre si se ha recurrido o no a Deep Fusion y tampoco el peso del archivo parece resentirse con esta fusión de hasta 9 fotos para crear una única imagen.
No obstante, sí hay algunos detalles interesantes: el modo no es compatible con la cámara más angular -igual que el modo noche- y parece especialmente activa cuando recurrimos a la cámara de 56 milímetros. Y como Apple dejo entrever en su momento, Deep Fusion puede resultar especialmente interesante para sacar algo más de detalle en texturas.
¿Se nota?
Pero cómo saber la diferencia entre una foto hecha con y sin este sistema si no tenemos opción de controlarlo. Los más ágiles hicieron una foto antes de actualizar y otra después pero nosotros hemos recurrido a otro truco que hemos encontrado: Deep Fusion no es compatible con el sistema de «captura fuera de marco» con lo que basta activarlo para saber que Deep Fusion no entrará en acción.

Así que con la teoría aprendida realizamos un par de retratos para ver si realmente se aprecia la diferencia. Y aunque a primera vista cuesta mucho distinguirlo si revisamos las imágenes al 100% y la ponemos una al lado de la otra, efectivamente, la que tiene Deep Fusion -eso suponemos- muestra algo más de detalle que se aprecia en la piel pero sobre todo en la textura del jersey.

¿Una diferencia abismal? La verdad es que no. ¿Se nota más al usar la cámara «tele» que el angular? Eso parece ¿Se produce un cambio en el tamaño de la imagen de 12 a 24 megapíxeles como se llegó a comentar en su momento? No.
¿Una forma interesante para aumentar la calidad fotográfica más allá del clásico combo de sensor y óptica? Está claro que sí y esa es precisamente la parte más interesantes. El mismo hardware y sin cambiar en absoluto la experiencia de usuario es capaz de ofrecer un mejor resultado. El futuro de la fotografía va en esa dirección, aunque de momento parece que sólo el de la fotografía móvil.
Por cierto. ¿habrá que repetir la loca comparativa del iPhone 11 Pro contra la Sony A7R IV para ver si la distancia se reduce más?
Vamos nuevamente a repetir esa loca comparativa…????????
Pues yo no la vi tan loca. Viendo esto dan ganas de llorar…
https://arisingimages.com/see-iphone-xs-compares-professional-camera-landscape-photography/23010/