Siempre se ha dicho que una imagen vale más que mil palabras, pero NVIDIA acaba de lanzar un tecnología que tan solo necesita una escueta frase descriptiva para generar un imagen fotográfica realista.
Se trata de la nueva funcionalidad de su motor de inteligencia artificial GauGAN 2 que, a través del aprendizaje profundo o deep learning es capaz de interpretar todo tipo de descripciones textuales y convertirlas en fotos. Así basta con escribir cosas como «puesta de sol en el mar» o «olas del océano chocando en rocas» para obtener un imagen realista que se ajusta fielmente a la descripción.
Si el resultado no se ajusta a lo esperado, basta con añadir en la frase nuevos adjetivos o matices, ya que el programa puede interpretar detalles como la hora del día o las condiciones climáticas. GauGAN 2 funciona con tecnología GAN, siglas de generative adversarial networks o redes generativa antagónicas, un conjunto de redes neuronales que se han convertido en uno de los pilares de la reciente explosión de la inteligencia artificial.

Una vez conseguida la imagen a partir de un texto, es posible generar un esquema cromático a partir del cual podemos modificar elementos de la foto pintando como si se tratara de un boceto.
Es posible probar una demo de GauGAN 2 en la web de NVIDIA. Así mismo en la página de NVIDIA Research está toda la información sobre los proyectos impulsador por AI en los que está trabajando la compañía.
Genera fotografías de la nada a partir de un texto, o las escoge de una base de datos previamente implementada con arreglo a los criterios de ese texto? No lo tengo claro…
Si, yo también tengo esa duda
Duda que parece no va a ser resuelta
…es decir, que entre las “creaciones” con Photoshop y similares, la inteligencia artificial, ahora “construyendo” fotos a partir de textos, y lo que nos quede por ver que reciba el nombre de “foto”: la fotografía a muerto…
Menos mal que siempre, ¿siempre?, nos quedará la fotográfica química, la de verdad.
Me sumo a ese comentario