La compañía dueña del motor de búsqueda más consultado del mundo anunció el desarrollo de una nueva tecnología que pretende mejorar la calidad de las fotos tomadas con el celular en lugares oscuros.
Este nuevo sistema basado en campos de radiación neuronal se presentó por parte de Google Research en la conferencia CVPR, que estuvo centrada en RawNeRF .
NeRF es un sintetizador de imágenes que es capaz de crear escenas tridimensionales a partir de fotografías; es un proyecto llamativo, aunque pasase algo desapercibido cuando fue presentado el pasado mes de mayo.
Los campos de radiación neuronal, o NeRF, son redes neuronales que tienen la capacidad de partiendo de una imagen en 2D, crear una escena 3D automáticamente.
En este caso Google en busca de mejorar las fotografías que se toman en ambientes donde hay una escasa luminosidad. Y para poder hacer esto, la cámara ‘simplemente’ va a combinar diferentes puntos de vista para reconstruir la escena gracias a su procesador y dar un resultado nítido.
La idea de Google es combinar la tecnología de NeRF y usar las imágenes RAW (fotografías de máxima calidad) que pueden capturar las cámaras de los dispositivos móviles, para crear una escena mucho más nítida, sin el ruido causado por la falta de iluminación en algunas ocasiones al momento de tomar una fotografía.
Según la compañía, RAWNeRF permitirá recuperar detalles ocultos detrás de la apariencia granulada de fotografías poco iluminadas que no han sido procesadas y que no es posible notar aun cuando se pasa la imagen por un programa de edición.
Aunque Google por el momento google no confirmó si usará esta tecnología en Android, siendo un proyecto que forma parte de Google Research, se espera nueva información al respecto en los próximos meses.