La fotografía computacional es un campo en desarrollo que combina los elementos de la fotografía tradicional con el procesamiento adicional realizado por computadora. Está empujando los límites de lo que significa la palabra fotografía. Los nuevos procesos pueden superar las limitaciones de una cámara, codificar más información en un solo archivo de lo que era posible anteriormente, o incluso crear nuevas formas de entender las imágenes. En este artículo, aprenderá acerca de los tres campos principales emergentes de la fotografía computacional..
Lo que consideramos como “fotografía digital” ha dominado el campo de la fotografía durante la última década. En ella, la cámara intenta emular cómo funciona una cámara de película. A esto me referiré como fotografía digital tradicional..
En todos los niveles, la fotografía digital tradicional se basa en su antecesor cinematográfico; Desde los signos externos obvios, como el diseño físico de la cámara, una idea que solo ahora está siendo cuestionada por las cámaras de lentes intercambiables sin espejo, hasta los supuestos y conceptos subyacentes de cómo se captura una imagen..
En la fotografía de película, la luz entra a través de una lente y se proyecta, de acuerdo con la óptica y el enfoque específicos de la lente, sobre la película. Las partículas sensibles a la luz en la película reaccionan a cualquier fotón que caiga sobre ellas, capturando la información tan cerca como lo permitan sus propiedades físicas. La cámara no captura lo que ve el fotógrafo, sino lo que ve la cámara, aunque si todo va bien, estas dos visiones deberían coincidir relativamente..
Siempre hay algunos datos perdidos o dañados por el proceso fotográfico. Si la lente está enfocada incorrectamente, o si es una lente de gran angular, por lo que introduce distorsión, la película capturará todos estos rasgos ópticos. Una cámara de película solo captura una pequeña muestra de la información disponible.
La fotografía digital tradicional simplemente reemplaza la película con un sensor digital. Los sitios de fotos sensibles a la luz reemplazan las partículas sensibles a la luz. La cámara reacciona de la misma manera, capturando linealmente la escena con la mayor fidelidad posible. Los fotones caen en el sensor digital y, sujeto a las características específicas de la lente, la información se captura de acuerdo con su resolución. Se realiza un procesamiento con la información de los sitios de fotos para convertir la imagen final en una fotografía que se adapte a nuestra experiencia de visión, pero está diseñada para hacer que las cosas sean tan fieles a la cámara como sea posible. La cámara no intenta hacer la imagen más de lo que vio..
"ojo bola abuelo", un retrato de Deep Lewis procesado por Mark Lewis. CC BY-SA 2.0Si bien hay obvias razones históricas, tecnológicas y artísticas que la fotografía digital tradicional imita a la fotografía de películas, en los últimos años las cosas han comenzado a cambiar. El supuesto de que una cámara debería Capturar una escena lo más cerca posible ha comenzado a ser desafiado. En su lugar, se han desarrollado métodos fotográficos que utilizan la imagen o imágenes capturadas como el punto de partida desde el cual se procesa o crea la imagen final..
Ramesh Raskar y Jack Tumblin, investigadores en fotografía computacional en el Instituto de Tecnología de Massachusetts, han identificado tres fases para el desarrollo del campo: la fotografía epsilon, que desarrolla procesos mediante los cuales las cámaras pueden superar sus limitaciones inherentes, la fotografía codificada, donde se captura la imagen. es modificable después del hecho, y la fotografía de esencia, donde se cuestiona el concepto mismo de lo que hace que una imagen.
A diferencia de la fotografía codificada o de esencia, las imágenes capturadas con técnicas de fotografía épsilon aparecen a menudo, en la superficie, como simples fotografías digitales. Se toman varias tomas y uno o más parámetros tradicionales de la cámara (enfoque, distancia focal, velocidad de obturación, apertura, ISO y similares) se modifican en una pequeña cantidad entre cada toma. Las tomas se combinan algorítmicamente en una sola imagen de manera que amplíe las capacidades de la cámara..
Tomemos, por ejemplo, la fotografía de alto rango dinámico (HDR), que es la forma más popular de fotografía épsilon. Se capturan múltiples tomas de una sola escena, cada una con un valor de exposición diferente. Al variar la exposición, el rango dinámico de la serie de imágenes supera con creces el de la cámara. Las tomas subexpuestas tienen más detalles de resaltado y las tomas sobreexpuestas son más sombras que las que la cámara podría capturar en un solo cuadro..
Cuando se combinan los disparos, la imagen final refleja el rango dinámico de la serie, no la cámara. Aparte de eso, aparece como una foto digital regular.
HDR no es la única técnica de fotografía épsilon. Cualquier otro parámetro puede modificarse para crear "imágenes imposibles" que, por ejemplo, tienen una mayor profundidad de campo que cualquier cámara podría grabar.
Mientras que la fotografía epsilon pretende ampliar la forma en que la cámara puede representar una escena, la fotografía codificada intenta codificar la mayor cantidad de información disponible en una sola fotografía. Es con la fotografía codificada que el lenguaje tradicional de la fotografía comienza a volverse inadecuado. Una fotografía codificada contiene mucha más información de la que se puede representar con una sola imagen, en cambio, se puede decodificar para recrear la escena de diferentes maneras. En otras palabras, la fotografía contiene más de una imagen posible..
La fotografía de campo de luz es un área de la fotografía codificada que se ha explorado comercialmente en los últimos años. Una cámara de campo de luz, como una de Lytro, captura la escena desde múltiples puntos de vista, cada uno con diferentes planos de enfoque utilizando una serie de lentes pequeños. La información de las capturas resultantes se codifica en un solo archivo de fotografía.
Una imagen tomada con una cámara Lytro que combina múltiples planos focales. Imagen: Lytro.En la postproducción, la información del archivo se puede decodificar en cualquier número de imágenes posibles. Como se registra una muestra significativa de todos los posibles planos de enfoque, se puede cambiar el punto focal aparente de la imagen. De manera similar, con un procesamiento más avanzado, ya que la posición relativa de cada objeto en la fotografía se puede triangular, el primer plano, la mitad del fondo y el fondo se pueden extraer de manera inteligente de diferentes tomas. El sujeto de la foto puede parecer haber sido capturado en f / 16, mientras que el fondo se reduce al tipo de bokeh que obtendrías si se hubieran disparado en f / 1.8.
Cámara Microsoft Kinect que detecta la posición de las manos. Imagen fija tomada del video "Prueba de umbral de cambio de profundidad de Kinect" por Charles Hutchins. CC BY 2.0Otro tipo de fotografía codificada utiliza múltiples exposiciones, ya sea de un sujeto a intervalos conocidos o con múltiples cámaras, para comparar o combinar las imágenes e interpolar nueva información. Por ejemplo, con un sujeto en movimiento y una cámara estática, se puede calcular la velocidad relativa del sujeto en las imágenes y eliminar todo el desenfoque de movimiento de la fotografía resultante. Con un sujeto estático y una cámara en movimiento (o múltiples cámaras sincronizadas), se puede calcular una exploración tridimensional del sujeto. Así es como la cabeza de tu héroe deportivo favorito se convierte en un cuerpo digital en los videojuegos. La cámara Microsoft Kinect y Google Maps son dos proyectos fotográficos codificados de alto perfil.
Las técnicas de fotografía codificada tienen la curiosa costumbre de doblar, si no romper, la idea del marco. Desde el comienzo de la fotografía, las fotografías han sido limitadas ya sea por la caída del borde del círculo de imagen de la lente o por un marco arbitrario. No es así como ven nuestros ojos, pero hemos aprendido a entender las imágenes fotográficas como imágenes estáticas e inmutables con bordes firmes. La fotografía codificada está erosionando este supuesto..
Mientras que epsilon y la fotografía codificada intentan grabar la escena de una manera que sea consistente con la forma en que el ojo humano ve las cosas, la fotografía de la esencia ignora la idea de emular la visión biológica. En cambio, la fotografía de esencia juega con diferentes formas en que la información de una escena se puede entender y representar..
El proyecto Deep Dream de Google, que se llevó la tormenta a Internet a principios de este año, es un ejemplo entretenido de fotografía de esencia. Deep Dream funciona tomando una imagen base y analizando sus características para los patrones de destino. Las secciones de la imagen que más coinciden con los objetivos se transforman para asemejarse más a ellas. La imagen resultante se ejecuta una y otra vez en el proceso para obtener la versión final..
Una imagen mía que se ha ejecutado a través del programa Deep Dream de Google. Parece haber intentado hacer juego con algún tipo de ave.Algunos procesos de fotografía de esencia menos fantásticos podrían ya estar a su alcance. Este tipo de algoritmo potencia las funciones de reconocimiento facial en Adobe Lightroom, en Facebook y en muchos otros lugares..
En los próximos años habrá más desarrollos, y más profundos, en la fotografía de esencia. Las computadoras mejorarán al tirar y transformar la información de las tomas de base. Más que cualquier otra área de la fotografía computacional, la fotografía de esencia tiene el potencial de transformar la forma en que hablamos de las fotografías y permitir nuevas formas de expresión artística..
La fotografía computacional es un campo en desarrollo que desafía la definición misma de fotografía. La fotografía digital tradicional se ocupa de formas cada vez más fieles de recrear la fotografía de película con un sensor digital en lugar de halogenuro de plata. El campo de la fotografía computacional está creando nuevas formas de creación de imágenes que son representaciones de nuestra experiencia legibles por la máquina. Ese es un gran cambio.
Las técnicas en fotografía computacional van desde la simple combinación de múltiples imágenes que superan las limitaciones de una cámara hasta el desarrollo de métodos novedosos para analizar y procesar imágenes. En este artículo he tocado brevemente algunas de las muchas áreas interesantes del campo. Si bien algunas de estas nuevas tecnologías pueden parecer un poco sofisticadas en la actualidad, los avances que presentan son los primeros cambios reales en la fotografía en mucho tiempo, tal vez desde la invención de la cámara de película portátil de 35 mm..
¿Desaparecerá la fotografía digital tradicional? Improbable. La gente todavía disfruta de tomar fotografías con película, incluso! Les gusta la experiencia creativa, tecnológica y social de fotografiar con cámaras tradicionales. La fotografía digital tradicional no muestra signos de desaceleración..
Sin embargo, estas nuevas tecnologías tienen el potencial de cambiar la forma en que pensamos sobre la fotografía en sus cimientos. Alterarán la forma en que definimos las cámaras y las imágenes. De alguna manera, la fotografía computacional ya tiene. El HDR, aunque es muy difamado por los tradicionalistas, es popular porque puede capturar mucha más información que una simple exposición. La vista de la calle de Google Maps ha alterado nuestra forma de pensar y navegar por el mundo. Todavía no sabemos cuánto cambiará el mundo la fotografía computacional..
Una cosa, sin embargo, está clara: la fotografía digital ha llegado. No son solo píxeles en lugar de plata; es algo completamente nuevo.