¿Hacia dónde se dirige ahora la fotografía computacional?

Tabla de contenido:

¿Hacia dónde se dirige ahora la fotografía computacional?
¿Hacia dónde se dirige ahora la fotografía computacional?
Anonim

Conclusiones clave

  • Las nuevas cámaras Pixel 6 de Google tienen más trucos informáticos que nunca.
  • Finalmente, las personas que no son blancas son una prioridad en los algoritmos de Google.
  • Todavía tienes que saber hacia dónde apuntar la cámara para obtener una buena toma.
Image
Image

Los nuevos teléfonos Pixel 6 de Google son cámaras con un teléfono conectado.

Al igual que el iPhone, los nuevos píxeles de Google vienen en los niveles regular y Pro y tienen enormes e imperdibles protuberancias de cámara en la parte posterior. En el caso de Google, la protuberancia es una barra que se extiende a lo ancho del dispositivo. Se ve genial y alberga una impresionante variedad de lentes y sensores nuevos.

Pero, al igual que el iPhone, lo que cuenta es lo que hay dentro. La fotografía computacional se está apoderando de la fotografía, pero ¿hacia dónde va?

"Aquellos que promueven la fotografía computacional (y basada en IA) han prometido durante años algoritmos y tecnología que pueden convertir la fotografía promedio en algo de lo que un fotógrafo profesional estaría orgulloso, pero esto todavía está lejos", profesional el fotógrafo Tim Daniels le dijo a Lifewire por correo electrónico.

Fotografía computacional

La fotografía computacional comenzó como una forma de convertir las horribles imágenes de las primeras cámaras de los teléfonos inteligentes en imágenes que podías ver y disfrutar. Las diminutas lentes y sensores de los teléfonos tenían problemas con poca luz y tenían problemas para capturar detalles intrincados.

Pero entonces, los chips de procesamiento de imágenes dedicados como el Neural Engine de Apple, capaces de billones de operaciones en un segundo, transformaron las imágenes. Ahora tenemos modos de retrato que desenfocan el fondo, modos nocturnos que brindan imágenes sorprendentes casi en la oscuridad, "modo suéter", que combina varias imágenes para brindar mejores detalles, junto con trucos de magia como la detección de parpadeo, lo que significa que los ojos entrecerrados nunca se echan a perder. tomas de grupo

La belleza de todos estos trucos es que todo lo que tienes que hacer es enmarcar tu toma, y el teléfono ofrece una toma perfecta cada vez. Por otro lado, los fotógrafos no siempre quieren una toma "perfecta".

"Personalmente, no creo que la fotografía computacional tenga nunca una gran cuota de mercado entre los fotógrafos aficionados como yo. Disfrutamos de la fotografía por sí misma, seleccionando la exposición, la apertura, el encuadre y demás, y cediendo esto a un algoritmo le quitaría mucha diversión a la fotografía", dijo Daniels.

El Píxel 6

Las cámaras dentro de los nuevos teléfonos son impresionantes. Ambos modelos tienen una cámara ancha y ultra ancha, y el Pro agrega un teleobjetivo 4X, pero el hardware es solo una parte de la historia.

Por ejemplo, Magic Eraser te permite eliminar elementos que distraen de la foto. No solo eso, sino que la cámara detecta estos elementos automáticamente y sugiere eliminarlos. Simplemente confirme con un toque.

Image
Image
Ejemplo de lo que Magic Eraser puede hacer en una fotografía.

Borrador mágico

¿O qué tal si desenfocas la cara? Si el sujeto se mueve rápido con poca luz, esta función intenta desenfocar su rostro. Es perfecto para instantáneas de niños que se mueven rápidamente (todos los niños que no están durmiendo) en interiores. Y el modo de movimiento hace lo contrario: desdibuja deliberadamente los elementos que se mueven para lograr un efecto.

Quizás la mejor característica es la más sutil. Real Tone permite que las cámaras reproduzcan correctamente cualquier tono de piel. "Con Pixel 6, mejoramos enormemente nuestros modelos y algoritmos de ajuste de cámara para res altar con mayor precisión los matices de los diversos tonos de piel", dice el blog de cámaras de Google.

Google trabajó con fotógrafos negros, indígenas y de color (BIPOC) para crear las imágenes que se usaron para entrenar los algoritmos. Dado el sesgo étnico que se ha incorporado a la fotografía desde los primeros días del cine, este es un gran problema.

Mejores imágenes, menos esfuerzo

La fotografía computacional parece tener dos propósitos en este momento. Una es darte una foto increíble, sin importar las condiciones. La otra es imitar técnicas que a menudo requieren mucho conocimiento y habilidad para lograr "a mano" en una cámara normal.

De alguna manera, esto corre el riesgo de que todas nuestras fotos se vean iguales. Por otro lado, eche un vistazo a cualquiera de las fotos de los miembros de cualquier club de cámaras a lo largo de las décadas, y están llenas de clichés. Desde la regla de los tercios hasta el uso de velocidades de obturación lentas para desenfocar cascadas y el instinto casi inquebrantable de hacer que las personas sonrían en las fotos.

Image
Image
Ejemplos de fotografía de Google Pixel 6.

Google

"Aunque el Pixel 6 es la próxima evolución de esta tecnología, todavía se encuentra en las primeras etapas de la fotografía computacional y eso no significa que puedas tomar fotos de alta calidad sin habilidad", dice Daniels

Para aquellos que prefieren pasar por alto estos clichés, nada cambia. Pero para las personas que solo quieren excelentes fotografías de la familia, los amigos, los lugares y el desayuno, la fotografía computacional es lo mejor que existe. Imagina lo diferente que sería tu mundo si todas esas viejas instantáneas impresas en los álbumes familiares fueran tan buenas como las fotos que tomas con tu teléfono.

Recomendado: