5 características del software de la cámara Google Pixel que debe usar

  • Gabriel Brooks
  • 0
  • 4438
  • 464
Anuncio

Desde su inicio, la cámara ha seguido siendo la piedra angular de la línea de teléfonos Google Pixel. Al aprovechar la gran cantidad de datos que recopila, Google ha podido ampliar los límites de la fotografía móvil. A través del software, la compañía logró replicar características avanzadas, normalmente para las cuales otros OEM incluyen dos, tres o, en algunos casos, cuatro cámaras en la parte trasera.

Entonces, ¿cómo funcionan esos modos de cámara sin hardware especial? Aquí explicamos las mejores características de la cámara de Google Pixel.

1. HDR+

Crédito de imagen: Google

HDR + es la versión de Google del modo HDR tradicional que se encuentra actualmente en la mayoría de los teléfonos inteligentes. Es importante entender esto último antes de profundizar en cómo Google aborda el concepto..

En la fotografía HDR, su teléfono, en lugar de tomar una sola foto, toma varias tomas a diferentes niveles de exposición. Eso permite que la cámara recopile más datos de la escena y produzca un resultado que represente con mayor precisión los reflejos y las sombras. Lo hace combinando esos diferentes marcos mediante algoritmos complejos..

Entonces, por ejemplo, hay escenarios en los que intentas capturar una imagen de alguien parado frente a un fondo brillante y, como resultado, tu amigo está completamente en las sombras o el fondo se ha apagado. Aquí es donde entra HDR y equilibra la luz más clara y la oscuridad más clara de su marco.

Dado que en los teléfonos, todo este proceso está automatizado, puede ser un poco complicado para las empresas que no tienen un enorme conjunto de datos para entrenar sus algoritmos. También hay otras deficiencias. En comparación con las cámaras profesionales, el sensor de su teléfono es mucho más pequeño, lo que genera ruido cuando permanece abierto durante demasiado tiempo..

El HDR + de Google intenta resolver todo esto. También implica capturar un montón de imágenes y procesarlas más tarde. Pero a diferencia del resto, los teléfonos de Google toman varias fotos subexpuestas y las fusionan a través de algoritmos que se entrenan en un conjunto de datos masivo de fotos etiquetadas.

Dado que HDR + no pasa por un amplio espectro de exposiciones como los sistemas tradicionales, también hay mucho menos desenfoque de movimiento en las imágenes y el ruido. Para garantizar que todos esos cálculos no ralenticen su teléfono, Google incluso ha comenzado a integrar un chip exclusivo y patentado llamado Pixel Visual Core de la serie Pixel 2.

2. Vista nocturna

Podría decirse que la pieza de tecnología de cámara más impresionante desarrollada por el equipo de software de Google se titula Night Sight. Cuando está habilitada, la función es capaz de tomar escenas casi oscuras casi sin luz y mágicamente produciendo una imagen bien iluminada..

Night Sight, que incluso está disponible en la primera generación de Google Pixel, se basa en la tecnología HDR + de la compañía. Cada vez que presiona el botón del obturador con Night Sight activado, el teléfono recorta numerosas tomas en un montón de configuraciones de exposición.

La información procesada se pasa a los algoritmos para comprender los diversos detalles de la escena, como las sombras, los reflejos y la cantidad de luz que hay en realidad. A través de este aprendizaje, la aplicación de la cámara une una imagen mucho más iluminada sin amplificar el grano.

3. Super Res Zoom

El zoom digital es otro inconveniente crítico de la fotografía móvil que Google ha intentado abordar con software en lugar de hardware dedicado como otros.

Llamada Super Res Zoom, la característica promete un zoom digital de hasta 2x sin comprometer ningún detalle. Utiliza la misma técnica de fotografía en ráfaga que Google emplea para HDR + y Night Sight. Pero aquí, no va para un rango de exposiciones.

Para Super Res Zoom, la cámara captura múltiples disparos en varios ángulos. Entonces, ¿eso requiere que te muevas físicamente? De ningún modo. En el caso de las imágenes ampliadas, incluso el más mínimo movimiento de la mano es suficiente para un ángulo diferente. Entonces, Google está usando esencialmente los temblores de tus manos para acumular más información.

Google tiene una solución para si sus manos son demasiado estables o para cuando su teléfono también está montado en un trípode. En esos escenarios, la lente realmente se moverá un poco para replicar los movimientos de las manos, lo cual es simplemente asombroso.

El teléfono utiliza todos esos datos para capturar una fotografía con muchos más detalles que el zoom digital normalmente hubiera producido.

4. Modo retrato

Crédito de imagen: Google

Si bien la mayoría de los fabricantes incluyen cámaras adicionales para la detección de profundidad, Google logra el modo vertical con el software. Para esto, la aplicación de la cámara comienza tomando una foto normal con HDR +. Luego, con la ayuda de las redes neuronales capacitadas de Google, el teléfono intenta descubrir el tema principal. Puede ser una persona, un perro o cualquier otra cosa..

Para garantizar que no arruine los bordes, el modo vertical de Google se beneficia de una tecnología llamada Dual Pixel. En términos simples, significa que cada píxel que captura el teléfono es técnicamente un par de píxeles. Junto con un mejor enfoque, el teléfono, por lo tanto, tiene dos puntos de vista para evaluar la distancia entre el fondo y el primer plano..

Esto es crucial porque los teléfonos Pixel no tienen múltiples sensores para calcular la profundidad. Por último, el teléfono difumina todo excepto la máscara de asunto que ha finalizado.

¿Se pregunta cómo obtener la función en su teléfono? Aquí hay una guía fácil para usar el modo vertical en cualquier teléfono Android Cómo obtener el modo vertical en Android Cómo obtener el modo vertical en Android ¿Desea usar el modo vertical en su dispositivo Android? Esto es lo que hace el modo vertical, cómo usar las funciones integradas y las mejores aplicaciones con el modo vertical. .

5. Top Shot

Con Pixel 3, Google introdujo una nueva función de cámara inteligente llamada Top Shot. Como su nombre lo indica, le permite seleccionar una toma mejor que la que hizo clic.

Para hacer eso, la cámara toma hasta 90 imágenes 1.5 segundos antes y después de tocar la tecla del obturador. Y cuando detecta defectos como el desenfoque de movimiento o los ojos cerrados, automáticamente recomienda una imagen alternativa. También puede elegir manualmente uno del lote, aunque solo dos de ellos serán de alta resolución..

Dado que Top Shot es una extensión de Motion Photos, no afecta el rendimiento de su cámara.

Trucos simples para impulsar la fotografía de su teléfono inteligente

Si bien hay mucho que el software de Google hace por usted, algunos escenarios complicados aún exigen un esfuerzo adicional de su parte. Para dominar esas tomas, recomendamos dominar estos trucos simples que pueden aumentar significativamente las habilidades de fotografía de su teléfono inteligente 10 Trucos simples para impulsar la fotografía de su teléfono inteligente 10 Trucos simples para impulsar la fotografía de su teléfono inteligente Hay algunos consejos que son especialmente útiles cuando toma fotos con tu teléfono te ayudarán a tomar tus fotos de "bla" a "fantásticas" en poco tiempo! .




Nadie ha comentado sobre este artículo todavía.

Sobre tecnología moderna, simple y asequible.
Tu guía en el mundo de la tecnología moderna. Aprenda a usar las tecnologías y los dispositivos que nos rodean todos los días y aprenda a descubrir cosas interesantes en Internet.