A principios de esta semana, Sony anunció dos nuevos sensores de imagen IMX que van a cambiar todo cuando se trata de fotografía “inteligente”.

Es una declaración realmente audaz, pero también es una predicción fácil debido a cómo los teléfonos inteligentes y otros productos inteligentes usan sus cámaras. Espera que una cámara “real” más grande con una lente costosa tome excelentes fotos porque el hardware que se usa lo hace más fácil. Pero cuando usa un sensor pequeño en un dispositivo pequeño y una lente fija, no tiene una óptica costosa para hacer el trabajo pesado. En cambio, se utilizan cosas como la IA, y eso es lo que hace que los nuevos sensores de Sony sean especiales: tienen un pequeño procesador de IA incorporado en el paquete del sensor.

Los mejores proveedores de VPN 2020: aprenda sobre ExpressVPN, NordVPN y más

Estos sensores no tienen nada que ver con un teléfono o con ningún producto de consumo. Están diseñados para equipos de visión artificial industriales y de fabricación, y compañías como Amazon han expresado su interés porque una solución todo en uno significa que hay muchos ahorros de costos integrados en el producto. Pero como todas las cosas, los sensores se harán más pequeños y más baratos, en este momento el IMX cuesta alrededor de $ 90, y eventualmente los encontrará en cámaras de vigilancia doméstica, cámaras corporales e incluso en su teléfono inteligente.

AI ha sintonizado la fotografía de teléfonos inteligentes en algo sorprendente.

La IA es un gran problema cuando se trata de las cámaras de nuestros teléfonos inteligentes, pero nadie realmente habla de por qué. Eso está bien porque nuestros ojos pueden decirnos que los “sistemas de adquisición de imágenes” alimentados por IA hacen que nuestras imágenes se vean mucho mejor que las cámaras de los teléfonos de hace unos años. Pero un poco de saber cómo es siempre algo bueno.

Un sensor de cámara es solo una pieza electrónica que puede reunir el color y la intensidad de la luz. Cuando abre la aplicación de la cámara, el sensor comienza a recopilar estos datos, y cuando toca el obturador, lo agarra y lo envía a otra pieza de hardware que convierte los datos en una fotografía. Eso significa algo, en algún lugar hay que programarlo para hacer la conversión.

Donde AI entra en la mezcla es agregar o convertir datos adicionales o incluso inexistentes al proceso de conversión. La IA puede ayudar a detectar el contorno de nuestro cabello contra un fondo ocupado. Puede estimar la distancia de todo en una escena porque “sabe” cuán grande es una cosa. Puede tomar datos de múltiples capturas de imágenes y combinarlas para mejorar las fotos con poca luz. Todas las cámaras digitales usan IA, y las cámaras de los teléfonos lo usan mucho.

Con los nuevos sensores de Sony, la capa media de electrónica inteligente se pasa por alto porque hay un procesador de imagen alimentado por IA integrado en el paquete. Eso podría significar que una foto realmente genial se puede entregar directamente a una pantalla, pero lo más importante, significa que la salida no tiene que ser una foto.

Un sensor de imagen alimentado por IA significa que la salida no tiene que ser una imagen en absoluto.

Los ejemplos de Sony de cómo se puede usar este sensor muestran que un artículo y una tienda Amazon Go se pueden rastrear desde su lugar en un estante hasta las manos de los clientes, se puede mantener una cuenta corriente de la cantidad de personas que visitan una tienda en el centro comercial, o un perro frente al sensor podría decirle a otra pieza de software que hay un perro frente al sensor.

Existen innumerables casos de uso para este tipo de equipos en la fabricación y el envío y en cualquier aplicación comercial en la que los datos de lo que “ve” una cámara son tan importantes (o más) que la imagen que ve. El automóvil que maneja, el bolígrafo que usa, incluso el teléfono que tiene en su poder, utilizan toda la visión artificial para clasificar piezas o encontrar defectos. Pero para nosotros, lo que se pone interesante es cómo funcionaría esto dentro de un teléfono.

Como se mencionó, su teléfono ya hace todo esto. Apple, Google y Huawei tienen hardware especializado para ayudar, pero el chip que alimenta su teléfono tiene un ISP (Procesador de señal de imagen) incorporado que también depende en gran medida de la inteligencia artificial para hacer exactamente lo mismo que están haciendo los nuevos sensores de cámara de Sony.

Los teléfonos Samsung toman fotos realmente “geniales”. Más que suficiente para cualquiera, de hecho. Pero cuando comienzas a espiar píxeles, descubres que los teléfonos Apple, Google y Huawei toman fotos que son un poco mejores. Pueden tener colores más reales, detectar mejor los bordes, lo que hace que las fotos sean más nítidas, e incluso las tomas en modo sin retrato tienen una mejor sensación de profundidad.

Más: la mejor cámara de Android en 2020

Esto se debe a que Samsung está utilizando un solo ISP, aunque muy uno bueno, para construir una foto a partir de los datos del sensor, mientras que los otros usan un ISP junto con una pieza de hardware dedicada que usa AI para refinar aún más el proceso. Las imágenes de Samsung son excelentes y cualquiera que diga que se ve mal no es genuino. Imagine lo que Samsung podría hacer con una capa adicional de inteligencia artificial y recopilación de datos además de la optimización de ISP que está haciendo en este momento.

Ahora, vaya un paso más allá e imagine lo que una compañía como Motorola o OnePlus, que no son exactamente conocidas por tener cámaras increíbles, puede hacer con una capa adicional de procesamiento de imágenes realizada localmente en el dispositivo que no agrega ninguna sobrecarga al proceso.

Hoy, las grandes empresas que tienen grandes edificios llenos de equipos están interesadas en los nuevos sensores de Sony. En el futuro cercano, usted y yo también lo estaremos, porque esta idea se filtrará.