Tecnologia
Según los informes, Apple desarrolla su propio sensor de imagen personalizado para iPhone

Apple está avanzando con planes para traer un nuevo tipo de sensor de imagen con niveles de rango dinámico que se acerca al ojo humano a los futuros iPhones, según un fugero de Weibo.
El mes pasado, Apple presentó una patente titulada “Sensor de imagen con píxeles apilados que tienen un alto rango dinámico y bajo ruido”. Describió una arquitectura de sensor avanzada que combina silicio apilado, múltiples niveles de captura de luz y mecanismos de supresión de ruido en chip para alcanzar hasta 20 paradas de rango dinámico.
A modo de comparación, se estima que el rango dinámico del ojo humano es de alrededor de 20 a 30 paradas, dependiendo de cómo se ajuste la pupila y cómo se procesa la luz con el tiempo. La mayoría de las cámaras de teléfonos inteligentes capturan hoy entre 10 y 13 paradas. Si el sensor propuesto por Apple alcanza su potencial, no solo superaría los iPhones actuales, sino que también superaría a muchas cámaras de cine profesionales, como el Arri Alexa 35.
La patente describió un diseño de sensor apilado compuesto por dos capas. La capa superior, llamada Die del sensor, contiene las partes que capturan la luz. La capa debajo, la lógica muere, maneja el procesamiento, incluida la reducción de ruido y el control de exposición.
Una de las partes más importantes del diseño del sensor es un sistema llamado condensador de integración de desbordamiento lateral (LOFIC). Esto permite que cada píxel en el sensor almacene diferentes cantidades de luz dependiendo de cuán brillante sea la escena, todo en la misma imagen. Con esto, el sensor puede manejar diferencias de iluminación extremadamente amplias, como una persona que se encuentra frente a una ventana brillante, sin perder detalles en las sombras o reflejos.
Otra parte del diseño se centra en reducir el ruido de la imagen y el grano. Cada píxel tiene su propio circuito de memoria incorporado que mide y cancela el ruido electrónico relacionado con el calor en tiempo real. Esto se hace en el chip en sí, antes de que la imagen sea guardada o editada por el software.
Según el Leaker de Weibo conocido como “Digital de enfoque fijo”, el proyecto es más que una presentación de patentes en Apple. Según los informes, la compañía ya ha desarrollado el sensor y ahora podría estar probándolo en hardware de desarrollo, lo que sugiere que hay planes para llevarlo a un dispositivo de consumo en el futuro.
Actualmente, Apple usa sensores hechos por Sony en la alineación de iPhone. Esos sensores también usan un diseño de dos capas, pero la versión propuesta de Apple incluye varias características originales y ocupa menos espacio. De manera crucial, la transición de Apple a sus propios sensores le daría un control completo sobre la tubería de imágenes y seguiría movimientos similares del uso de hardware de compañías como Intel y Qualcomm a favor de su propia tecnología personalizada.