Los sensores apilados permiten teléfonos inteligentes delgados con excelentes cámaras, pero ha sido un largo camino para hacerlos lo suficientemente buenos para el uso diario.
La mayoría de los teléfonos inteligentes cuentan con una isla de cámara más gruesa que el resto de sus cuerpos. Sin embargo, incluso contando con ese bulto adicional, son más delgados y toman fotos y videos que se ven mejor que sus contrapartes hace unos años.
En los primeros años de la fotografía sobre la marcha, se necesitaban dispositivos aún más gruesos: ¿recuerdas las cámaras de apuntar y disparar de la década de 2000? Hoy en día, todo está empaquetado en dispositivos de media pulgada de grosor, a veces incluso menos. Los sensores de imagen apilados son los que lo hacen posible.
Comprender la fotografía digital
El diferencia entre camaras analogicas y digitales es que el primero usa una película hecha de un material fotosensible para grabar imágenes, mientras que el segundo tiene un sensor electrónico. En ese sensor, cada píxel (puntos individuales que forman una imagen digital) es información de iluminación capturada por una parte muy pequeña del sensor (uno para cada píxel de la foto).
Hay dos tipos de sensores de camaras digitales, CCD (acrónimo de Charge-Coupled Device) y CMOS (Semiconductor de óxido de metal complementario). Todas las cámaras modernas de teléfonos inteligentes usan esta última, por lo que esa es la tecnología que explicaremos a continuación.
Un sensor CMOS consta de unos pocos elementos. El fotodiodo es el más importante: genera una señal eléctrica cuando recibe luz. Esa señal es almacenada por un transistor justo al lado del fotodiodo, que traduce la señal en información digital y la envía a un circuito electrónico.
Ese circuito es responsable de interpretar esos datos y pasarlos, junto con los miles de millones de otros píxeles, al Procesador de señal de imagen (ISP) que crea la imagen final.
Los primeros días de las cámaras de los teléfonos
Hasta 2008, los sensores CMOS tenían un problema grave: el cableado necesario para enviar información de píxeles al ISP pasaba entre el fotodiodo y la lente, bloqueando parte de la luz. Se usó la misma estructura para los sensores CCD, que eran más sensibles a la luz, pero para CMOS, eso significaba fotos más oscuras, ruidosas y borrosas.
Eso se resolvió con una idea simple: mover el fotodiodo por encima de los cables para que reciba más luz y, por lo tanto, mejore la calidad de la imagen. Eso se llama sensor con iluminación trasera (BSI), a diferencia de los anteriores que tenían iluminación frontal.
Para poner las cosas en contexto, el iPhone 4, que inició la reputación de Apple en la fotografía de teléfonos inteligentes, fue uno de los primeros teléfonos en usar este tipo de sensor. En estos días, prácticamente todas las cámaras de los teléfonos inteligentes usan sensores BSI.
Los sensores apilados mejoran la calidad de las fotos y reducen el tamaño
Incluso después de quitar el cable, todavía quedaban puntos por mejorar en los sensores CMOS. Uno de ellos era el circuito encargado de procesar la información del transistor. Se envolvió alrededor del fotodiodo. Por eso, aproximadamente la mitad de la luz que llegaba a cada píxel terminaba en una parte del sensor que no captaba luz.
En 2012, se creó el primer sensor CMOS apilado. En lugar de envolver el fotodiodo, el circuito se coloca debajo. Dado que (parcialmente) ocupa el lugar de un sustrato utilizado para la rigidez estructural, no hay espesor adicional. De hecho, desde entonces, las mejoras en el proceso de apilamiento, tanto por parte de Sony como de otros fabricantes que adoptaron la tecnología, dieron como resultado sensores más delgados, lo que permitió teléfonos más delgados.
¿Qué pasa con aún más apilamiento?
Al mover el circuito debajo del fotodiodo, uno pensaría que la capa superior estaría ocupada únicamente por la parte que captura la luz, ¿verdad? Equivocado.
¿Recuerdas el transistor? Se encuentra justo al lado del fotodiodo, ocupando un espacio aún más valioso para capturar la luz. ¿La solución? ¡Más apilamiento!
Los ingenieros lo habían hecho antes. En 2017, Sony anunció un sensor de cámara con RAM entre el fotodiodo y el circuito, lo que permite videos en cámara súper lenta de 960FPS. Era cuestión de aplicar la misma idea a una parte del sensor existente.
Ahora, el fotodiodo finalmente está en la parte superior del sensor, y solo el fotodiodo. Esto duplica efectivamente la señal que el fotodiodo puede capturar y el transistor puede almacenar.
El efecto más inmediato es el doble de información de luz sobre la que debe trabajar cada píxel. Y, como todo en fotografía, más luz significa imágenes más detalladas.
Sin embargo, dado que el transistor también duplica su capacidad, puede traducir mejor las señales eléctricas del fotodiodo en información digital. Una de las posibles aplicaciones de esto es reducir el ruido de la imagen, mejorando aún más el aspecto de las fotos.
Sensores apilados para un futuro más brillante
Si bien los sensores de una sola pila (fotodiodo y transistor en una capa, circuitos debajo) han existido durante algún tiempo, los de doble pila (una capa para cada parte) todavía son algo nuevos. Se utilizan principalmente en cámaras profesionales, y el primer teléfono móvil que cuenta con un sensor de este tipo, el Sony Xperia 1 V, se lanzó en mayo de 2023.
Eso significa que la tecnología aún está en pañales. Junto con varias otras mejoras que se han realizado en la fotografía móvil hasta ahora, apiladas Los sensores significan que las cámaras de los teléfonos inteligentes están en el camino hacia un futuro más brillante, o deberíamos decir un futuro más brillante. ¿imagen?