Historia
Desarrollos tempranos
Los fundamentos de los sensores de imagen se remontan a los descubrimientos en fotoelectricidad del siglo XIX, cuando el físico francés Edmond Becquerel observó el efecto fotovoltaico en 1839 mientras experimentaba con una celda electrolítica expuesta a la luz, demostrando cómo la luz podía generar una corriente eléctrica en ciertos materiales.[104] Este principio sentó las bases para los dispositivos sensibles a la luz posteriores, aunque las aplicaciones prácticas siguieron siendo difíciles de alcanzar hasta el siglo XX.
En la década de 1920, el ingeniero ruso-estadounidense Vladimir Zworykin desarrolló el iconoscopio, uno de los primeros tubos de cámara electrónica patentado en 1923 que utilizaba un mosaico fotoemisivo para capturar y escanear imágenes electrónicamente, marcando un cambio de imágenes de televisión mecánicas a imágenes de televisión totalmente electrónicas. El diseño del iconoscopio, que almacenaba carga en una superficie objetivo escaneada por un haz de electrones, permitió la creación de las primeras cámaras de televisión electrónicas prácticas a pesar de la baja sensibilidad inicial.
Las tecnologías de tubos de vacío continuaron avanzando hasta la década de 1950 con el tubo vidicon, inventado en RCA por P.K. Weimer, S.V. Forgue y R.R. Goodrich, presentando un objetivo fotoconductor que convertía la luz en señales eléctricas mediante escaneo con haz de electrones para transmisiones de televisión.[108] El plumbicon, desarrollado por Philips a principios de la década de 1960, mejoró esto mediante el uso de una capa fotoconductora de óxido de plomo, ofreciendo mayor sensibilidad y mejor fidelidad de color para cámaras de transmisión profesionales durante la década de 1970. Estos tubos analógicos dominaron la televisión temprana debido a su confiabilidad en la captura de escenas dinámicas, impulsadas por la creciente demanda de medios de transmisión.
La transición a sensores de imagen de estado sólido comenzó en la década de 1960 con la invención de las matrices de fotodiodos, donde George Weckler de Fairchild Semiconductor demostró en 1968 una matriz lineal de fotodiodos de silicio autoescaneada que integraba carga generada por luz para aplicaciones de imágenes. Este enfoque eliminó la fragilidad de los tubos de vacío, allanando el camino para dispositivos compactos motivados por las necesidades de exploración espacial, como el uso por parte de la NASA de cámaras basadas en vidicon en misiones lunares y los requisitos militares para sistemas de reconocimiento resistentes. Un hito clave fue el primer vidicon de silicio a finales de la década de 1960, desarrollado en Bell Laboratories por M.H. Crowell bajo E.I. Gordon, que reemplazó los objetivos fotoconductores con conjuntos de diodos de silicio para mejorar la sensibilidad infrarroja y la durabilidad en entornos exigentes.[111]
En 1969 se produjeron mayores avances, cuando Willard Boyle y George Smith de los Laboratorios Bell inventaron la estructura del condensador MOS para el almacenamiento de carga, permitiendo la acumulación y transferencia eficiente de electrones fotogenerados en silicio, un concepto inicialmente explorado para la memoria pero fundamental para las imágenes de estado sólido. Esta innovación abordó las limitaciones de los sensores tubulares al admitir circuitos integrados adecuados para aplicaciones espaciales y militares que requieren baja potencia y alta confiabilidad.[113]
Invención y dominio del CCD
El dispositivo de carga acoplada (CCD) fue concebido en 1969 por los físicos Willard S. Boyle y George E. Smith de los Laboratorios Bell en Murray Hill, Nueva Jersey, durante una discusión sobre posibles alternativas a la memoria de núcleo magnético que utilizaba condensadores MOS. Bosquejaron la arquitectura central, que consiste en una matriz lineal de condensadores MOS estrechamente espaciados que podrían transferir paquetes de carga discretos, en menos de una hora, y fabricaron un prototipo básico en una semana para demostrar la transferencia de carga. El dispositivo funcionaba convirtiendo fotones en paquetes de carga de electrones en una región fotosensible y luego desplazaba secuencialmente esas cargas a través de la matriz para su lectura, lo que permitía obtener imágenes eficientes en estado sólido sin escaneo mecánico.[115] Su artículo fundamental que detalla la invención apareció en 1970, y la tecnología se formalizó con la patente estadounidense 3.761.744 concedida en 1973. Este avance sentó las bases para la captura electrónica de imágenes, lo que le valió a Boyle y Smith la mitad del Premio Nobel de Física de 2009.
La comercialización se aceleró a mediados de la década de 1970, cuando el ingeniero de Kodak Steven Sasson ensambló la primera cámara digital portátil del mundo en 1975 utilizando un sensor CCD Fairchild de 100x100 píxeles, capturando imágenes en escala de grises de 0,01 megapíxeles almacenadas en una cinta de casete. Este prototipo, aunque voluminoso y de baja resolución, demostró la viabilidad del CCD para la fotografía práctica. En astronomía, los CCD ganaron terreno a finales de la década de 1970 para los telescopios terrestres debido a su sensibilidad y rango dinámico superiores a los de las placas fotográficas, con una adopción generalizada en la década de 1980; La cámara planetaria y de campo amplio del telescopio espacial Hubble, instalada en 1990 y mejorada en 1993, dependía de matrices CCD de gran formato para producir imágenes históricas de campo profundo.[117] Al mismo tiempo, la electrónica de consumo adoptó los CCD para aplicaciones de vídeo, cuando Sony lanzó la primera cámara de vídeo en color de estado sólido en 1980, seguida de videocámaras compactas como la CCD-V8 de 1985, que integraba grabación e imágenes en una sola unidad portátil, lo que impulsó el cambio de videocámaras de tubo a videocámaras de estado sólido a lo largo de la década.[118]
En la década de 1990, la tecnología CCD dominaba las imágenes de alta gama, dominando más del 90% del mercado mundial de sensores de imagen en 1996, particularmente en fotografía profesional, instrumentos científicos y transmisiones de video, donde la calidad de la imagen era primordial. Mejoras clave, como los CCD de canal enterrado introducidos a principios de la década de 1970, minimizaron el ruido al limitar la transferencia de carga a regiones subterráneas alejadas de las trampas de interfaz, logrando un ruido de lectura tan bajo como unos pocos electrones por píxel y permitiendo exposiciones más largas para la detección de señales débiles.[119] Sin embargo, la producción de CCD siguió siendo costosa debido a los procesos de fabricación especializados de varios pasos, y la arquitectura de lectura en serie de los sensores exigía alta potencia para la sincronización y el enfriamiento para suprimir el ruido térmico, lo que limitaba la escalabilidad de los dispositivos de consumo. Un hito en la resolución se produjo con el desarrollo de CCD de 1 megapíxel por parte de Fairchild Semiconductor alrededor de 1990, que traspasó los límites de las aplicaciones profesionales pero destacó el costo de la tecnología en relación con las alternativas emergentes.
Aparición de CMOS
Los fundamentos de los sensores de imagen CMOS se remontan al desarrollo de transistores semiconductores de óxido metálico (MOS) en la década de 1960, que permitieron la integración de fotodetectores y circuitos de amplificación en un solo chip.[121] Estas primeras tecnologías MOS sentaron las bases para la obtención de imágenes de estado sólido al permitir el almacenamiento y la transferencia de carga dentro de los píxeles, aunque las implementaciones iniciales adolecían de un alto ruido y un rendimiento limitado en comparación con los tubos de vacío. A principios de la década de 1990, los sensores CMOS de píxeles pasivos, que presentaban matrices de fotodiodos simples sin amplificación en píxeles, surgieron como alternativas de bajo costo para aplicaciones específicas como escáneres de documentos, aprovechando los procesos de fabricación CMOS estándar para reducir los gastos de fabricación.
En 1993 se produjo un avance fundamental cuando Eric Fossum y su equipo en el Laboratorio de Propulsión a Chorro (JPL) de la NASA inventaron el sensor de píxeles activo (APS), la arquitectura central de los sensores de imagen CMOS modernos. Esta innovación integró un amplificador seguidor de fuente en cada píxel para aumentar la intensidad de la señal y suprimir el ruido, permitiendo la funcionalidad de cámara en un chip con menor consumo de energía y mayor potencial de integración que los CCD. El artículo fundamental sobre SPIE de Fossum demostró un prototipo APS de 28x28 píxeles, que captura imágenes con ruido de lectura reducido mediante muestreo doble correlacionado. Sobre esta base, los investigadores avanzaron en los diseños de APS mediante la incorporación de convertidores analógicos a digitales (ADC) en el chip alrededor de 1995, lo que permitió la digitalización en columnas paralelas que mejoró la velocidad y el rango dinámico al tiempo que minimizó las necesidades de procesamiento fuera del chip.
En 2008 se produjo un mayor refinamiento cuando Sony presentó el primer sensor CMOS retroiluminado comercial, que reubicó las capas de cableado detrás de los fotodiodos para aumentar la captura de luz y la eficiencia cuántica hasta 2 veces en condiciones de poca luz en comparación con los diseños con iluminación frontal. Esto aumentó la sensibilidad sin sacrificar la densidad de píxeles, lo que hizo que CMOS fuera viable para imágenes de alto rendimiento. El cambio del mercado se aceleró con el auge de los teléfonos inteligentes en la década de 2000, ejemplificado por la integración de sensores CMOS por parte de Nokia en modelos como el N90, impulsando la demanda de cámaras compactas y de bajo consumo. Para 2010, los sensores CMOS capturaron más del 90% de la cuota de mercado de sensores de imagen, impulsados por las reducciones de costos derivadas del aprovechamiento de instalaciones de fabricación de CMOS maduras que redujeron los gastos de producción en órdenes de magnitud en relación con las líneas CCD especializadas.
Hitos clave subrayaron el ascenso de CMOS, incluido el lanzamiento de Canon en 2000 de la EOS D30, la primera cámara réflex digital de lente única (DSLR) con un sensor CMOS de 3,25 megapíxeles, que popularizó la tecnología en la fotografía profesional al ofrecer compatibilidad con lentes EF existentes a una fracción del costo de las alternativas basadas en CCD. Al mismo tiempo, la integración de CMOS con sistemas en chips (SoC) móviles permitió una integración perfecta en procesadores como la serie Snapdragon de Qualcomm, facilitando imágenes siempre activas en miles de millones de dispositivos y solidificando a CMOS como la plataforma dominante para la electrónica de consumo.
Innovaciones modernas
Desde principios de la década de 2010, los sensores de imágenes apilados han revolucionado el rendimiento al integrar fotodiodos y circuitos de procesamiento de señales en una arquitectura 3D, lo que permite velocidades de lectura más rápidas y reducción de ruido. El Exmor RS de Sony, presentado en 2014, fue el primer sensor CMOS apilado de la industria con 21 megapíxeles efectivos, compatible con aplicaciones de alta velocidad de fotogramas, como vídeo 4K a 120 fotogramas por segundo en formatos compactos.[127] Este diseño ha allanado el camino para las cámaras debajo de la pantalla en la década de 2020, donde los sensores están integrados debajo de paneles OLED transparentes para lograr pantallas sin marcos; por ejemplo, el Galaxy Z Fold4 de Samsung en 2022 presentaba una cámara frontal debajo de la pantalla con una densidad de píxeles reducida en el área de la cámara para permitir la transmisión de luz y al mismo tiempo mantener la integridad de la pantalla.[128] Para 2025, la tecnología debajo de la pantalla se habrá expandido a las computadoras portátiles, como se ve en el Yoga Slim 9i de Lenovo, que integra capacidades de cámara debajo de la pantalla mejoradas por procesamiento de IA para obtener imágenes perfectas.[129]
Los avances en IA e imágenes computacionales han integrado el aprendizaje automático directamente en los sensores para un procesamiento de borde eficiente, minimizando la transferencia de datos a procesadores externos y permitiendo el análisis en tiempo real. La serie de sensores de visión inteligentes de Sony, como el IMX501, incorpora IA en el sensor para realizar tareas como la detección de objetos dentro de la unidad del sensor, lo que reduce la latencia y el consumo de energía en comparación con el procesamiento tradicional fuera del sensor.[130] Complementando esto, los sensores neuromórficos e impulsados por eventos imitan la visión biológica al generar datos solo en cambios a nivel de píxeles, lo que reduce drásticamente el ancho de banda; Los sensores Metavision de Prophesee, comercializados por primera vez alrededor de 2018, logran una latencia ultrabaja para aplicaciones como el seguimiento de movimiento en entornos dinámicos.[131] Estas innovaciones respaldan la detección permanente en dispositivos portátiles y drones, donde los sensores tradicionales basados en marcos serían ineficientes.
Los esfuerzos hacia la sostenibilidad y el escalamiento han impulsado reducciones de nodos de proceso de 40 nm a geometrías más finas como 28 nm e inferiores, lo que permite una integración más densa en diseños apilados y al mismo tiempo reduce el uso de energía a través de procesos lógicos avanzados.[132] Los sensores de imágenes cuánticos emergentes, que aprovechan los centros de vacantes de nitrógeno en los diamantes, prometen una mayor sensibilidad para las imágenes industriales con poca luz, y el proyecto PROMISE de la UE en 2025 avanzará en prototipos preindustriales para aplicaciones no invasivas.[133] Los sensores orgánicos, impresos en sustratos flexibles, permiten matrices adaptables para pantallas portátiles y curvas; un avance de 2023 demostró un sensor de matriz activa orgánica totalmente impreso con inyección de tinta con 100 píxeles, que ofrece flexibilidad sin pérdida de rendimiento.[134] A partir de 2025, las tendencias móviles incluyen sensores de 200 megapíxeles como el ISOCELL HP2 de Samsung para obtener detalles superiores en condiciones de poca luz e implementaciones de obturador global, como los modelos de alta velocidad de OmniVision, que eliminan la distorsión del obturador en los teléfonos inteligentes.[135]