História
Desenvolvimentos iniciais
Os fundamentos dos sensores de imagem remontam às descobertas da fotoeletricidade no século XIX, onde o físico francês Edmond Becquerel observou o efeito fotovoltaico em 1839 enquanto fazia experiências com uma célula eletrolítica exposta à luz, demonstrando como a luz poderia gerar uma corrente elétrica em certos materiais. Este princípio lançou as bases para dispositivos sensíveis à luz posteriores, embora as aplicações práticas permanecessem indefinidas até o século XX.[105]
Na década de 1920, o engenheiro russo-americano Vladimir Zworykin desenvolveu o iconoscópio, um dos primeiros tubos de câmera eletrônica patenteado em 1923 que usava um mosaico fotoemissivo para capturar e digitalizar imagens eletronicamente, marcando uma mudança de imagens de televisão mecânicas para imagens de televisão totalmente eletrônicas. O design do iconoscópio, que armazenava carga em uma superfície alvo escaneada por um feixe de elétrons, possibilitou as primeiras câmeras de televisão eletrônicas práticas, apesar da baixa sensibilidade inicial.
As tecnologias de tubo de vácuo continuaram a avançar na década de 1950 com o tubo vidicon, inventado na RCA por P.K. Weimer, SV. Forgue e RR Goodrich, apresentando um alvo fotocondutor que convertia luz em sinais elétricos por meio de varredura por feixe de elétrons para transmissão de televisão. O plumbicon, desenvolvido pela Philips no início da década de 1960, aprimorou isso usando uma camada fotocondutora de óxido de chumbo, oferecendo maior sensibilidade e melhor fidelidade de cores para câmeras de transmissão profissionais durante a década de 1970.[108] Esses tubos analógicos dominaram a televisão inicial devido à sua confiabilidade na captura de cenas dinâmicas, impulsionadas pela crescente demanda por mídia de transmissão.[109]
A transição para sensores de imagem de estado sólido começou na década de 1960 com a invenção de matrizes de fotodiodos, onde George Weckler da Fairchild Semiconductor demonstrou em 1968 uma matriz linear auto-escaneada de fotodiodos de silício que integrava carga gerada por luz para aplicações de imagem. Esta abordagem eliminou a fragilidade dos tubos de vácuo, abrindo caminho para dispositivos compactos motivados pelas necessidades de exploração espacial, como o uso de câmeras baseadas em vidicon pela NASA em missões lunares e requisitos militares para sistemas de reconhecimento robustos. Um marco importante foi o primeiro vidicon de silício no final da década de 1960, desenvolvido nos Laboratórios Bell por M.H. Crowell sob E.I. Gordon, que substituiu alvos fotocondutores por matrizes de diodos de silício para maior sensibilidade infravermelha e durabilidade em ambientes exigentes.[111]
Progressos adicionais vieram em 1969, quando Willard Boyle e George Smith, do Bell Labs, inventaram a estrutura do capacitor MOS para armazenamento de carga, permitindo a acumulação e transferência eficiente de elétrons fotogerados em silício, um conceito inicialmente explorado para memória, mas fundamental para imagens de estado sólido. Esta inovação abordou as limitações dos sensores baseados em tubos, suportando circuitos integrados adequados para aplicações espaciais e militares que exigem baixa potência e alta confiabilidade.[113]
Invenção e domínio do CCD
O dispositivo de carga acoplada (CCD) foi concebido em 1969 pelos físicos Willard S. Boyle e George E. Smith nos Laboratórios Bell em Murray Hill, Nova Jersey, durante uma discussão sobre alternativas potenciais à memória de núcleo magnético usando capacitores MOS. Eles esboçaram a arquitetura central – consistindo em um conjunto linear de capacitores MOS espaçados que poderiam transferir pacotes de carga discretos – em menos de uma hora e fabricaram um protótipo básico em uma semana para demonstrar a transferência de carga. O dispositivo operava convertendo fótons em pacotes de carga de elétrons em uma região fotossensível e, em seguida, deslocando sequencialmente essas cargas através da matriz para leitura, permitindo imagens eficientes de estado sólido sem varredura mecânica. Seu artigo seminal detalhando a invenção apareceu em 1970, e a tecnologia foi formalizada com a patente dos EUA 3.761.744 concedida em 1973. Essa descoberta lançou as bases para a captura eletrônica de imagens, rendendo a Boyle e Smith metade do Prêmio Nobel de Física de 2009.
A comercialização acelerou em meados da década de 1970, com o engenheiro da Kodak Steven Sasson montando a primeira câmera digital portátil do mundo em 1975 usando um sensor CCD Fairchild de 100x100 pixels, capturando imagens em tons de cinza de 0,01 megapixels armazenadas em fita cassete. Este protótipo, embora volumoso e de baixa resolução, provou a viabilidade do CCD para fotografia prática. Na astronomia, os CCDs ganharam força no final da década de 1970 para telescópios terrestres devido à sua sensibilidade superior e faixa dinâmica em relação às placas fotográficas, com ampla adoção na década de 1980; a câmera planetária e de campo amplo do Telescópio Espacial Hubble, instalada em 1990 e atualizada em 1993, dependia de matrizes CCD de grande formato para produzir imagens marcantes de campo profundo. Ao mesmo tempo, os eletrônicos de consumo adotaram os CCDs para aplicações de vídeo, quando a Sony lançou a primeira câmera de vídeo colorida totalmente em estado sólido em 1980, seguida por filmadoras compactas como a CCD-V8 de 1985, que integrava gravação e imagem em uma única unidade portátil, estimulando a mudança de filmadoras baseadas em tubo para filmadoras de estado sólido ao longo da década.
Na década de 1990, a tecnologia CCD dominava a imagem de ponta, dominando mais de 90% do mercado global de sensores de imagem em 1996, particularmente em fotografia profissional, instrumentos científicos e transmissão de vídeo, onde a qualidade da imagem era fundamental.[10] Aprimoramentos importantes, como CCDs de canal enterrado introduzidos no início da década de 1970, minimizaram o ruído ao confinar a transferência de carga para regiões subterrâneas longe das armadilhas de interface, alcançando ruído de leitura tão baixo quanto alguns elétrons por pixel e permitindo exposições mais longas para detecção de sinal fraco. No entanto, a produção de CCD permaneceu cara devido aos processos especializados de fabricação em várias etapas, e a arquitetura de leitura serial dos sensores exigia alta potência para clocking e resfriamento para suprimir o ruído térmico, limitando a escalabilidade dos dispositivos de consumo. Um marco na resolução veio com o desenvolvimento de CCDs de 1 megapixel pela Fairchild Semiconductor por volta de 1990, o que ultrapassou os limites das aplicações profissionais, mas destacou o custo da tecnologia em relação às alternativas emergentes.
Emergência CMOS
Os fundamentos dos sensores de imagem CMOS remontam ao desenvolvimento de transistores semicondutores de óxido metálico (MOS) na década de 1960, que permitiram a integração de fotodetectores e circuitos de amplificação em um único chip. Essas primeiras tecnologias MOS lançaram as bases para imagens de estado sólido, permitindo armazenamento e transferência de carga dentro de pixels, embora as implementações iniciais sofressem de alto ruído e desempenho limitado em comparação com tubos de vácuo. No início da década de 1990, sensores CMOS de pixel passivo - apresentando matrizes de fotodiodos simples sem amplificação em pixel - surgiram como alternativas de baixo custo para aplicações de nicho, como scanners de documentos, aproveitando processos padrão de fabricação de CMOS para reduzir despesas de fabricação.
Um avanço crucial ocorreu em 1993, quando Eric Fossum e sua equipe do Jet Propulsion Laboratory (JPL) da NASA inventaram o sensor de pixel ativo (APS), a arquitetura central dos modernos sensores de imagem CMOS. Esta inovação integrou um amplificador seguidor de fonte em cada pixel para aumentar a intensidade do sinal e suprimir o ruído, permitindo a funcionalidade de câmera em um chip com menor consumo de energia e maior potencial de integração do que os CCDs. O artigo SPIE seminal de Fossum demonstrou um protótipo APS de 28x28 pixels, capturando imagens com ruído de leitura reduzido por meio de amostragem dupla correlacionada. Com base nisso, os pesquisadores avançaram nos projetos de APS incorporando conversores analógico-digitais (ADCs) no chip por volta de 1995, permitindo a digitalização em colunas paralelas que melhorou a velocidade e a faixa dinâmica, minimizando as necessidades de processamento fora do chip.
Um refinamento adicional veio em 2008, quando a Sony lançou o primeiro sensor CMOS retroiluminado comercial, que realocou as camadas de fiação atrás dos fotodiodos para aumentar a captura de luz e a eficiência quântica em até 2 vezes em condições de pouca luz em comparação com designs com iluminação frontal. Isso aumentou a sensibilidade sem sacrificar a densidade de pixels, tornando o CMOS viável para imagens de alto desempenho. A mudança de mercado acelerou com o boom dos smartphones na década de 2000, exemplificado pela integração de sensores CMOS da Nokia em modelos como o N90, impulsionando a procura por câmaras compactas e de baixo consumo de energia. Em 2010, os sensores CMOS capturaram mais de 90% da participação no mercado de sensores de imagem, impulsionados pelas reduções de custos decorrentes do aproveitamento de instalações maduras de fabricação de CMOS que reduziram as despesas de produção em ordens de magnitude em relação às linhas CCD especializadas.
Marcos importantes destacaram a ascensão do CMOS, incluindo o lançamento da Canon em 2000 da EOS D30, a primeira câmera digital single-lens reflex (DSLR) com um sensor CMOS de 3,25 megapixels, que popularizou a tecnologia na fotografia profissional, oferecendo compatibilidade com lentes EF existentes por uma fração do custo das alternativas baseadas em CCD. Simultaneamente, a integração do CMOS com sistemas em chips (SoCs) móveis permitiu a incorporação perfeita em processadores como a série Snapdragon da Qualcomm, facilitando a imagem sempre ativa em bilhões de dispositivos e solidificando o CMOS como a plataforma dominante para produtos eletrônicos de consumo.
Inovações Modernas
Desde o início da década de 2010, os sensores de imagem empilhados revolucionaram o desempenho ao integrar fotodiodos e circuitos de processamento de sinal em uma arquitetura 3D, permitindo velocidades de leitura mais rápidas e redução de ruído. O Exmor RS da Sony, lançado em 2014, foi o primeiro sensor CMOS empilhado da indústria com 21 megapixels efetivos, suportando aplicações de alta taxa de quadros, como vídeo 4K a 120 quadros por segundo em formatos compactos. Este design abriu caminho para câmeras sob display na década de 2020, onde os sensores são incorporados sob painéis OLED transparentes para obter telas sem moldura; por exemplo, o Galaxy Z Fold4 da Samsung em 2022 apresentava uma câmera frontal sob a tela com densidade de pixels reduzida na área da câmera para permitir a transmissão de luz enquanto mantinha a integridade da tela. Em 2025, a tecnologia sob display se expandiu para laptops, como visto no Yoga Slim 9i da Lenovo, que integra recursos de câmera sob display aprimorados pelo processamento de IA para imagens perfeitas.[129]
Os avanços na IA e na imagem computacional integraram o aprendizado de máquina diretamente nos sensores para um processamento de borda eficiente, minimizando a transferência de dados para processadores externos e permitindo análises em tempo real. A série de sensores de visão inteligente da Sony, como o IMX501, incorpora IA no sensor para executar tarefas como detecção de objetos dentro da unidade do sensor, reduzindo a latência e o consumo de energia em comparação com o processamento tradicional fora do sensor.[130] Complementando isso, sensores neuromórficos e orientados a eventos imitam a visão biológica, gerando dados apenas em mudanças no nível de pixel, reduzindo drasticamente a largura de banda; Os sensores Metavision da Prophesee, comercializados pela primeira vez por volta de 2018, alcançam latência ultrabaixa para aplicações como rastreamento de movimento em ambientes dinâmicos.[131] Essas inovações suportam a detecção sempre ativa em wearables e drones, onde os sensores tradicionais baseados em estruturas seriam ineficientes.
Os esforços em direção à sustentabilidade e ao escalonamento impulsionaram reduções de nós de processo de 40nm para geometrias mais finas, como 28nm e abaixo, permitindo uma integração mais densa em projetos empilhados e, ao mesmo tempo, reduzindo o uso de energia por meio de processos lógicos avançados.[132] Sensores de imagem quântica emergentes, aproveitando centros de vacância de nitrogênio em diamante, prometem maior sensibilidade para imagens industriais com pouca luz, com o projeto PROMISE da UE em 2025 avançando protótipos pré-industriais para aplicações não invasivas.[133] Sensores orgânicos, impressos em substratos flexíveis, permitem matrizes adaptáveis para telas vestíveis e curvas; uma inovação de 2023 demonstrou um sensor de matriz ativa orgânica totalmente impresso a jato de tinta com 100 pixels, oferecendo capacidade de dobra sem perda de desempenho. A partir de 2025, as tendências móveis incluem sensores de 200 megapixels, como o ISOCELL HP2 da Samsung, para detalhes superiores em pouca luz, e implementações de obturador global, como os modelos de alta velocidade da OmniVision, eliminando a distorção do obturador em smartphones.