Cenário jurídico e regulatório
Regulamentos Domésticos
Nos Estados Unidos, as regulamentações de privacidade visual concentram-se na recolha de dados biométricos, predominantemente através de estatutos a nível estadual, em meio à inação federal. A Lei de Privacidade de Informações Biométricas (BIPA) de Illinois de 2008 exige consentimento por escrito e políticas de retenção de dados para entidades privadas que lidam com dados biométricos como varreduras faciais, estimulando mais de 1.000 ações judiciais até 2023. Um resultado de aplicação proeminente foi o acordo de US$ 650 milhões da Meta em 2021 por violar a BIPA por meio de reconhecimento facial automatizado na marcação de fotos sem consentimento, beneficiando mais de 1,1 milhão de residentes de Illinois. [79] Em 2024, pelo menos 10 estados, incluindo o Texas (Lei de Captura ou Uso de Identificador Biométrico, 2009) e a Califórnia, promulgaram restrições semelhantes baseadas em consentimento sobre o uso biométrico comercial, com alguns limites estendidos à implantação de reconhecimento facial no setor público.[80] Os esforços federais continuam fragmentados, sem um quadro unificado; Projetos de lei propostos, como a Lei de Moratória de Reconhecimento Facial e Tecnologia Biométrica de 2023, buscam proibir o uso pelo governo, mas não foram aprovados, deixando lacunas exploradas por agências como o FBI para varreduras sem mandado em bancos de dados superiores a 650 milhões de imagens.[81] [82]
A União Europeia regula a privacidade visual de acordo com o Artigo 9 do GDPR (em vigor a partir de 2018), classificando os dados biométricos para identificação - como geometria facial - como dados de "categoria especial", proibindo o processamento sem consentimento explícito, interesses vitais ou derrogações restritas de interesse público, com a aplicação da lei regida separadamente pela diretiva LED. A Lei da UE sobre IA (Regulamento (UE) 2024/1689), em vigor a partir de agosto de 2024, classifica ainda a identificação biométrica remota em tempo real em espaços acessíveis ao público como proibida, com exceções limitadas para fins de aplicação da lei.[83] A aplicação da lei contra violações biométricas rendeu multas multimilionárias; A Clearview AI, por exemplo, enfrentou uma multa de 20 milhões de euros da Garante italiana em 2022 por extrair milhares de milhões de imagens faciais sem base, seguida de 30,5 milhões de euros da autoridade holandesa em 2024 por violações semelhantes do RGPD.[84] [85] Em agosto de 2023, as multas do GDPR totalizavam mais de 2,5 bilhões de euros em todos os casos, incluindo mau uso biométrico por empresas como a Meta, embora os estados membros variem na aplicação – a CNIL da França proibiu as restrições ao som do obturador do iPhone indiretamente ligadas à vigilância visual em 2020.[86]
Estas regulamentações enfrentam críticas por priorizarem a privacidade em detrimento da segurança, atrasando potencialmente as identificações em investigações criminais; As proibições estaduais dos EUA, como a proibição de São Francisco de 2019 ao reconhecimento facial da polícia, foram criticadas pelas autoridades por complicarem o rastreamento de suspeitos em crimes violentos, com restrições análogas da UE sob o GDPR argumentadas para dificultar o combate ao terrorismo, restringindo a correspondência biométrica em tempo real, na ausência de justificativa exaustiva.[87] [88] As avaliações empíricas de tais obstáculos continuam a ser contestadas, uma vez que os proponentes citam riscos tecnológicos propensos a erros, enquanto os oponentes destacam casos resolvidos através de ferramentas não regulamentadas pré-regulamentação.[89]
Quadros e Conflitos Internacionais
Os quadros internacionais para a privacidade visual giram principalmente em torno do tratamento de dados biométricos em contextos de vigilância, com o Sistema de Reconhecimento Facial (IFRS) da Interpol, criado em 2016, facilitando a partilha padronizada de imagens faciais entre os seus 196 países membros para apoiar a aplicação da lei transfronteiriça.[90] A IFRS permite pesquisas automatizadas numa base de dados de mais de 200.000 imagens a partir de 2023, aderindo a padrões técnicos de qualidade de imagem e algoritmos de correspondência para garantir a interoperabilidade, embora careça de mandatos vinculativos de privacidade para além das leis nacionais. Complementando isto, as resoluções da Assembleia Geral das Nações Unidas sobre o direito à privacidade na era digital, como a Resolução 77/175 adotada em dezembro de 2022, instam os Estados a protegerem-se contra a vigilância arbitrária, inclusive através de tecnologias visuais como a biometria, enfatizando a proporcionalidade e as salvaguardas contra a recolha de dados em massa.[91]
As tensões surgem de regimes nacionais divergentes, exemplificadas pelos contrastes entre as abordagens relativamente permissivas dos EUA às ferramentas de vigilância visual do sector privado e a expansão das redes de reconhecimento facial dirigida pelo Estado na China, que integram milhões de câmaras para controlo social.[92] Na década de 2020, as empresas dos EUA, apoiadas por licenças de exportação governamentais ao abrigo de programas como os Regulamentos de Administração de Exportações, forneceram componentes como chips e software que permitiram a infra-estrutura de vigilância da China, com uma investigação da Associated Press revelando mais de 1,4 mil milhões de dólares em tais aprovações de 2015 a 2023, apesar das preocupações com os direitos humanos.[93] Isto alimentou atritos geopolíticos, à medida que os controlos de exportação ocidentais se tornaram mais rigorosos após 2020, entre receios de que a proliferação tecnológica ajudasse à monitorização autoritária, enquanto a China avança padrões nacionais que dão prioridade à segurança do Estado em detrimento da privacidade individual.[94]
Os conflitos de soberania de dados destacam esses conflitos, como visto em 2024, ações legislativas dos EUA contra o TikTok, de propriedade da empresa chinesa ByteDance, onde proibições em estados como Indiana e ameaças federais sob a Lei de Proteção aos Americanos contra Aplicações Controladas de Adversários Estrangeiros citaram riscos de dados visuais - como vídeos de usuários e varreduras faciais - serem acessados pelas autoridades chinesas, potencialmente evitando as normas internacionais de privacidade.[95] O Supremo Tribunal dos EUA confirmou aspectos desta medida no início de 2025, enquadrando-a como uma medida de segurança nacional contra o controlo estrangeiro sobre fluxos de dados visuais, sublinhando padrões inconciliáveis entre as exigências de localização de dados nas autocracias e os princípios de mercado aberto noutros locais.[96] Tais disputas revelam a ausência de acordos globais aplicáveis, com estruturas como a UE-EUA. Quadro de Privacidade de Dados centrado nas transferências gerais de dados, mas deixando de lado a harmonização visual específica em meio a afirmações de soberania.[97]
Desafios e lacunas na aplicação da lei
A aplicação dos regulamentos de privacidade visual enfrenta restrições significativas de recursos, exemplificadas por atrasos persistentes no processamento de reclamações nas autoridades europeias de proteção de dados. Na Irlanda, a Comissão de Proteção de Dados informou que quase 86% das reclamações transfronteiriças de 2021 permaneceram por resolver em avaliações posteriores, destacando atrasos sistémicos na resolução de violações relacionadas com a vigilância. Da mesma forma, o Gabinete do Comissário de Informação (ICO) do Reino Unido registou um aumento nas reclamações sobre proteção de dados, passando de 39.721 em 2023/24 para 42.881 em 2024/25, o que levou a consultas sobre alterações processuais no meio de previsões de novos aumentos que prejudicam a capacidade de investigação. Estes atrasos contribuem para baixas taxas de resolução, com análises indicando que apenas cerca de 1,3% dos casos perante as autoridades de proteção de dados da UE entre 2018 e 2023 resultaram em multas, apesar dos milhares de milhões em potenciais sanções ao abrigo do RGPD.[98][99][100]
O subfinanciamento agrava estes problemas, uma vez que as agências de aplicação da privacidade muitas vezes carecem de orçamentos e de pessoal suficientes relativamente à escala das implementações de vigilância visual. As autoridades de controlo da UE, incluindo a Autoridade Europeia para a Proteção de Dados, lidaram com volumes limitados de reclamações – como 420 em 2023 – enquanto se debatiam com pessoal inadequado para investigar tecnologias complexas, como sistemas de reconhecimento facial integrados em redes públicas de CCTV. Nos EUA, surgem desafios análogos na supervisão federal da privacidade, onde agências como a Comissão Federal do Comércio não dispõem de recursos suficientes para uma aplicação robusta contra abusos de dados em tecnologias visuais, levando a ações pouco frequentes, apesar do incumprimento generalizado. Esta lacuna de recursos resulta na impunidade de facto para os infratores, uma vez que as investigações priorizam casos de grande repercussão em detrimento de infrações de vigilância de rotina.[101][102]
Os rápidos avanços tecnológicos nas ameaças à privacidade visual ultrapassam a adaptação regulamentar e os mecanismos de aplicação, criando lacunas na aplicação. As inovações na vigilância orientada pela IA, como a análise facial em tempo real e a imagem baseada em drones, evoluem mais rapidamente do que as autoridades conseguem auditar ou penalizar as implementações, com auditorias de conformidade revelando lacunas persistentes na adesão aos padrões de privacidade existentes. Por exemplo, a implementação desigual de leis de vigilância permite que as autoridades policiais implementem tecnologias sem salvaguardas de privacidade consistentes, amplificando os riscos de utilização indevida em sistemas de vídeo públicos.[103][104]
Regulamentações rigorosas destinadas a proteger a privacidade visual ampliaram inadvertidamente as lacunas ao sufocar a inovação em tecnologias compatíveis, especialmente na UE pós-GDPR. Os encargos de conformidade, incluindo custos elevados e incertezas jurídicas, reduziram a inovação em IA, com os acordos de capital de risco europeus nos setores tecnológicos a caírem 26,1% em relação aos EUA, dificultando o desenvolvimento de alternativas de vigilância que preservem a privacidade. Este atraso contribui para vulnerabilidades de segurança, uma vez que ambientes excessivamente regulamentados atrasam os avanços nas ferramentas de detecção que poderiam equilibrar a privacidade com as necessidades de segurança pública, deixando as jurisdições dependentes de intervenientes globais menos regulamentados para tecnologias críticas. Os investigadores observam que tais estruturas impõem requisitos rígidos às startups, exacerbando o atraso tecnológico da Europa em relação a concorrentes como os EUA e a China no tratamento de dados visuais.[105][106][107]