
Por Lucas Cinelli, CEO e cofundador da Octos e especialista em inovação na portaria remota, videomonitoramento inteligente e sistemas de alarmes*
O avanço da inteligência artificial (IA) nos sistemas de vigilância urbana tem ampliado significativamente a capacidade de monitoramento, prevenção de incidentes e resposta a riscos em cidades e espaços públicos. Ao mesmo tempo, essa expansão tecnológica intensificou o debate sobre privacidade, ética e limites no uso de dados. Em um cenário global de regulamentações mais rigorosas, a discussão deixou de ser apenas técnica e passou a envolver questões estruturais sobre como equilibrar segurança coletiva e direitos individuais.
Segundo levantamento da Business Research, o mercado global de câmeras de vigilância com inteligência artificial está projetado para partir de um valor estimado de US$ 11,3 bilhões em 2026 e alcançar US$ 66,12 bilhões até 2035, com crescimento anual médio de 21,69% no período. O avanço desses investimentos indica não apenas a crescente demanda por segurança baseada em dados, mas também a consolidação da IA como elemento central nas estratégias de proteção urbana e corporativa.
Na Europa, o avanço do AI Act estabeleceu novas diretrizes para o desenvolvimento e uso de sistemas baseados em inteligência artificial, especialmente em aplicações consideradas sensíveis, como vigilância e reconhecimento biométrico. No Brasil, a Lei Geral de Proteção de Dados Pessoais também consolidou princípios importantes, como minimização de dados, transparência no tratamento de informações e responsabilidade no uso de tecnologias que possam impactar direitos individuais.
Nesse contexto, surge o conceito de “IA invisível”, uma abordagem que busca reduzir a coleta de dados sensíveis ao priorizar a análise de eventos e padrões comportamentais em vez da identificação direta de indivíduos. Em sistemas de monitoramento por vídeo, isso significa desenvolver modelos capazes de identificar situações de risco, como invasões de perímetro, movimentações atípicas ou objetos abandonados, sem necessariamente recorrer ao reconhecimento facial ou ao armazenamento prolongado de imagens.
Essa lógica se conecta diretamente ao princípio de Privacy by Design, que defende que a proteção de dados deve ser incorporada desde a concepção das soluções tecnológicas. Em vez de adaptar sistemas posteriormente para atender exigências regulatórias, a proposta é que privacidade, segurança e governança sejam elementos estruturais no desenvolvimento das ferramentas digitais.
Do ponto de vista técnico, essa mudança implica priorizar análises baseadas em contexto e comportamento. Algoritmos de visão computacional podem identificar padrões de deslocamento incompatíveis com o fluxo normal de um ambiente ou reconhecer interações que indiquem risco potencial. Ao focar no evento e não na identidade, os sistemas reduzem a necessidade de capturar informações pessoais e diminuem o risco de uso indevido dos dados.
Essa evolução tecnológica também dialoga com as transformações nas estratégias de gestão urbana. Um relatório da ThoughtLab, que entrevistou líderes de 250 cidades ao redor do mundo, mostra que 70% das cidades consideradas preparadas para o futuro relatam avanços significativos em áreas como segurança, proteção e resiliência urbana. Entre as demais cidades analisadas, cerca de 200 ainda não são consideradas preparadas para o futuro, apenas 17% afirmam ter feito progressos relevantes nessas frentes, evidenciando como o uso estratégico de tecnologia tem se tornado um diferencial no planejamento urbano contemporâneo.
Essa abordagem também contribui para evitar um dos principais receios associados à expansão da vigilância digital: o surgimento de ambientes de monitoramento massivo e permanente. Cidades mais seguras não precisam necessariamente ser cidades mais invasivas. Sistemas capazes de processar dados em tempo real, descartar informações irrelevantes e operar com anonimização estrutural podem oferecer ganhos operacionais sem comprometer direitos fundamentais.
A implementação de inteligência artificial em espaços públicos exige estruturas claras de governança, transparência sobre critérios de funcionamento e mecanismos de auditoria independentes. A confiança da sociedade depende da capacidade de demonstrar que os sistemas operam dentro de limites bem definidos, com critérios objetivos e sem reproduzir vieses ou discriminações algorítmicas.
Outro ponto relevante envolve a responsabilidade sobre decisões automatizadas, pois mesmo quando não ocorre identificação direta de indivíduos, a classificação de um comportamento como potencial ameaça pode gerar consequências práticas, como o acionamento de equipes de segurança. Por esse motivo, a supervisão humana continua sendo um elemento essencial, garantindo que a tecnologia funcione como suporte à decisão e não como substituta do julgamento contextual.
À medida que as regulamentações evoluem e a sociedade se torna mais consciente sobre direitos digitais, a tendência é que soluções baseadas em inteligência artificial avancem para modelos menos intrusivos e mais responsáveis. A chamada “IA invisível”, ancorada no conceito de privacidade desde a concepção, aponta para um caminho em que inovação tecnológica, segurança urbana e proteção de dados possam coexistir de forma equilibrada no desenvolvimento das cidades inteligentes.
*Lucas Cinelli é mestre e doutorando em processamento de vídeo e imagem. Atua há mais de uma década em projetos de pesquisa e desenvolvimento voltados à visão computacional e segurança. Como CEO e cofundador da Octos (startup de IA em segurança eletrônica), integra IA em milhares de câmeras e já contabiliza mais de 100 crimes evitados, além de redução de cerca de 70% nos falsos alarmes em operações reais.
