Especialista da ESPM e CEO da WS Labs argumenta que a personalização cruzou uma linha: deixou de servir ao consumidor para explorá-lo. E o Brasil ainda não tem vocabulário jurídico para lidar com isso

A cena se repete diariamente, em milhões de telas brasileiras: dois consumidores abrem o mesmo e-commerce, ao mesmo tempo, e veem páginas diferentes. Um recebe um alerta em vermelho — “Últimas 2 unidades!”; o outro vê a mesma oferta em silêncio. Um é empurrado para um plano anual mais caro ao longo de sete cliques; o outro encontra a opção mensal em dois. Não é falha de sistema. É o novo estágio dos chamados dark patterns personalizados — a manipulação digital que deixou de ser design fixo e virou produto de inteligência artificial feito sob medida para cada usuário.
A magnitude do fenômeno não é mais hipótese. Segundo reportagem de março de 2026 da TechPolicy.Press, que consolidou um estudo da Consumer Reports, a plataforma Instacart mostrou preços diferentes a usuários distintos para produtos idênticos, inflando contas de compras em até 23% com base nos padrões de navegação e compra dos consumidores Tech Policy Press. No mesmo levantamento, constatou-se que a rede Kroger utilizou dados pessoais e comportamentais — por vezes incorretos — para determinar quais descontos cada cliente receberia.
“Os dark patterns clássicos eram preguiçosos — um checkbox pré-marcado, um botão cinza para cancelar, um ‘não, prefiro pagar caro’. Era manipulação em massa, e qualquer pessoa atenta identificava. Com a IA generativa, o jogo mudou: o sistema aprende, em tempo real, o que faz você agir — e entrega para você, e só para você, a pressão certa no momento certo”, afirma Wilson Silva, professor de Marketing de Conteúdo e Otimização para Buscadores e GEO no curso de Administração da ESPM São Paulo e CEO da WS Labs, laboratório de estratégia em inteligência artificial.
Três movimentos regulatórios em 60 dias
O alerta ganha peso em um momento crítico para a legislação brasileira. O ECA Digital entrou em vigor em 17 de março de 2026, obrigando plataformas digitais a adotar proteção desde a concepção (“by design”). Na sequência, em 9 de abril, em Brasília, o Ministério da Justiça e Segurança Pública participou do 3º Seminário de Proteção de Dados e ECA Digital, dedicado justamente aos impactos das práticas manipulativas — os chamados deceptive patterns. Em paralelo, a Agência Nacional de Proteção de Dados (ANPD) publicou a Nota Técnica nº 1/2026/FIS/CGF/ANPD, que, em ação conjunta com MPF e Senacon, cobrou providências imediatas da plataforma X — estabelecendo o primeiro precedente brasileiro de responsabilização direta sobre IA generativa.
O próprio Senado Federal publicou, em abril de 2026, o Texto para Discussão nº 359 especificamente sobre dark patterns, reconhecendo que muitas dessas práticas são hoje construídas de forma personalizada, a partir da exploração de dados pessoais dos consumidores.
A fronteira entre personalizar e explorar
Para Silva — palestrante do Web Summit Rio 2025 e do AI Brasil Experience 2025 — o debate público ainda confunde dois fenômenos muito diferentes: “Personalização é lembrar que você prefere receber e-mails à noite. Dark pattern personalizado é descobrir que você compra mais quando está com a bateria do celular baixa — e te mostrar o preço mais alto justamente nesse momento.”
A preocupação regulatória já se consolidou internacionalmente. A Federal Trade Commission (FTC) dos Estados Unidos abriu, desde 2024, uma investigação formal sobre “surveillance pricing” — a precificação baseada em vigilância. Segundo levantamento publicado em agosto de 2025 pela Consumer Reports, 24 estados americanos introduziram 51 projetos de lei em 2025 para coibir práticas de precificação algorítmica, contra apenas 10 projetos em todo o ano anterior Tech Policy Press. No Brasil, em reportagem do Diário do Comércio, a pesquisadora Marina Fernandes, do Instituto Brasileiro de Defesa do Consumidor (Idec), já defendeu publicamente que a precificação dinâmica pode se enquadrar como prática abusiva prevista no artigo 39 do Código de Defesa do Consumidor.
O problema da prova
Para Silva, o ponto mais delicado não é regulatório, mas evidencial. “O Código de Defesa do Consumidor foi escrito para um mundo em que a oferta era igual para todos. Hoje, a IA pode construir uma oferta única, que aparece por três segundos na tela de um consumidor específico, e desaparece. Como o Procon fiscaliza algo que só existiu uma vez, em uma única tela, sem testemunha e sem histórico?”
A resposta, defende o especialista, passa pela auditoria algorítmica obrigatória e pela criação de um vocabulário jurídico próprio para a era da IA. “Estamos tentando combater um fenômeno novo com definições da década de 1990. Precisamos parar de discutir apenas ‘propaganda enganosa’ e começar a discutir ‘oferta manipulada por IA’. São coisas diferentes — e o Brasil ainda não tem a linguagem para nomear a segunda. Enquanto não tivermos, a vulnerabilidade do consumidor deixou de ser um risco: virou uma commodity.”
SOBRE O ESPECIALISTA
Wilson Silva é professor da ESPM São Paulo na disciplina Marketing de Conteúdo e Otimização para Buscadores e GEO, no curso de Administração, e CEO da WS Labs, laboratório dedicado a estratégias orientadas por inteligência artificial. Foi palestrante do Web Summit Rio 2025 e do AI Brasil Experience 2025, os dois maiores eventos de tecnologia e IA realizados na América Latina em 2025. Atua na fronteira entre IA generativa, marketing de conteúdo, otimização para buscadores tradicionais e generativos (GEO) e estratégia digital de marca.
Canais oficiais:
Site: wslabs.ai
Instagram: @wilsonsilva_mkt
Instituição: ESPM São Paulo
DESDOBRAMENTOS DE PAUTA
Wilson Silva está disponível para entrevistas presenciais (em São Paulo) ou remotas, com aprofundamento nos seguintes ângulos:
- Como o consumidor identifica que está sendo submetido a dark patterns personalizados
- ECA Digital e proteção “by design”: o que muda para as plataformas a partir de março de 2026
- Precificação dinâmica com IA: onde termina a oferta legítima e começa a exploração
- O caso ANPD/Grok e o primeiro precedente brasileiro sobre responsabilização de IA generativa
- O conceito obsoleto de “consumidor médio” na era algorítmica
- Auditoria algorítmica: o que Europa, EUA e Brasil já discutem
- GEO e manipulação: como as respostas das IAs também podem ser enviesadas
