Especialista em Direito Digital aponta os cuidados jurídicos e os riscos envolvendo uso de IA com crianças e destaca os desafios para garantir segurança, transparência e controle parental

A recente parceria entre a OpenAI e a Mattel, dona da marca Barbie, para integrar inteligência artificial às experiências do público infantil, acende um sinal de alerta sobre privacidade, segurança de dados e controle parental. A iniciativa, embora inovadora, exige um rigoroso alinhamento às exigências da Lei Geral de Proteção de Dados (LGPD) no Brasil, especialmente no que diz respeito ao tratamento de dados de crianças.
“Quando falamos de dados de menores de 12 anos, a LGPD é categórica: é obrigatório obter consentimento claro, específico e destacado de pelo menos um dos pais ou responsáveis legais, sempre com informações acessíveis sobre a finalidade da coleta e uso dos dados”, explica Alexander Coelho, sócio do Godke Advogados e especialista em Direito Digital, Inteligência Artificial (IA) e Cibersegurança. Além disso, segundo ele, a legislação brasileira determina que haja ferramentas eficazes de controle parental, como painéis de gerenciamento, possibilidade de revogação do consentimento e comunicação facilitada entre responsáveis e a empresa.
O advogado alerta ainda que, se ocorrer um vazamento de dados envolvendo crianças, tanto a OpenAI quanto a Mattel podem ser responsabilizadas civil, administrativa e, dependendo do caso, até criminalmente. “A responsabilidade na LGPD é objetiva. Basta que haja o dano e o nexo com o tratamento de dados — não importa se houve ou não intenção. As sanções vão desde advertências até multas que podem chegar a 2% do faturamento no Brasil, limitadas a R$ 50 milhões por infração, além de bloqueio e eliminação dos dados”, destaca o advogado.
Por isso, ele reforça que parcerias dessa natureza exigem ajustes rigorosos nas políticas internas de privacidade e compliance. “Os contratos precisam estabelecer, de forma muito clara, como se dará a divisão de responsabilidades entre quem coleta e quem processa os dados, além de prever cláusulas robustas sobre segurança, confidencialidade, prazos de retenção e, especialmente, elaboração de Relatórios de Impacto à Proteção de Dados (DPIA)”, afirma.
Do ponto de vista reputacional, os riscos também são expressivos. Coelho lembra que qualquer incidente envolvendo dados de crianças tende a gerar ampla repercussão negativa. “A reputação de uma marca infantil está diretamente ligada à confiança dos pais e à segurança percebida do produto. O uso de inteligência artificial, ainda que inovador, adiciona um novo grau de complexidade e risco, principalmente quando falhas de segurança resultam em exposição indevida de dados de crianças. Um incidente desse tipo pode gerar perda de confiança, boicotes, investigações e forte cobertura negativa da mídia”, ressalta.
Para reduzir esses riscos, o especialista recomenda a implementação de uma governança em proteção de dados desde o início. Isso inclui treinamentos internos, revisões constantes de segurança, testes técnicos e a criação de um comitê ético para avaliar os impactos da IA no público infantil. “Confiança não se reconquista com marketing. Ela se reconquista com transparência, ética e uma resposta rápida e eficiente diante de qualquer problema”, finaliza Coelho.
Fonte:
Alexander Coelho – sócio da Godke Data Protection & Privacy e do escritório Godke Advogados. Especialista em Direito Digital, Inteligência Artificial e Cibersegurança. Membro da Comissão de Privacidade e Proteção de Dados e Inteligência Artificial (IA) da OAB/São Paulo. Pós-graduado em Digital Services pela Faculdade de Direito de Lisboa (Portugal).
+ ChatGPT: A inteligência artificial que desafia os educadores