Projeto aprovado proíbe provedores de monetizar conteúdo que viole direitos da criança

Redação
Por Redação

21/08/2025 – 00:00  

Kayo Magalhães/Câmara dos Deputados

Deputados votaram a proposta no Plenário

Aprovado na Câmara dos Deputados, o projeto sobre proteção de crianças e adolescentes em ambientes digitais (PL 2628/22) proíbe os provedores de aplicações de internet de monetizar ou impulsionar conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto.

A fim de atender ao princípio da proteção integral, o texto prevê que esses fornecedores deverão permitir aos usuários acesso a mecanismos de notificação sobre conteúdo que viole direitos de crianças e adolescentes, exceto conteúdos jornalísticos e submetidos a controle editorial.

Assim que forem comunicados do caráter ofensivo de uma publicação, independentemente de ordem judicial, os provedores deverão retirar o conteúdo que viole esses direitos.

No entanto, a notificação poderá ser apresentada apenas pela vítima, por seus representantes, pelo Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes.

Segundo o projeto, os conteúdos considerados prejudiciais a crianças e adolescentes são:

  • exploração e abuso sexual;
  • violência física, intimidação sistemática (bullying) virtual e assédio a crianças e adolescentes;
  • indução ou instigação, por meio de instruções e orientações, a práticas ou comportamentos que levem a danos à saúde física ou mental, tais como violência física ou assédio psicológico a outras crianças e adolescentes, uso de substâncias que causem dependência química ou psicológica, autodiagnóstico e automedicação, automutilação e suicídio;
  • promoção e comercialização de jogos de azar (incluídas bets e loterias), produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida para crianças e adolescentes;
  • práticas publicitárias predatórias, injustas ou enganosas, ou que possam causar outros danos a crianças e adolescentes;
  • conteúdo pornográfico.

Contestação de retirada
A notificação deverá conter elementos suficientes para permitir a identificação específica do autor e do material apontado como violador desses direitos, proibida a denúncia anônima.

Para fazer a denúncia, o público deverá ter acesso fácil ao mecanismo de encaminhamento dessa notificação.

No entanto, o relator do projeto, deputado Jadyel Alencar (Republicanos-PI), incluiu no texto procedimentos para a contestação da decisão de retirada de conteúdo. Dessa forma, quem postou o conteúdo deverá ser notificado da retirada, com dados sobre o motivo e fundamentação, e informação sobre possibilidade de recurso segundo prazos definidos.

Uso abusivo
Outra novidade sobre as notificações é que os provedores de aplicativos deverão criar mecanismos para identificar o uso abusivo do instrumento de denúncia, informando ao usuário sobre quais hipóteses será considerado uso indevido e sanções aplicáveis.

Os provedores deverão definir critérios técnicos e objetivos de identificação desse abuso, informar o usuário sobre a instauração de procedimento de apuração de abuso de notificação e possíveis sanções, com prazos para recurso e resposta a esse recurso.

Entre as sanções previstas, aplicáveis de forma proporcional e necessária segundo a gravidade da conduta, a suspensão temporária da conta, o seu cancelamento em casos de reincidência ou abuso grave e a comunicação às autoridades competentes se houver indícios de infração penal ou violação de direitos.

Pais e responsáveis
Apesar de a obrigação de retirar o conteúdo recair sobre os fornecedores dos aplicativos, o PL 2628/22 deixa claro que isso não exime os pais e responsáveis de atuarem para impedir a exposição de crianças e adolescentes a essas situações, assim como qualquer um que se beneficiar financeiramente da produção ou distribuição pública de qualquer representação visual desse público.

Conteúdo impróprio
Os fornecedores de produtos e serviços de tecnologia da informação que disponibilizarem conteúdo, produto ou serviço impróprios, inadequados ou proibidos para menores de 18 anos deverão adotar medidas eficazes para impedir o acesso por crianças e adolescentes no âmbito de seus serviços e produtos.

Entre esses conteúdos estão material pornográfico e outros que sejam vedados pela legislação, assim como os classificados como não recomendados para a faixa etária correspondente.

Para isso, deverão adotar mecanismos confiáveis de verificação de idade de cada usuário, vedada a autodeclaração.

Somente para conteúdo pornográfico é que o provedor deverá impedir a criação de contas ou perfis por crianças e adolescentes.

Bruno Spada/Câmara dos Deputados

Presidente da Câmara, Hugo Motta, e o relator Jadyel Alencar comemoram votação

No âmbito da Lei Geral de Proteção de Dados (LGPD), decisão recente do Supremo Tribunal Federal (STF) confirmou jurisprudência em relação a provedores de aplicações de internet, termo usado originalmente no projeto, como os provedores de serviços de e-mail; os provedores de aplicações de realização de reuniões fechadas por vídeo ou voz; e os provedores de serviços de mensageria instantânea (Whatsapp, por exemplo) exclusivamente quanto às comunicações interpessoais resguardadas pelo sigilo das comunicações.

Verificação de idade
A fim de padronizar a adoção de mecanismos de aferição de idade de quem acessa os aplicativos, o texto aprovado prevê que o poder público poderá atuar como regulador, certificador ou promotor de soluções nesse sentido.

Aos provedores de lojas de aplicações de internet (como App Store, Play Store ou Google Store) e aos provedores de sistemas operacionais (como Android ou IOS), o projeto determina que adotem medidas tecnicamente seguras e auditáveis para verificar a idade e permitir que pais ou responsáveis configurem mecanismos de supervisão parental.

Deverão ainda viabilizar interface de programação de aplicações (APIs) para cruzar dados sobre a idade do usuário. As APIs são uma forma de “comunicação” entre aplicações de internet para processar dados necessários a uma interação do usuário com o serviço.

Já a autorização para download de aplicativos por adolescentes dependerá de consentimento livre e informado dos pais ou responsáveis legais, segundo termos da legislação vigente. Mesmo respeitada sua autonomia progressiva, fica proibido presumir autorização na hipótese de ausência de manifestação dos pais ou responsáveis.

Os dados coletados para a verificação de idade de crianças e adolescentes poderão ser utilizados unicamente para esta finalidade.

Com participação social por meio de consultas públicas, o poder público poderá atuar como regulador, certificador ou promotor de soluções técnicas de verificação de idade.

Uma autoridade administrativa autônoma a ser criada por lei deverá editar os regulamentos e fiscalizar o cumprimento das regras.

Controle parental
Para viabilizar o controle parental do acesso aos aplicativos por parte de crianças e adolescentes, os fornecedores deverão tornar disponível configurações e ferramentas acessíveis e fáceis de usar que apoiem a supervisão parental.

Outras ferramentas deverão permitir a limitação do tempo de uso do produto ou serviço e uma funcionalidade deve avisar claramente quando as ferramentas de controle parental estiverem em vigor e quais configurações ou controles foram aplicados.

Em todo caso, a configuração padrão das ferramentas de controle parental deve adotar o maior nível de proteção disponível, assegurando, no mínimo:

  • restrição à comunicação com crianças e adolescentes por usuários não autorizados;
  • limitação de recursos para aumentar, sustentar ou estender artificialmente o uso do produto ou serviço pela criança ou adolescente, como reprodução automática de mídia, recompensas pelo tempo de uso, notificações e outros recursos que possam resultar em uso compulsivo do produto ou serviço;
  • emprego de interfaces para imediata visualização e limitação do tempo de uso do produto ou serviço;
  • controle de sistemas de recomendação personalizados, inclusive com opção de desativá-los;
  • restringir o compartilhamento da geolocalização e fornecer aviso sobre seu rastreamento;
  • promover educação digital midiática quanto ao uso seguro de produtos e serviços de tecnologia da informação; e
  • revisão regular de ferramentas de inteligência artificial com participação de especialistas com base em critérios técnicos para assegurar a segurança de uso por crianças e adolescentes.

Reportagem – Eduardo Piovesan
Edição – Pierre Triboli

Assuntos
Compartilhar este artigo