O Estatuto Digital da Criança e do Adolescente (ECA Digital), aprovado pelo Senado na última semana, criou novas regras para remoção de conteúdos de redes sociais, com o objetivo de proteger menores de 18 anos e combater sua “adultização”. O texto, que aguarda sanção presidencial, é visto com bons olhos por especialistas em Direito Digital com relação às remoções em casos graves e objetivos, mas também é alvo de críticas sobre as situações menos claras, em que o conteúdo não é necessariamente ilícito.

PL aprovado para combater ‘adultização’ prevê regras para remoção de conteúdo ilegal - Freepik
O projeto de lei prevê que conteúdos relacionados a abuso sexual, sequestro, aliciamento ou exploração infantil devem ser removidos de forma imediata, com notificação das autoridades. As empresas também devem excluir, mesmo sem ordem judicial, publicações que violem direitos de crianças e adolescentes assim que forem comunicadas “do caráter ofensivo” pela vítima, por seus representantes, pelo Ministério Público ou por entidades de defesa dos direitos dos menores.
Visão positiva
É consenso que a norma tem uma boa intenção. Também não há dúvidas de que casos relacionados a crimes graves devem, de fato, ter o tratamento dado pelo projeto. O próprio Supremo Tribunal Federal se pronunciou nesse sentido no último mês de junho, ao estabelecer sua tese sobre responsabilização civil das plataformas digitais. Segundo a decisão, as empresas devem ser responsabilizadas caso não removam de forma imediata diferentes tipos de conteúdos, incluindo aqueles que representem crimes graves contra crianças e adolescentes.
Para o advogado Francisco Brito Cruz, professor do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), co-fundador e ex-diretor do centro de pesquisas InternetLab (voltado às áreas de tecnologia e direitos humanos), o PL é um avanço, pois “traz regras específicas e proporcionais às situações” que busca combater.
Na sua visão, os métodos previstos no ECA Digital para remoção de conteúdo são “razoáveis”, já que se restringem a hipóteses específicas.
A especificidade é um ponto central. Ele ressalta que os mecanismos para “coibir conteúdo nocivo a crianças e adolescentes” podem não ser as melhores soluções para outros tipos de casos. De acordo com o advogado, remover uma publicação que constitui crime grave é muito diferente, por exemplo, de remover um conteúdo por uso ilícito de uma marca.
“O próprio STF em sua recente decisão trouxe diferenciações importantes que podem ponderar os riscos e direitos em cada situação”, aponta. Mas a lei se limita aos casos relacionados a crianças e adolescentes.
Cruz acredita que as obrigações previstas no projeto “aumentaram o grau de exigência” nessas situações. Com isso, “remoções podem ser mais rápidas, inclusive em conteúdos que poderiam levantar dúvidas por estarem em áreas antes mais cinzentas”.
Preocupações
O advogado Ciro Torres Freitas, sócio do escritório Pinheiro Neto na área de tecnologia, concorda que o ECA Digital tem um “propósito nobre e desejável”. Também diz que uma lei com esse objetivo representa um avanço, no sentido de que o Legislativo reconheceu a importância da proteção de crianças e adolescentes. Mas são justamente as áreas cinzentas que ainda o preocupam.
“A razoabilidade do regime de remoção de conteúdo a partir de notificação extrajudicial, independentemente de ordem judicial, dependerá, em alguma medida, do modo como a norma será interpretada e aplicada pela autoridade administrativa competente e pelo Poder Judiciário”, opina.
Para ele, é “evidente” que a remoção é “a providência esperada e adequada” quando o provedor recebe notificação sobre a existência de conteúdo pornográfico em um site direcionado a crianças, por exemplo. Mas existem “situações menos claras”, quando o conteúdo não é, por si só, ilícito, e sua divulgação acontece em um site não voltado a crianças, mas considerado de acesso provável por esse público. Em outras palavras, são casos em que o conteúdo notificado “não viola claramente” direitos dos menores.
Nesse tipo de situação, a plataforma “pode acabar se vendo no dilema entre não remover o conteúdo e ficar sujeita às sanções previstas no ECA Digital ou remover o material e ser levada a juízo pelo usuário que o criou, sob a alegação de violação da liberdade de expressão e descumprimento de contrato”. São casos “em que a notificação extrajudicial poderá não ser atendida”.
Para Freitas, “plataformas que atuam de forma séria” deverão se esforçar para cumprir as obrigações impostas pelo projeto. Caso não removam o conteúdo, “é necessário apurar se essa empresa está simplesmente optando por descumprir a lei ou se há alguma justificativa para a sua conduta”.
Assim, o advogado acredita que o modelo de “notice and take down” — isto é, derrubada dos conteúdos assim que notificados — pode ser razoável para algumas situações, mas, para outras, a atuação do Judiciário é necessária.
Ou seja, a remoção a partir de notificação extrajudicial pode funcionar em relação a conteúdos evidentemente ilícitos, “quando não há necessidade de interpretação ou ponderação a respeito do seu caráter ilegal”. Mas se não houver “clareza sobre a ilicitude do material”, o advogado considera inadequado responsabilizar a plataforma antes de uma decisão judicial.
Segundo ele, isso não significa isenção de responsabilidade, pois quem criou e optou por divulgar o conteúdo sempre responderá pelos danos causados.
Mais lacunas
Embora reconheça a boa intenção do PL, o advogado Rafael Maciel, especialista em Direito Digital, afirma que o ECA Digital tem uma redação confusa, traz diversas polêmicas e tende a prejudicar direitos não necessariamente relacionados a crianças e adolescentes.
Sua crítica também não é voltada à remoção de conteúdo em casos graves e objetivos. Mas ele entende que a norma é muito aberta quanto aos conteúdos “potencialmente ofensivos às crianças”, já que algo pode ser ofensivo para algumas pessoas, mas não para outras.
A necessidade de uma análise subjetiva e a falta de critérios para a remoção imediata de conteúdos abusivos são os principais problemas. O advogado indica que o texto, por vezes remete, à própria legislação, mas, em outros trechos, menciona uma futura regulamentação.
Maciel exemplifica como as regras do projeto podem ser ambíguas: se uma mãe publicar imagens ou vídeos do primeiro banho de seu filho, certas pessoas podem considerar que o conteúdo é ofensivo, devido à nudez. O próprio conceito de pornografia também pode variar conforme o usuário. E assim surgem as polêmicas.
Ele não acredita que as big techs passarão a remover todos os conteúdos de forma proativa a partir das novas regras. De acordo com o advogado, é mais provável que se discuta mais tarde no Judiciário por que as plataformas não removeram determinadas publicações.
Para Maciel, uma lei “mal feita” e com várias interpretações possíveis (como é o caso do ECA Digital, na sua percepção) facilita o descumprimento das suas regras — no caso, por parte das empresas.
O advogado lamenta que o Congresso tenha aproveitado o tema para regular — e mal — as redes sociais. O ECA Digital, segundo ele, é “muito pior” do que outros projetos sobre o tema que já estavam em discussão no Legislativo e foram deixados de lado.
A discussão abordada pelo projeto é mais ampla e “demanda uma técnica mais apurada”, argumenta o advogado. Ainda não há, por exemplo, uma avaliação do impacto dos algoritmos usados pelas redes sociais e de como eles se comportam.
Além disso, o PL, de acordo com Maciel, teria se voltado ao setor privado diante de uma deficiência do Estado em cumprir o que já é previsto no Estatuto da Criança e Adolescente (ECA). Ele diz que investir na fiscalização e montar uma força-tarefa das autoridades para punir a “adultização” de crianças nas redes sociais com base na legislação já existente valeria mais a pena e já resolveria boa parte do problema identificado pelo Congresso.
Para além da remoção
Pelo texto, as regras de remoção não se aplicam a conteúdos que passem por controle editorial. Mas o advogado ressalta que a doutrina jurídica há muito tempo reconhece que as redes sociais exercem um papel editorial ao direcionarem determinados tipos de conteúdo a partir de seus algoritmos.
Outro problema do projeto, segundo Maciel, é a obrigatoriedade de identificação dos usuários crianças. Não está claro como isso acontecerá, visto que as plataformas muitas vezes sequer conseguem identificar os usuários adultos.
Apesar das críticas, ele admite que o ECA Digital tem boas previsões, como a proibição de uso de técnicas de perfilamento (ou seja, coleta e tratamento de dados pessoais voltados a classificar os usuários em grupos ou perfis de comportamento e preferências) para direcionar publicidade comercial a crianças e adolescentes.
O advogado também elogia as regras de transparência sobre conteúdos moderados e as garantias para que os usuários alvos de denúncias possam ter informações sobre elas e contestá-las.
Para ele, esses pontos representam avanços e deveriam valer para todos os casos, não só relacionados a crianças e adolescentes . Por outro lado, não estão exatamente vinculados ao problema que o PL busca combater.
Clique aqui para ler o PL aprovado
Fonte: Conjur