Já há maioria no sentido de que as plataformas devem responder pelas postagens de terceiros, mas os ministros ainda trabalham no detalhamento da tese, ou seja, do resumo que vai orientar a aplicação da decisão.
Votaram para responsabilizar os provedores de internet os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar e o presidente Luís Roberto Barroso. O ministro André Mendonça divergiu. Veja abaixo:
STF forma maioria para responsabilizar plataformas por conteúdos de usuários
Nesta quinta-feira (13), devem ser apresentados os votos dos ministros Edson Fachin e Alexandre de Moraes. Na sequência, o julgamento será suspenso para a organização das propostas.
Os magistrados também trabalham na busca de um consenso, já que os ministros propuseram diferentes soluções para o regime de responsabilização das empresas.
Após esta etapa, ministro Nunes Marques e a ministra Cármen Lúcia vão apresentar seus posicionamentos.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam acionadas por conta de danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja: a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet.
A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte elabora uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça, há 344 processos suspensos, aguardando um desfecho.
Marco Civil da Internet: julgamento no STF pode mudar regras sobre uso da internet no país
Votos dos ministros
Saiba como votaram os demais ministros até o momento:
Dias Toffoli
Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet.
O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.
Luiz Fux
Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado.
O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso
O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso.
Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.
Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
André Mendonça
No voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros.
O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional. Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos.
Entre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
Flávio Dino
Sugeriu que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet.
Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.
Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados.
Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
Cristiano Zanin
Considerou que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional”.
Ele propôs três critérios: no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial.
Já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento). Quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).
Gilmar Mendes
Ao consolidar a maioria favorável à responsabilidade, o ministro propôs diferentes regimes de tratamento, a depender da situação em discussão.
Um deles, chamado de “geral”, prevê a aplicação do artigo 21 do Marco Civil da Internet – ou seja, a retirada de conteúdos pelas plataformas quando notificadas de forma privada.
O regime residual seria o do artigo 19 da mesma lei, com a exigência de ordem judicial para bloqueio de conteúdos para crimes contra a honra e conteúdos jornalísticos.
Haveria também um regime de presunção, em casos de anúncios e impulsionamento remunerado. Nestas situações, o entendimento é de que as empresas têm conhecimento do conteúdo ilícito e não será necessária a notificação prévia para a responsabilização.
E, ainda, um regime especial, em que provedores seriam responsáveis por não bloquearem conteúdos imediatamente, no caso de crimes graves e material com potencial de dano grave à democracia.

