É inegável o impacto e influência das redes sociais na comunidade contemporânea. Segundo informações da consultoria We Are Social de 2017, cerca de 58% da população brasileira possui contas ativas nas principais redes sociais do planeta, como Facebook, Twitter e Instagram[1]. Isto representa mais de 100 milhões de brasileiros participando das comunidades virtuais, compartilhando informações, opiniões e discutindo temas sensíveis.

Por conta deste incrível alcance, mais poderoso do que o de qualquer outra mídia existente, vídeos e demais formas de publicação se disseminam rapidamente, e muitos possuem maior audiência que a final da Copa do Mundo.  Nas redes sociais, reputações e vidas são destruídas instantaneamente, vítimas de julgamentos sumários ou de interpretações equivocadas, veiculadas com a facilidade de um clique, em qualquer lugar, a qualquer hora, a qualquer tempo.

No bojo deste inevitável fenômeno, surgiram controvérsias relacionadas à responsabilidade dos provedores de aplicações por publicações danosas. Os provedores possuem obrigação de monitorar as publicações nas redes sociais? Estão obrigados a excluir conteúdos ofensivos? Em quais situações podem ser responsabilizados pelos danos advindos do conteúdo produzido pelos usuários das aplicações?

Este artigo tem o propósito de expor, em linhas gerais, o entendimento atual da lei e do Judiciário a respeito da responsabilidade civil dos provedores de aplicações por publicações nas redes sociais, tema cada vez mais comum no nosso cotidiano.

Inicialmente, cabe esclarecer que são provedores de aplicações aqueles que fornecem funcionalidades acessadas por meio de um terminal de internet, como, por exemplo, serviços de e-mail, redes sociais, hospedagem de dados, compartilhamento de vídeos (art. 5º da Lei nº 12.965/2014).

Até pouco tempo atrás, a jurisprudência oscilava sobre a natureza da responsabilidade do provedor de aplicações.

Havia a corrente que adotava a teoria da irresponsabilidade, segundo a qual o provedor não respondia pelo ilícito dos usuários porque figurava como mero intermediário, sem poder de gestão ou controle sobre o conteúdo das publicações. Tratou-se de tese adotada de forma tímida por alguns tribunais brasileiros, rapidamente superada[2].

Vigorou também a teoria da responsabilidade objetiva, que imputava aos provedores a obrigação de realizar o prévio monitoramento das informações e conteúdos que trafegam em suas plataformas, responsabilizando-os pelos danos causados em virtude da falha na prestação desse serviço[3].

Prevaleceu, contudo, a teoria da responsabilidade subjetiva, que atribui responsabilidade solidária ao provedor somente na hipótese em que, ciente do conteúdo ofensivo, deixa de remover a publicação. Trata-se, pois, de responsabilidade civil por omissão. Esta foi a teoria que vicejou na jurisprudência do Superior Tribunal de Justiça – STJ, Corte responsável por firmar a interpretação da lei federal em última instância.

Em que momento, contudo, nasce a obrigação do provedor? Qual fato caracteriza a ciência inequívoca do conteúdo ofensivo? Quais critérios devem ser empregados para classificar a natureza da publicação?

Pacificou-se no STJ a tese de que o provedor respondia solidariamente pelas publicações quando fosse, de qualquer forma, notificado pelo próprio ofendido. Assim, se não retirada a publicação em tempo razoável, o provedor respondia pelos prejuízos gerados à imagem e ao patrimônio da vítima[4]. Tal raciocínio, contudo, causava imensa insegurança jurídica aos provedores, pois, considerando o teor essencialmente subjetivo dos critérios utilizados para classificar o conteúdo da publicação, cabia ao Judiciário, em última análise, definir a ofensa no caso concreto, o que culminava no risco de diminuição do grau de inovação na internet por parte daqueles que atuam neste ambiente.

A questão foi finalmente regulamentada pela Lei do Marco Civil da Internet (Lei nº 12.965/2014), vigente desde 23/06/2014, que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil. Segundo o art. 19 desta Lei[5], o termo inicial da responsabilidade do provedor de aplicação é o momento da notificação judicial que determina a retirada de determinado conteúdo da internet. Descumpridos o prazo e modo fixados pela ordem judicial, nasce a responsabilidade do provedor em virtude dos prejuízos causados pela publicação.

Embora continue atribuindo ao Judiciário o ônus de qualificar a ofensa no caso concreto, sistema justificado pela natureza relativa e subjetiva do ilícito, tal norma conferiu indiscutível segurança aos provedores de aplicações, pois não mais lhes cabe assumir o risco da classificação do conteúdo.

Assim, de acordo com a jurisprudência atual do STJ, o provedor assume a responsabilidade pelo conteúdo ofensivo caso interpelado para excluir a publicação por qualquer meio, inclusive pela própria vítima, até a vigência da Lei do Marco Civil da Internet, a partir de quando responde apenas na hipótese de desobediência de ordem judicial[6].

Há, contudo, uma exceção, qual seja as publicações não autorizadas de conteúdo sexual de natureza privada, que devem ser removidas após a notificação feita pelo próprio ofendido, independentemente de determinação judicial. Esta é a disciplina do art. 21 da Lei do Marco Civil da Internet[7]. Tal notificação deve identificar de forma específica o material apontado como violador da intimidade e comprovar a legitimidade do requerente, que deve ser participante do ato. Não atendida a solicitação de exclusão do conteúdo, o provedor assume a responsabilidade subsidiária pelo ilícito, ou seja, deverá indenizar os danos na hipótese de não ser possível a reparação pelo próprio ofensor.

Portanto, em suma, para os fatos ocorridos após 23/06/2014 (início da vigência da Lei do Marco Civil da Internet), a responsabilidade do provedor de aplicações nasce apenas quando desobedece notificação judicial para exclusão da publicação, salvo se se tratar de  materiais contendo cenas de nudez ou de atos sexuais de caráter privado, hipótese em que responderá pelos danos quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover a indisponibilização desse conteúdo.

Jucélia Corrêa, advogado do Escritório Bornhausen & Zimmer Advogados

 

Referências
[1] Disponível em https://wearesocial.com/special-reports/digital-in-2017-global-overview

[2] Nos Estados Unidos da América, essa é a postura majoritária, pois a legislação confere uma imunidade aos provedores de aplicações pelas condutas de terceiro.

[3] Tese rechaçada pelo STJ, conforme se infere dos seguintes precedentes: REsp 1.403.749/GO, Terceira Turma, julgado em 22/10/2013, DJe 25/03/2014; e REsp 1.308.830/RS, Terceira Turma, DJe 08/05/2012.

[4] Neste sentido: REsp 1.406.448/RJ, Terceira Turma, DJe 21/10/2013

[5] Art. 19.  Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

[6] O seguinte julgado, publicado em 15/09/2017, resume bem a questão: REsp 1642997/RJ, Rel. Ministra Nancy Andrighi, Terceira Turma.

[7] Art. 21. O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.