Leia também:
X Moro diz ser perseguido: “Quem quer me indispor com o STF?”

Moraes atribui ao discurso de Bolsonaro tragédias escolares

Ministro do STF participou de reunião sobre violência nas escolas ao lado de Lula

Pleno.News - 18/04/2023 16h50 | atualizado em 18/04/2023 17h42

Lula e Moraes Foto: Joédson Alves/ Agência Brasil

O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu, nesta terça-feira (18), a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real devem prevalecer também no ambiente virtual. A afirmação foi feita durante a reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento à violência nas escolas.

– Precisamos de uma vez por todas determinar que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual – disse.

Para isso, segundo o ministro, bastaria a inclusão de “um artigo na lei, a ser regulamentado pelo Congresso”.

– É simples – acrescentou o ministro.

Na avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é promovida via redes sociais.

– O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o 8 de janeiro. Não há nenhuma diferença. As redes sociais ainda se sentem terra de ninguém, uma terra sem lei. Precisamos regulamentar isso – discursou o ministro da Suprema Corte, atribuindo a culpa pelas tragédias escolares ao discurso do ex-presidente Jair Bolsonaro (PL).

BIG TECHS
Moraes afirmou que, se não houver “uma regulação e uma regulamentação” que tenham por base modelos – que já são, inclusive, do conhecimento das big techs responsáveis pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques continuarão.

– Há alguns anos a deep web divulgava esses tipos de mensagens. A investigação era muito mais difícil, porque era necessário infiltrar pessoas naquele ambiente para chegarmos aos responsáveis. Hoje é na rede social normal que isso acontece. É no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os atentados que ocorreu (sic) nos Estados Unidos – criticou o ministro.

Essas plataformas, segundo Moraes, se dizem “meros depósitos de informação” e alegam que, por isso, não poderiam ser responsabilizadas.

– Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém tem um depósito e aluga esse depósito para alguém que o use para cometer crimes, obviamente não poderá ser responsabilizado. Mas a partir do momento que a pessoa sabe e renova o contrato, ela poderá ser responsabilizada. E se monetiza ou lucra em cima disso, é obrigatório que ela seja responsabilizada – argumentou ao afirmar que as redes sociais lucram em cima de incentivo à violência e de discursos de ódio.

– Isso precisa cessar imediatamente – defendeu.

PROPOSTAS
Segundo Moraes, com poucas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Uma das medidas sugeridas pelo ministro é a de dar maior transparência sobre os algoritmos das redes sociais.

– Por que, ao colocarmos “criança” e “atentado” [em uma pesquisa], em vez de aparecer a notícia do atentado aparece [instruções sobre] como fazer uma bomba para o atentado? Porque uma notícia vai na frente da outra? – questionou.

A segunda sugestão apresentada pelo ministro é a extensão dos métodos de autorregulação que já existem para pornografia infantil, pedofilia e direitos autorais.

– Eu perguntei às big techs se elas recebem muitos vídeos de pornografia infantil e pedofilia. Responderam que recebem “milhares por dia”, e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo com base na inteligência artificial – disse.

Para os outros 7%, em que ficam dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário.

– Tudo em pouquíssimas horas para pornografia infantil; para pedofilia. E para direitos autorais, porque as maiores indenizações das big techs são por direitos autorais. Então, aí, elas se preocupam – acrescentou ao defender a obrigatoriedade de uso de inteligência artificial e de equipe humana para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e contra a democracia”.

*Com informações da Agência Brasil

Leia também1 Moraes vota para tornar réus 100 denunciados por atos no DF
2 "Estamos vivendo uma ditadura do Judiciário", diz vice-prefeito
3 Moraes manda PF marcar oitiva de Bolsonaro sobre atos no DF
4 Com parecer pela inelegibilidade de Bolsonaro, ação vai para o fim
5 STF mantém veto de críticas de policiais e militares a superiores

Siga-nos nas nossas redes!
WhatsApp
Entre e receba as notícias do dia
Entrar no Canal
Telegram Entre e receba as notícias do dia Entrar no Grupo
O autor da mensagem, e não o Pleno.News, é o responsável pelo comentário.