Moraes atribui ao discurso de Bolsonaro tragédias escolares
Ministro do STF participou de reunião sobre violência nas escolas ao lado de Lula
Pleno.News - 18/04/2023 16h50 | atualizado em 18/04/2023 17h42
O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu, nesta terça-feira (18), a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real devem prevalecer também no ambiente virtual. A afirmação foi feita durante a reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento à violência nas escolas.
– Precisamos de uma vez por todas determinar que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual – disse.
Para isso, segundo o ministro, bastaria a inclusão de “um artigo na lei, a ser regulamentado pelo Congresso”.
– É simples – acrescentou o ministro.
Na avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é promovida via redes sociais.
– O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o 8 de janeiro. Não há nenhuma diferença. As redes sociais ainda se sentem terra de ninguém, uma terra sem lei. Precisamos regulamentar isso – discursou o ministro da Suprema Corte, atribuindo a culpa pelas tragédias escolares ao discurso do ex-presidente Jair Bolsonaro (PL).
BIG TECHS
Moraes afirmou que, se não houver “uma regulação e uma regulamentação” que tenham por base modelos – que já são, inclusive, do conhecimento das big techs responsáveis pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques continuarão.
– Há alguns anos a deep web divulgava esses tipos de mensagens. A investigação era muito mais difícil, porque era necessário infiltrar pessoas naquele ambiente para chegarmos aos responsáveis. Hoje é na rede social normal que isso acontece. É no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os atentados que ocorreu (sic) nos Estados Unidos – criticou o ministro.
Essas plataformas, segundo Moraes, se dizem “meros depósitos de informação” e alegam que, por isso, não poderiam ser responsabilizadas.
– Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém tem um depósito e aluga esse depósito para alguém que o use para cometer crimes, obviamente não poderá ser responsabilizado. Mas a partir do momento que a pessoa sabe e renova o contrato, ela poderá ser responsabilizada. E se monetiza ou lucra em cima disso, é obrigatório que ela seja responsabilizada – argumentou ao afirmar que as redes sociais lucram em cima de incentivo à violência e de discursos de ódio.
– Isso precisa cessar imediatamente – defendeu.
PROPOSTAS
Segundo Moraes, com poucas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Uma das medidas sugeridas pelo ministro é a de dar maior transparência sobre os algoritmos das redes sociais.
– Por que, ao colocarmos “criança” e “atentado” [em uma pesquisa], em vez de aparecer a notícia do atentado aparece [instruções sobre] como fazer uma bomba para o atentado? Porque uma notícia vai na frente da outra? – questionou.
A segunda sugestão apresentada pelo ministro é a extensão dos métodos de autorregulação que já existem para pornografia infantil, pedofilia e direitos autorais.
– Eu perguntei às big techs se elas recebem muitos vídeos de pornografia infantil e pedofilia. Responderam que recebem “milhares por dia”, e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo com base na inteligência artificial – disse.
Para os outros 7%, em que ficam dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário.
– Tudo em pouquíssimas horas para pornografia infantil; para pedofilia. E para direitos autorais, porque as maiores indenizações das big techs são por direitos autorais. Então, aí, elas se preocupam – acrescentou ao defender a obrigatoriedade de uso de inteligência artificial e de equipe humana para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e contra a democracia”.
*Com informações da Agência Brasil
Leia também1 Moraes vota para tornar réus 100 denunciados por atos no DF
2 "Estamos vivendo uma ditadura do Judiciário", diz vice-prefeito
3 Moraes manda PF marcar oitiva de Bolsonaro sobre atos no DF
4 Com parecer pela inelegibilidade de Bolsonaro, ação vai para o fim
5 STF mantém veto de críticas de policiais e militares a superiores