As plataformas online devem começar a avaliar se os seus serviços expõem os utilizadores a material ilegal até 16 de março de 2025 ou enfrentarão punições financeiras quando a Lei de Segurança Online (OSA) começar a entrar em vigor.
Ofcom, o regulador que aplica a lei de segurança na Internet do Reino Unido, publicou seus códigos de prática finais sobre como as empresas devem lidar com conteúdo online ilegal na segunda-feira.
As plataformas têm três meses para realizar avaliações de risco identificando potenciais danos nos seus serviços ou poderão ser multadas até 10% do seu volume de negócios global.
A chefe do Ofcom, Dame Melanie Dawes, disse à BBC News que esta era a “última chance” para a indústria fazer mudanças.
“Se eles não começarem a mudar seriamente a forma como operam os seus serviços, então penso que essas exigências por coisas como proibições para crianças nas redes sociais vão ficar cada vez mais vigorosos”, disse ela.
“Estou pedindo à indústria agora que avance e, se não o fizer, receberão notícias nossas com ações de fiscalização a partir de março”.
De acordo com os códigos do Ofcom, as plataformas terão de identificar se, onde e como o conteúdo ilegal pode aparecer nos seus serviços e formas de impedir que chegue aos utilizadores.
De acordo com a OSA, isso inclui conteúdo relacionado a material de abuso sexual infantil (CSAM), comportamento controlador ou coercitivo, violência sexual extrema, promoção ou facilitação de suicídio e automutilação.
Mas os críticos dizem que a lei não aborda uma ampla gama de danos às crianças.
A Fundação Molly Rose – criada em memória da adolescente Molly Russell, que suicidou-se em 2017 depois de ser exposta a imagens de automutilação nas redes sociais – disse que a OSA tem “profundos problemas estruturais”.
Andy Burrows, seu executivo-chefe, disse que a organização estava “surpreso e desapontado” pela falta de medidas específicas e direcionadas para plataformas sobre como lidar com material de suicídio e automutilação na orientação do Ofcom.
“Uma regulamentação robusta continua a ser a melhor forma de combater o conteúdo ilegal, mas simplesmente não é aceitável que o regulador adote uma abordagem gradual às ameaças imediatas à vida”, disse ele.
E a instituição de caridade infantil NSPCC também expressou as suas preocupações.
“Estamos profundamente preocupados com o facto de alguns dos maiores serviços não serem obrigados a eliminar as formas mais flagrantes de conteúdo ilegal, incluindo material de abuso sexual infantil”, disse a chefe interina Maria Neophytou.
“As propostas de hoje irão, na melhor das hipóteses, travar a inércia para agir e, na pior das hipóteses, criar uma brecha que significa que os serviços podem evitar o combate ao abuso em mensagens privadas sem medo de aplicação”.
A OSA tornou-se lei em Outubro de 2023, após anos de disputas por parte dos políticos sobre os seus detalhes e âmbito, e de campanhas de pessoas preocupadas com o impacto das redes sociais nos jovens.
Ofcom começou a consultar seus códigos de conteúdo ilegal naquele novembroe afirma que agora “reforçou” a sua orientação para empresas de tecnologia em diversas áreas.
Ofcom diz que seus códigos incluem maior clareza em torno dos requisitos para remover conteúdo de abuso de imagem íntima e mais orientações sobre como identificar e remover material relacionado a mulheres sendo coagidas ao trabalho sexual.
Também inclui recursos de segurança infantil, como garantir que as plataformas de mídia social parem de sugerir que as pessoas façam amizade com contas de crianças e alertas sobre os riscos de compartilhamento de informações pessoais.
Certas plataformas também devem usar uma tecnologia chamada correspondência de hash para detectar material de abuso sexual infantil (CSAM) – um requisito que agora se aplica a sites menores de hospedagem e armazenamento de arquivos.
A correspondência de hash é onde a mídia recebe uma assinatura digital exclusiva que pode ser verificada em relação a hashes pertencentes a conteúdo conhecido – neste caso, bancos de dados de CSAM conhecidos.
Muitas grandes empresas de tecnologia já implementaram medidas de segurança para usuários adolescentes e controles para dar aos pais mais supervisão de suas atividades nas redes sociais em uma tentativa de enfrentar os perigos para os adolescentes e antecipar as regulamentações.
Por exemplo, no Facebook, Instagram e Snapchat, usuários menores de 18 anos não podem ser descobertos em pesquisas ou mensagens de contas que não seguem.
Em outubro, o Instagram também comecei a bloquear algumas capturas de tela em mensagens diretas para tentar combater as tentativas de sextorção – que os especialistas alertam que estão a aumentar, muitas vezes tendo como alvo homens jovens.
O secretário de tecnologia, Peter Kyle, disse que a publicação de seus códigos pelo Ofcom foi um “passo significativo” em direção ao objetivo do governo de tornar a Internet mais segura para as pessoas no Reino Unido.
“Essas leis marcam uma redefinição fundamental nas expectativas da sociedade em relação às empresas de tecnologia”, disse ele.
“Espero que eles cumpram e estarei observando de perto para garantir que isso aconteça.”
Foram levantadas preocupações ao longo do percurso da OSA sobre as suas regras que se aplicam a um grande número de serviços online variados – com os ativistas também alertando frequentemente sobre as implicações de privacidade dos requisitos de verificação da idade da plataforma.
E os pais de crianças que morreram após exposição a conteúdos ilegais ou prejudiciais já criticou o Ofcom por se mover em “passo de caracol”.
Os códigos de conteúdo ilegal do regulador ainda terão de ser aprovados pelo parlamento antes de poderem entrar plenamente em vigor em 17 de Março.
Mas as plataformas estão a ser informadas agora, com a presunção de que os códigos não terão problemas em passar pelo parlamento, e as empresas devem ter medidas em vigor para impedir que os utilizadores acedam a material ilegal até esta data.