Recursos de segurança do Instagram para adolescentes são falhos

Foto: © Bruno Peres/Agência Brasil

Diversos recursos de segurança que a Meta afirmou ter implementado para proteger jovens usuários do Instagram ao longo dos anos não funcionam bem ou, em alguns casos, não existem, mostrou um estudo de grupos de defesa de segurança infantil corroborado por pesquisadores da Northeastern University.

O estudo, que a Meta contestou por considerá-lo enganoso, surge em meio a uma pressão renovada sobre as empresas de tecnologia para que protejam as crianças e outros usuários vulneráveis em suas plataformas de mídia social.

Dos 47 recursos de segurança testados, os grupos julgaram que apenas oito eram totalmente eficazes. O restante apresentava falhas, “não estava mais disponível ou era substancialmente ineficaz”, diz relatório do estudo.

Os recursos destinados a evitar que jovens usuários encontrassem conteúdo relacionado à automutilação por meio do bloqueio de termos de pesquisa foram facilmente contornados, informaram os pesquisadores. Filtros de mensagens anti-bullying também não foram ativados, mesmo quando solicitados com as mesmas frases de assédio que a Meta havia usado em um comunicado à imprensa para promovê-los. E um recurso criado para redirecionar os adolescentes da compulsão por conteúdo relacionado à automutilação nunca foi acionado, afirmam os pesquisadores. 

O estudo aponta que alguns dos recursos de segurança da conta do adolescente funcionaram conforme anunciado, caso de um “modo silencioso” destinado a desativar temporariamente as notificações à noite e um recurso que exige que os pais aprovem as alterações nas configurações da conta do filho.

Intitulado Teen Accounts, Broken Promises (Contas de adolescentes, promessas não cumpridas), o estudo compilou e analisou as atualizações dos recursos de segurança e bem-estar dos jovens anunciadas publicamente pelo Instagram ao longo de mais de uma década.

Dois dos grupos por trás do relatório – Molly Rose Foundation, no Reino Unido, e Parents for Safe Online Spaces (Pais por Locais Seguros Online), nos Estados Unidos – foram fundados por pais que alegam que seus filhos morreram como resultado de bullying e conteúdo de automutilação nas plataformas da empresa de mídia social.

As descobertas do estudo questionam os esforços da Meta “para proteger os adolescentes das piores partes da plataforma”, disse Laura Edelson, professora da Northeastern University que supervisionou uma análise da pesquisa.

“Usando cenários de teste realistas, podemos ver que muitas das ferramentas de segurança do Instagram simplesmente não estão funcionando”, disse.

A Meta – que anunciou nesta quinta-feira (25) uma expansão das contas de adolescentes para usuários do Facebook internacionalmente – classificou as descobertas como errôneas e enganosas.

“Esse relatório repetidamente deturpa nossos esforços para capacitar os pais e proteger os adolescentes, distorcendo a forma como nossas ferramentas de segurança funcionam e como milhões de pais e adolescentes as estão usando hoje”, disse o porta-voz da Meta, Andy Stone.

Ele contestou algumas das avaliações do estudo, chamando-as de “perigosamente enganosas”, e disse que a abordagem da empresa em relação aos recursos de contas de adolescentes e controles parentais mudou com o tempo.

“Os adolescentes que foram colocados nessas proteções viram menos conteúdo sensível, tiveram menos contato indesejado e passaram menos tempo no Instagram à noite”, disse Stone. 

“Continuaremos aprimorando nossas ferramentas e agradecemos o feedback construtivo, mas este relatório não é isso”, acrescentou.

Os grupos de defesa e os pesquisadores da universidade receberam dicas de Arturo Bejar, um ex-executivo de segurança da Meta, indicando que os recursos do Instagram eram falhos. Bejar trabalhou na Meta até 2015, e retornou à empresa no fim de 2019 como consultor do Instagram até 2021.

Durante sua segunda passagem pela empresa, disse ele à Reuters, a Meta não respondeu aos dados que indicavam sérias preocupações com a segurança de adolescentes no Instagram.

“Eu experimentei em primeira mão como boas ideias de segurança foram reduzidas a recursos ineficazes pela gerência”, disse Bejar, acrescentando que “ao ver as afirmações da Meta sobre suas ferramentas de segurança, percebi que era fundamental fazer uma revisão rigorosa”.

O porta-voz da Meta, Stone, disse que a empresa respondeu às preocupações levantadas por Bejar enquanto trabalhava na Meta com ações para tornar seus produtos mais seguros.

A Reuters confirmou algumas das descobertas do relatório, executando seus próprios testes e analisando documentos internos da Meta.

Em um teste, a Reuters usou variações simples de termos de pesquisa proibidos no Instagram para encontrar conteúdo que deveria estar fora dos limites para adolescentes.

A Meta havia bloqueado o termo de pesquisa “coxas magras”, uma hashtag usada há muito tempo por contas que promovem conteúdo sobre distúrbios alimentares. Mas quando uma conta de teste para adolescentes digitou as palavras sem um espaço entre elas, a busca trouxe à tona conteúdo relacionado à anorexia.

Documentos da Meta vistos pela agência de notícias mostram que, enquanto a empresa promovia os recursos de segurança para adolescentes no Instagram no ano passado, ela estava ciente de falhas significativas em alguns deles.

No ano passado, por exemplo, funcionários da área de segurança alertaram a empresa que ela não havia conseguido manter seus sistemas de detecção automática de conteúdo relacionado a distúrbios alimentares e automutilação, mostraram documentos vistos pela Reuters. 

Como resultado, a Meta não conseguiu evitar de forma confiável a promoção de conteúdo que enaltece distúrbios alimentares e suicídio para adolescentes, como havia prometido, ou desviar usuários que pareciam estar consumindo grandes quantidades desse tipo de material, de acordo com os documentos.

A equipe de segurança também reconheceu que um sistema para bloquear termos de pesquisa usados por possíveis predadores de crianças não estava sendo atualizado em tempo hábil, apontaram documentos internos e pessoas familiarizadas com o desenvolvimento de produtos da Meta.

Stone disse que as preocupações internas levantadas sobre as restrições deficientes de termos de pesquisa foram resolvidas desde então, combinando um sistema recém-automatizado com informações humanas.

No mês passado, senadores norte-americanos iniciaram uma investigação sobre a Meta após a Reuters divulgar um documento de política interna que permitia que os chatbots da empresa “envolvessem uma criança em conversas de cunho romântico ou sensual”.

Neste mês, ex-funcionários da Meta disseram em uma audiência do subcomitê do Judiciário do Senado que a empresa havia suprimido pesquisas que mostravam que os usuários pré-adolescentes de seus produtos de realidade virtual estavam sendo expostos a predadores infantis. Stone chamou as alegações dos ex-funcionários de “absurdas”.

A Meta empreende um novo esforço para demonstrar suas medidas de proteção às crianças. Nesta quinta-feira, anunciou uma expansão de suas contas de adolescentes para usuários do Facebook fora dos Estados Unidos e disse que buscaria novas parcerias locais com escolas de ensino fundamental e médio.

“Queremos que os pais se sintam bem com seus filhos adolescentes usando as mídias sociais”, disse Adam Mosseri, diretor do Instagram.

Fonte: Agência Brasil

#INTERNACIONAL

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima