Sem dor nos olhos: Instragram proíbe publicação de imagens de autoflagelação - Cn7 - Sem medo da notícia
Hidrogenio verde e o combustivel do futuro

Sem dor nos olhos: Instragram proíbe publicação de imagens de autoflagelação

EBC/Agência Brasil

10/02/2019 8:07

O Instagram anunciou que passará a ter mecanismos para restringir imagens que estimulem a autoflagelação e o suicídio. Imagens de pessoas se machucando, como atos de cortar partes de corpo, serão proibidas na rede social. As medidas foram uma reação à morte de uma adolescente de 14 anos no Reino Unido, no mês passado. Após o suicídio, o caso gerou questionamentos sobre o papel do Instagram, pela presença no perfil da moça de conteúdos mostrando formas de autoflagelação e relacionados ao suicídio. O pai da jovem, em entrevista a veículos de mídia, responsabilizou diretamente a plataforma. Além disso, outros conteúdos relacionados a essas práticas, inclusive textos, não serão disponibilizadas nas buscas. Essas mensagens, contudo, não serão removidas das redes sociais. O Instagram justificou que a publicação de mensagens nesse sentido pode ter um papel de expressão em pessoas que estejam convivendo com sofrimento e sentimentos como esses. Antes, a plataforma já proibia conteúdos que promovessem essas práticas. Mas permitia mensagens relacionadas à admissão delas (como uma pessoa relatando um desejo ou uma tentativa), como forma de alertar amigos e familiares para reagir e prestar apoio. Orientações de especialistas Segundo o Facebook, empresa controladora do Instagram, as mudanças foram formuladas a partir do diálogo com especialistas no tema, de diferentes países. Eles teriam indicado o efeito negativo da circulação de imagens de práticas de autoflagelação, como cortes. Elas “podem ter um potencial de promover não intencionalmente a autoflagelação, mesmo quando são compartilhadas no contexto da admissão da prática ou no caminho para uma recuperação”, explicou o diretor global de Segurança do Facebook, Antigone Davis. Ele acrescentou que a equipe das plataformas ainda avalia como tratar imagens de cicatrizes. Segundo o diretor, os especialistas consultados indicaram ainda polêmicas nos estudos acadêmicos sobre os efeitos desse tipo de imagem em pessoas suscetíveis a cometer algum ato relacionado à prática. As duas redes sociais, completou Davis, continuarão fornecendo recursos para dar apoio em situações de sofrimento, como a disponibilização, de forma acessível., de “linhas de ajuda” a pessoas nas plataformas. Transparência Na avaliação da pesquisadora de proteção de dados Marina Pita, do Instituto Alana, decisões como essa mostram a importância da transparência por parte das plataformas no que se refere às remoções de conteúdos e aos critérios usados nessas medidas. A cobrança por critérios mais claros das redes sociais vêm sendo uma demanda não somente no Brasil, como em outros países. Além disso, acrescentou Pita, há a necessidade de discutir a lógica de funcionamento dos algoritmos de curadoria dos conteúdos mostrados aos usuários. Isso porque ao identificar uma vulnerabilidade ou condição psicológica de uma pessoa, especialmente adolescentes, o sistema passa a privilegiar conteúdos relacionados. “A plataforma, a partir da visualização de um conteúdo, identifica que aquele adolescente tem interesse naquele tipo de imagem e vai reforçar isso”, alerta a pesquisadora. Isso ocorre, completou, em casos em que muitas vezes os usuários das redes sociais não têm consciência dessa forma de funcionamento. Por isso, é importante discutir de forma transparente não somente medidas como a anunciada, mas a própria dinâmica de segmentação dos usuários e de veiculação de publicidade a partir dela, que pode ter efeitos prejudiciais sobre os internautas.

LINKS PATROCINADOS