Instagram busca soluciones para evitar contenido que incite al suicidio

El contenido que incita al suicidio es un problema que afecta a todas las redes sociales desde hace mucho tiempo incluyendo Instagram
Adam Mosseri, jefe de la compañía, admite que hasta ahora no se ha protegido de manera efectiva a los usuarios de autolesiones y contenido suicida, pero ya están trabajando en soluciones.
La muerte de Molly Russell, de 14 años, en 2017, impulsó a la compañía a analizar más a fondo su análisis de contenido. Molly se suicidó, y seguía a muchas cuentas que trataban sobre este tema, autolesión y suicidio.
Ahora necesitan hacer “revisión exhaustiva” del contenido publicado, algo nada sencillo si tenemos en cuenta que la publicación de contenido es prácticamente inmediata. La tecnología debe ser capaz de detectar ese tipo de contenido sin necesidad de tener a un humano viendo todos y cada uno de los vídeos que se publican en las redes.
Resultado de imagen de  evitar contenido que incite al suicidioReconocen que no son capaces de eliminar vídeos y fotos antes de que otras personas las vean, y que dependen de la denuncia de otros usuarios sobre publicaciones ofensivas, pero la compañía está invirtiendo en tecnología para identificar mejor estas imágenes antes de que lleguen a sus seguidores. También están trabajando para hacerlos menos visibles.
Según Mosseri, la compañía ha capacitado a ingenieros y revisores de contenido sobre cómo encontrar estas publicaciones y ha implementado medidas para detener las sugerencias relacionadas con la imagen, el hashtag, la cuenta y el tipo de escritura.
Por otro lado, Instagram está aplicando pantallas de sensibilidad, de forma que los usuarios tendrán que pulsar sobre ella para ver el contenido que hay por detrás, avisando así de que puede herir la sensibilidad de algunos.
No es una tarea fácil, pero cosas más difíciles se han conseguido implantar en los últimos años.

Comentarios

Entradas populares de este blog