La Policía Metropolitana examinó el teléfono de Molly e informó al tribunal que 476 cuentas de Instagram fueron recomendadas algorítmicamente a Molly, 34 de las cuales tenían contenido triste o depresivo.
El 20 de septiembre inició la investigación sobre la muerte de Molly Russell, una niña de 14 años de Harrow, Londres, que se quitó la vida en 2017 después de ver contenido gráfico relacionado con la depresión y las autolesiones en Instagram y Pinterest. Su padre, Ian Russell, el padre de Molly acusó a Instagram de «ayudar a matar» a su hija pocos días antes de cumplir 15 años.
La adolescente había visto fotos y vídeos sobre el suicidio, las drogas, el alcohol, la depresión y las autolesiones mientras estaba en las redes sociales. La investigación examinó si los algoritmos utilizados por las empresas de redes sociales para tratar de mantener a los usuarios enganchados contribuyeron a su muerte.
Elizabeth Lagone, responsable de salud y bienestar de Meta (propietaria de Facebook, Instagram y WhatsApp), aseguró que la compañía no trata a niños como Molly como «conejillos de indias» cuando lanzó un nuevo sistema algorítmico.
Cabe indicar que cuando ocurrió la muerte de la adolescente, Instagram le permitían a los usuarios publicar contenido sobre el suicidio y las autolesiones para «facilitar la unión para apoyar» a otros usuarios, pero no si «alentaba o promovía» el suicidio y las autolesiones.
«Se trata de gritos de ayuda, sea cual sea», dijo Lagone al tribunal. Además indicó que existía el riesgo de que la eliminación de estos contenidos pudiera causar un «daño increíble» al «silenciar» a alguien.
Lee también: Conoce el teclado de Google que mide casi dos metros de largo
Las evidencias en Instagram
En la investigación se mostraron 17 vídeos vistos por Molly. El material era tan angustioso que el forense principal, Andrew Walker, dijo que había considerado la posibilidad de editarlos, y lanzó la «mayor» advertencia antes de que se reprodujeran en el tribunal.
La Policía Metropolitana examinó el teléfono de Molly e informó al tribunal que 476 cuentas de Instagram fueron recomendadas algorítmicamente a Molly, 34 de las cuales tenían contenido triste o depresivo. De las 16.300 publicaciones que hizo en Instagram en los seis meses anteriores a su muerte, 2.100 estaban relacionadas con el suicidio, la depresión o las autolesiones. Le gustaban, los guardaba o los compartía unas 130 veces al día.
La situación con Pinterest
En los últimos seis meses de su vida, Molly también fue activa de Pinterest, con más de 15.000 participaciones en la plataforma. Podía ver contenidos relacionados con la autolesión en la plataforma.
El jefe de operaciones comunitarias de Pinterest, Judson Hoffman, admitió que el sitio «no era seguro» cuando Molly Russell lo utilizaba.
El Dr. Navin Venugopal, psiquiatra infantil, dijo al tribunal que no veía ningún «beneficio positivo» en el material que vio la adolescente antes de morir».
Ian Russell se encuentra realizando una campaña para mejorar la seguridad en Internet. Tras la pérdida de Molly, la familia Russell y sus amigos crearon la Fundación Molly Rose. El objetivo de esta organización benéfica es la prevención del suicidio y está dirigida a los menores de 25 años.
Consigue una visión general del funcionamiento de una empresa y toma decisiones estratégicas con la Maestría en Administración de Negocios – MADEN de Centrum PUCP. Para más información, regístrate aquí: