Skip to main content
YouTube, que es propiedad de Google, dice que está implementando "tecnología de aprendizaje automático de vanguardia" diseñada para identificar y eliminar millones de elementos de contenido publicado, incluido el contenido identificado como "violento o gráfico", "odioso y abusivo", "que promueve la violencia y el extremismo violento" y "spam, engaños o estafas".  © 2017 Jaap Arriens / NurPhoto vía Getty Images

Las plataformas de redes sociales están eliminando contenido en línea que consideran terrorista, extremista violento o cargado de odio de una manera que impide su potencial uso para investigar delitos graves, entre ellos los crímenes de guerra, dijo Human Rights Watch en un informe publicado hoy. Si bien es comprensible que estas plataformas borren el contenido que incite o promueva la violencia, deberían asegurarse de que este material se archive para que pueda ser utilizado para hacer que los responsables rindan cuentas.

El informe de 42 páginas “‘Video Unavailable’: Social Media Platforms Remove Evidence of War Crimes” (“‘Video no disponible”: las plataformas de redes sociales eliminan evidencia de crímenes de guerra”) insta a todas las partes interesadas, incluidas las plataformas de redes sociales, a unirse para desarrollar un mecanismo independiente para preservar las pruebas potenciales de delitos graves. Deberían asegurarse de que el contenido esté disponible para respaldar las investigaciones nacionales e internacionales, así como la investigación de organizaciones no gubernamentales, periodistas y académicos. Los grupos defensores de derechos han instado a las empresas de redes sociales desde 2017 a mejorar la transparencia y la rendición de cuentas en torno a la eliminación de contenido.

“Parte del contenido que Facebook, YouTube y otras plataformas están eliminando tiene un valor crucial e insustituible como evidencia de atrocidades cometidas contra los derechos humanos”, dijo Belkis Wille, investigadora principal del departamento de crisis y conflicto de Human Rights Watch. “Cuando los fiscales, investigadores y periodistas dependen cada vez más de fotografías y videos publicados públicamente en las redes sociales, estas plataformas deberían tomar más medidas para garantizar que puedan tener acceso a posibles pruebas de delitos graves”.

El contenido de las redes sociales, en particular las fotografías y los videos, publicados por víctimas, responsables y testigos de abusos, está adquiriendo cada vez un mayor protagonismo en algunos enjuiciamientos por crímenes de guerra y otros delitos graves, incluso en la Corte Penal Internacional (CPI) y en procedimientos nacionales en Europa. Este contenido también ayuda a los medios de comunicación y la sociedad civil a documentar atrocidades y otras vulneraciones, como ataques con armas químicas en Siria, la represión por parte de las fuerzas de seguridad en Sudán y los abusos policiales en Estados Unidos.

Para este informe, Human Rights Watch entrevistó a siete personas que trabajan en organizaciones de la sociedad civil, tres abogados, dos archivistas, un estadístico, dos periodistas, un ex fiscal con experiencia en tribunales internacionales, cinco personas en investigaciones de mandato internacional, tres agentes del orden nacionales, un funcionario de la Unión Europea y un miembro del Parlamento Europeo.

También revisó el contenido de Facebook, Twitter y YouTube que Human Rights Watch ha citado en sus informes para respaldar acusaciones de abuso desde 2007. De un total de 5.396 piezas de contenido referenciadas en 4.739 informes, la gran mayoría de los cuales se publicaron en los últimos cinco años, se habían eliminado 619 (o el 11 por ciento).

En cartas enviadas a Facebook, Twitter y Google en mayo de 2020, Human Rights Watch compartió los enlaces a estos contenidos que habían sido eliminados y preguntó a las empresas si Human Rights Watch podía recuperar el acceso con fines de archivo, una solicitud que no fue concedida.

En los últimos años, las empresas de redes sociales como Facebook, YouTube y Twitter han intensificado sus esfuerzos para borrar de sus plataformas las publicaciones que consideran que violan sus reglas, pautas comunitarias o estándares de acuerdo con sus términos de servicio. Esto incluye contenido que consideran terrorista o extremista violento, discurso del odio, odio organizado, conducta de odio y amenazas violentas.

Las empresas eliminan las publicaciones que los usuarios denuncian y que han sido revisadas por los moderadores de contenido. Pero también utilizan con mayor frecuencia algoritmos para identificar y eliminar publicaciones ofensivas, en algunos casos de manera tan rápida que ningún usuario llega a ver el contenido antes de ser eliminado. Los gobiernos de todo el mundo han alentado esta tendencia, pidiendo a las empresas que eliminen el contenido peligroso lo más rápido posible. No está claro si las empresas de redes sociales almacenan varios tipos de contenido que eliminan o bloquean de sus sitios, ni por cuánto tiempo.

Las empresas tienen derecho a eliminar de forma inmediata el contenido que podría incitar a la violencia, dañar a las personas o poner en peligro la seguridad nacional o el orden público, siempre que las normas que apliquen se ajusten a los principios internacionales de derechos humanos y del debido proceso. Sin embargo, la eliminación permanente de dicho contenido puede hacer que sea inaccesible y obstaculizar por consiguiente importantes iniciativas de rendición de cuentas penal.

Aún no existe ningún mecanismo para preservar y archivar el contenido eliminado de redes sociales que podrían proporcionar pruebas fundamentales de abuso, y mucho menos para garantizar el acceso de quienes investigan delitos internacionales. En la mayoría de los países, los funcionarios encargados de hacer cumplir la ley pueden obligar a las empresas de redes sociales a entregar el contenido mediante el uso de órdenes judiciales, citaciones y órdenes judiciales, pero los investigadores internacionales tienen una capacidad limitada para acceder al contenido porque carecen de poderes y autoridad para velar por el cumplimiento de la ley.

Organizaciones independientes y periodistas han desempeñado un papel vital en la documentación de atrocidades en todo el mundo, a menudo cuando no había órganos judiciales que realizaran investigaciones. En algunos casos, esta documentación ha desencadenado procesos judiciales. Sin embargo, tampoco tienen la capacidad de acceder al contenido eliminado y, al igual que los investigadores oficiales, no serán informados de su eliminación por los sistemas de inteligencia artificial antes de que alguien lo vea.

Un agente de la ley europeo que investiga crímenes de guerra dijo a Human Rights Watch que “la eliminación de contenido se ha convertido en una parte diaria de mi experiencia laboral. Constantemente me enfrento a posibles pruebas cruciales a las que ya no tengo posibilidad de acceder”.

Hacer que las personas rindan cuentas por delitos graves puede ayudar a disuadir futuras violaciones y promover el respeto por el Estado de derecho, dijo Human Rights Watch. Los esfuerzos de la justicia penal también pueden ayudar a restaurar la dignidad de las víctimas al reconocer su sufrimiento y ayudar a crear un registro histórico que proteja contra el revisionismo de quienes niegan que hayan ocurrido atrocidades. El derecho internacional obliga a los países a procesar el genocidio, los crímenes de lesa humanidad y los crímenes de guerra.

Es vital que las empresas de redes sociales y todas las partes interesadas relevantes desarrollen conjuntamente un plan para establecer un mecanismo independiente para asumir el papel de enlace con las plataformas de redes sociales y preservar este contenido. Este archivo debería ser responsable de clasificar y otorgar acceso al contenido con fines de investigación, de acuerdo con las normas de derechos humanos y privacidad de los datos.

Además de estos esfuerzos, Human Rights Watch recomendó que las plataformas de redes sociales deberían ser más transparentes sobre sus procedimientos de eliminación existentes, incluso su mayor uso de algoritmos. Deberían asegurarse de que sus propios sistemas no sean demasiado amplios o sesgados y que brinden oportunidades significativas para apelar la eliminación de contenido.

“Reconocemos que la tarea que enfrentan las empresas de redes sociales no es fácil, incluida la búsqueda de un equilibrio adecuado entre proteger la libertad de expresión y la privacidad, y eliminar el contenido que puede causar daños graves”, aseguró Wille. “Las consultas que se basan en las experiencias de otros archivos históricos podrían conducir a un avance real y ayudar a las plataformas a proteger la libertad de expresión y la seguridad pública, al mismo tiempo que garantizar que los esfuerzos de rendición de cuentas no se vean obstaculizados”.

Your tax deductible gift can help stop human rights violations and save lives around the world.

Región / País

Las más vistas