En medio de la escalada del conflicto entre Israel y Hamas, la plataforma de redes sociales Meta, matriz de Facebook e Instagram, se vio envuelta en controversia por sus decisiones de eliminar contenido relacionado con la guerra. La Junta de Supervisión de Meta, un organismo de revisión cuasi-independiente establecido hace tres años por la propia empresa, ha emitido sus recomendaciones sobre dos casos específicos que generaron debate en torno a la libertad de expresión y la gestión de contenido sensible.
Decisiones controvertidas y su reversión por parte de meta
Según lo último publicado por Associated Press En otoño pasado, Meta tomó la decisión de eliminar dos publicaciones relacionadas con el conflicto Israel-Hamas, alegando que infringen sus reglas contra contenido violento y gráfico. Ambas publicaciones, según la empresa, fueron retiradas para preservar la integridad de la plataforma y proteger a los usuarios de material potencialmente dañino.
Sin embargo, la Junta de Supervisión de Meta ha recomendado que la empresa revierta estas decisiones, indicando que las publicaciones eliminadas informaban al mundo sobre el sufrimiento humano en ambos lados del conflicto. En ambos casos, Meta terminó por restablecer las publicaciones, aunque agregó pantallas de advertencia debido al contenido violento. Esto implica que la empresa no está obligada a seguir la recomendación de la junta.
Desacuerdo con la restricción de recomendaciones y el uso de herramientas automatizadas
La junta expresó su desacuerdo con la decisión de Meta de impedir que las publicaciones en cuestión fueran recomendadas por Facebook e Instagram, incluso en casos donde se determinó que las publicaciones buscaban concienciar sobre la situación. Además, criticó el uso de herramientas automatizadas por parte de Meta para eliminar contenido «potencialmente perjudicial», argumentando que esto aumentaba la probabilidad de eliminar publicaciones «valiosas» que no solo informaban sobre el conflicto, sino que también podían contener evidencia de violaciones de derechos humanos. La junta instó a la empresa a preservar dicho contenido.
Primer fallo expedito de la junta de supervisión de meta
La Junta de Supervisión de Meta, en lo que describen como su primer fallo expedito, emitió estas decisiones en tan solo 12 días, en lugar de los habituales 90. Este rápido pronunciamiento destaca la urgencia que la junta percibió en abordar estas cuestiones delicadas y de gran relevancia, dada la naturaleza actual del conflicto.
En uno de los casos, Instagram eliminó un video que mostraba lo que parece ser el resultado de un ataque en o cerca del Hospital Al-Shifa en la Ciudad de Gaza. El video mostraba a palestinos, incluyendo niños, heridos o muertos. Los sistemas automatizados de Meta eliminaron la publicación, alegando que violaba las reglas contra contenido violento y gráfico. Aunque Meta revirtió eventualmente su decisión, la junta señaló que se colocó una pantalla de advertencia en la publicación y se relegó, lo que significa que no se recomendó a los usuarios y menos personas la vieron. La junta expresó su desacuerdo con la decisión de relegar el video.
Aumento de apelaciones y la presión sobre meta
El segundo caso se refiere a un video publicado en Facebook que muestra a una mujer israelí suplicando a sus secuestradores que no la maten mientras es tomada como rehén durante los ataques de Hamas en Israel el 7 de octubre. Usuarios apelaron la decisión de Meta de eliminar las publicaciones, y los casos fueron a parar a la Junta de Supervisión. La junta informó de un aumento casi triple en el promedio diario de apelaciones marcadas por usuarios relacionadas con la región de Oriente Medio y África del Norte en las semanas siguientes al 7 de octubre.
Meta, en respuesta a la decisión de la junta, declaró: «Tanto la expresión como la seguridad son importantes para nosotros y para las personas que utilizan nuestros servicios. La junta revirtió la decisión original de Meta de retirar este contenido, pero aprobó la decisión posterior de restaurar el contenido con una pantalla de advertencia. Meta había instaurado previamente este contenido, por lo que no se tomarán más acciones al respecto. No habrá más actualizaciones en este caso, ya que la junta no hizo ninguna recomendación como parte de su decisión.»
Breve información sobre el uso Temporal de herramientas automatizadas
Durante una sesión informativa sobre los casos, la junta reveló que Meta confirmó haber reducido temporalmente los umbrales para las herramientas automatizadas que detectan y eliminan contenido potencialmente violatorio. Este dato podría tener implicaciones significativas en la forma en que la plataforma maneja el contenido relacionado con conflictos y eventos sensibles, ya que la reducción de los umbrales podría resultar en la eliminación de más contenido, incluso aquel que podría tener valor informativo o probatorio.
En conclusión, las decisiones de Meta y la intervención de la Junta de Supervisión han generado un debate importante sobre la gestión del contenido relacionado con conflictos y violencia en las redes sociales. La tensión entre la preservación de la libertad de expresión y la protección contra el contenido perjudicial sigue siendo un desafío clave para las plataformas en línea, y la resolución de casos como estos establecerá precedentes importantes para futuras situaciones similares.



