Mientras Facebook elimina repetidamente una entrevista con el expresidente ecuatoriano calificándola como spam, una revisión por la inteligencia artificial de Meta concluye que se trata de un análisis político legítimo. Expertos advierten sobre fallos en los sistemas automatizados que podrían violar derechos fundamentales.
La polémica en torno a la moderación de contenidos en Facebook se intensifica con un nuevo caso en Ecuador, donde un usuario ha denunciado la eliminación sistemática de una noticia sobre el expresidente Rafael Correa. A pesar de que la plataforma, propiedad de Meta, la ha calificado como "spam" en dos ocasiones, una revisión realizada por la propia inteligencia artificial de la compañía —posiblemente a través de su modelo de IA generativa o en un proceso de apelación— ha determinado que el artículo no cumple con las características de spam. Esta contradicción interna pone de relieve las deficiencias en los sistemas de moderación automatizada de Meta, que según críticos, priorizan la velocidad sobre la precisión y podrían estar infringiendo la libertad de expresión protegida por la Constitución ecuatoriana y tratados internacionales.
El usuario, que compartió el enlace a una entrevista publicada en etsafm.com donde Correa critica duramente al gobierno de Guillermo Lasso y reflexiona sobre la izquierda latinoamericana, recibió notificaciones de remoción por supuestamente violar las normas comunitarias contra el spam. Sin embargo, al someter el contenido a una evaluación —detalles que ETSA ha verificado a través de la declaración proporcionada—, la IA de Meta respondió: "El artículo parece ser una entrevista y análisis político, no SPAM. Describe las declaraciones y opiniones del expresidente Rafael Correa sobre la situación actual de Ecuador, su gobierno anterior y sus perspectivas sobre la política y la izquierda en América Latina. No contiene elementos característicos de SPAM como ofertas engañosas, enlaces sospechosos o intentos de captar información personal".
Esta respuesta choca frontalmente con las acciones de la plataforma. Según las Normas Comunitarias de Meta sobre spam, disponibles en su Centro de Transparencia, el spam se define como contenido diseñado para engañar, abrumar o aumentar artificialmente el engagement, como publicaciones de alta frecuencia, enlaces engañosos o ventas de interacciones. Nada en la entrevista citada —un análisis periodístico sobre temas políticos— encaja en estas descripciones. No obstante, la remoción selectiva de este tipo de contenidos, mientras se permite la proliferación de publicaciones agresivas o desinformativas, sugiere un sesgo en la aplicación de las políticas.
Expertos en derechos digitales señalan que esta inconsistencia es sintomática de un sistema de moderación cada vez más dependiente de la IA, que Meta ha impulsado en los últimos años para manejar el volumen masivo de contenidos. En enero de 2025, la compañía anunció una política de "más discurso y menos errores", enfocándose en permitir mayor expresión libre y reducir restricciones en temas de debate público. Sin embargo, informes posteriores revelan que los sistemas automatizados han generado errores generalizados, como la eliminación indebida de cuentas y contenidos legítimos. Un estudio de la Universidad Northeastern, publicado en mayo de 2025, destaca un "desajuste" entre la rapidez de los algoritmos de recomendación y la moderación, lo que permite que contenidos violatorios se propaguen mientras otros inocuos son censurados.
En el contexto de Ecuador, donde la polarización política es aguda, esta práctica podría violar el artículo 16 de la Constitución, que garantiza una comunicación libre e inclusiva, y el artículo 18, que protege el derecho a información veraz sin censuras previas. Además, el Pacto Internacional de Derechos Civiles y Políticos, ratificado por Ecuador, prohíbe restricciones arbitrarias a la libertad de expresión. "Cuando la IA de Meta contradice sus propias decisiones de moderación, estamos ante un fallo sistémico que erosiona la confianza en las plataformas", afirma María Paz Canales, de Derechos Digitales. Críticos como la Electronic Frontier Foundation (EFF) han advertido que las revisiones en las políticas de Meta podrían perjudicar a usuarios vulnerables al relajar la moderación de desinformación, mientras se endurece contra voces disidentes.
El proceso de apelaciones de Meta, que permite a los usuarios impugnar decisiones, involucra tanto IA como revisores humanos, pero informes indican que la mayoría de las apelaciones iniciales son manejadas por algoritmos, lo que explica posibles inconsistencias. En febrero de 2024, Meta recibió millones de apelaciones por remociones bajo reglas de discurso de odio, y ocho de cada diez fueron resueltas automáticamente. En casos como el de Correa, una figura controvertida acusada de lawfare por sus simpatizantes, la censura selectiva evoca patrones observados en otros contextos, como la supresión de contenidos sobre Palestina documentada por Human Rights Watch.
Meta no ha respondido sobre este caso específico. Mientras tanto, el usuario afectado denuncia un "nuevo modelo de apartheid digital", donde contenidos sobre líderes progresistas como Correa son marginados, contrastando con la laxitud hacia discursos extremistas. Con Meta anunciando una mayor dependencia en IA para la moderación —incluyendo el reemplazo de humanos en evaluaciones de riesgo—, el riesgo de errores sesgados aumenta. Organizaciones como el Oversight Board, que supervisa las decisiones de Meta, podrían intervenir, pero hasta ahora, la opacidad persiste.
Este incidente subraya la urgencia de mayor transparencia y accountability en las plataformas digitales, especialmente en regiones como América Latina, donde la IA a menudo malinterpreta contextos locales y marginaliza voces críticas. Si no se corrige, podría profundizar la brecha en el acceso a información plural, amenazando los pilares de la democracia.
0 Comentarios