Censura algorítmica: cuando los robots deciden qué podemos decir

Por qué los algoritmos de las redes sociales tienen más poder del que imaginamos

29 de Marzo de 2025
Actualizado el 31 de marzo
Guardar
Censura algorítmica
Foto: FreePik

En las redes sociales no todo lo que se publica llega a todos por igual. Aunque parezca que cada quien ve lo que quiere, en realidad hay un filtro invisible que decide qué aparece, qué desaparece y qué queda escondido en un rincón del internet. Ese filtro son los algoritmos de las plataformas digitales. Y su poder es mucho mayor de lo que solemos pensar. A esto se le llama censura algorítmica, y se ha convertido en una de las formas más nuevas y silenciosas  de controlar lo que decimos, vemos y compartimos en internet.

Cómo funciona la censura algorítmica

No se trata de que alguien en una oficina esté vigilando lo que escribimos. La censura algorítmica ocurre cuando sistemas automatizados, creados por empresas como Meta (Facebook, Instagram), X (antes Twitter), TikTok o YouTube, deciden qué contenidos mostrar y cuáles ocultar, sin que los usuarios lo noten.

Los algoritmos eliminan publicaciones automáticamente, muchas veces sin explicaciones claras
Reducen la visibilidad de ciertos contenidos (a veces sin borrarlos), haciendo que casi nadie los vea
Castigan a los creadores bajando su alcance o bloqueando cuentas
Desmonetizan videos o publicaciones, haciendo que ya no generen ingresos

Todo esto ocurre bajo el argumento de “mantener las reglas de la comunidad” o “proteger a los usuarios”. Pero el problema es cómo y quién define esas reglas, y cómo se aplican.

Quién tiene el poder de decidir

En los medios tradicionales hay editores, periodistas y códigos éticos. En cambio, en las redes sociales, las decisiones editoriales están en manos de máquinas, que no entienden el contexto, el sarcasmo o los matices culturales. Lo que para una persona puede ser una crítica política válida, para el algoritmo puede parecer “contenido peligroso” o “violento”. Y si bien las plataformas suelen decir que sus sistemas son neutrales, lo cierto es que toman decisiones todo el tiempo sobre qué se muestra más y qué menos. En ese sentido, actúan como editores, pero sin asumir la responsabilidad editorial.

Por qué esto nos afecta a todos

Este tipo de censura no es evidente. No se parece a la censura tradicional, donde un gobierno prohíbe un libro o encarcela a un periodista. Aquí no te avisan que estás siendo silenciado. Simplemente, tu mensaje no llega. Además, afecta más a ciertos grupos que a otros. Comunidades marginadas, activistas, artistas o personas que hablan de temas polémicos suelen ser más castigadas por estos sistemas automatizados. Y como los algoritmos se entrenan con datos del pasado, repiten sesgos racistas, machistas o clasistas sin que nadie los corrija.

Qué alternativas tenemos

La solución no es eliminar los algoritmos, sino hacerlos más transparentes, responsables y auditables. Algunas ideas que ya se están discutiendo en distintos países son:

Exigir explicaciones claras cuando se borra una publicación o se bloquea una cuenta; permitir apelar las decisiones automáticas, con intervención humana; revisar públicamente cómo funcionan los algoritmos que moderan contenido; incluir a expertos, usuarios y organizaciones sociales en las decisiones sobre qué se permite y qué no.

Lo que está en juego no es solo lo que vemos en redes sociales, sino el tipo de sociedad digital que queremos construir. Una donde la tecnología potencie la libertad de expresión, y no donde robots silencien voces humanas sin que nadie se entere.

Una conversación que no podemos evitar

La censura algorítmica no es ciencia ficción, ni un problema lejano. Ya está ocurriendo, todos los días, mientras navegamos por nuestras redes. No se trata de paranoia, sino de reconocer que la libertad de expresión en internet no depende solo de lo que decimos, sino también de los sistemas que deciden si se escucha o no. Y si no participamos en esa conversación, otros lo harán por nosotros. O peor: dejarán que lo haga el algoritmo.

Lo + leído