Desinformación automatizada
La irrupción de la inteligencia artificial en los entornos digitales ha transformado radicalmente la forma de producir, distribuir y consumir la información política. Hoy, la voluntad electoral está expuesta a un entorno atravesado por noticias falsas, desinformación automatizada, contenidos segmentados algorítmicamente y deepfakes cada vez más difíciles de detectar.
En el caso mexicano, las autoridades electorales se encuentran frente al reto de proteger la equidad en la contienda sin vaciar de contenido la libertad de expresión. Desde la perspectiva de la democracia deliberativa propuesta por Jürgen Habermas, este trabajo analiza cómo la inteligencia artificial puede afectar la formación de la voluntad política y qué respuestas normativas, institucionales y culturales podrían articularse para evitar que la manipulación informativa termine sustituyendo la auténtica decisión del electorado.
Para Jürgen Habermas, la democracia deliberativa no es simplemente un método para votar y contar cabezas, sino un sistema de legitimación política basado en la calidad del debate público. En su obra clave, Facticidad y validez, el autor propone que la validez de una ley o decisión política depende de que todos los afectados puedan arribar a ella tras un proceso de deliberación racional (Habermas, 1998). Esto implica que la legitimidad democrática no descansa en la mera suma de voluntades individuales, sino en el procedimiento mismo de su formación.
En consecuencia, este modelo exige que la voluntad política se construya a través de canales comunicativos abiertos e inclusivos, diseñados para que prevalezca la “fuerza del mejor argumento”. Para Habermas, solo cuando se garantizan estas condiciones mínimas de simetría informativa y libertad discursiva, es posible consolidar una opinión pública crítica, pero además verdaderamente capacitada para orientar de manera legítima las decisiones colectivas de la sociedad.
De esa manera, las fake news -noticias falsas- pueden generar una distorsión informativa, y en algunos casos pueden ser una amenaza directa a la legitimidad democrática. Su difusión al ser masiva a través de redes y plataformas digitales modifica la percepción del electorado, lo que ocasiona un desplazamiento de la deliberación racional y favorece afiliaciones políticas basadas en sesgos, prejuicios o narrativas virales antes que en la confrontación argumentativa. De este modo, un ideal democrático como el de Habermas en el que la democracia deliberativa se basa en la formación racional de la opinión pública a través de procesos comunicativos (Cancino Gómez, s.f.), se ve debilitado ante un ecosistema digital en el que la verdad compite desde la desventaja.
La relevancia de este tema se hace evidente al intentar sostener un ideal democrático: si la formación racional está sesgada de origen, el proceso deliberativo también lo está y caemos en un ciclo en el que el daño se resiente en un electorado desinformado. Lo que antes podía resolverse desmintiendo una noticia falsa en un espacio público relativamente unificado, ahora se vuelve una tarea mucho más difícil dentro de un entorno digital. La inteligencia artificial amplifica el problema de fondo, convirtiendo las noticias falsas en instrumentos más sofisticados, de fácil acceso y difíciles de rastrear, elevando consigo su capacidad de manipulación y erosionando con ello el ideal deliberativo expuesto por Habermas.
Bajo esta lógica las Deep Fake -imágenes y voces sintéticas de apariencia real (Cuevas Ríos, 2025)- representan la forma más sofisticada de desinformación automatizada, ya que, dada su naturaleza, tienen la capacidad de atribuir a una persona palabras, acciones u omisiones que nunca estuvieron ahí. Esto representa ya no solo únicamente noticias sesgadas o interpretaciones maliciosas, sino que, nos coloca en un contexto tal donde la “trampa”, resulta casi imposible de verificar para el ser humano.
Esta “inverificabilidad” es letal para la democracia deliberativa: destruye por completo la posibilidad de un debate donde prevalezca la fuerza del mejor argumento, llevando la discusión hacia lo irracional y anulando la posibilidad de consenso. Esto ya que se pierde la posibilidad de distinguir con contundencia los objetos de debate, y para el caso de un electorado menos experto generar una verdad, como ya se refirió, absoluta de un hecho en particular.
Esta amenaza trae consigo la interrogante de cómo el Estado Mexicano ha respondido a este tema. Al analizar el marco jurídico actual nos damos cuenta de que se carece totalmente de un marco regulatorio para este tema, puesto que aun cuando en ciertos casos la ley contemple una veda electoral, lo cierto es que, resulta insuficiente ante la inteligencia artificial y sus mecanismos.
En ese contexto, aunque existen instituciones encargadas de preservar la equidad en la contienda -como el Instituto Nacional Electoral y sus equivalentes locales- que incluso han desarrollado herramientas para incidir y regular los entornos digitales, su alcance continúa siendo limitado: en la práctica se orientan a controlar lo que se publica durante la veda electoral, pero no resuelven el problema de los contenidos difundidos previamente que, por la dinámica de las redes sociales, siguen circulando y consumiéndose en los días medulares de decisión.
Este abismo regulatorio evidencia como el Estado Mexicano, aun no cuenta con la madurez legislativa plena que vaya acorde con los desafíos que plantea la utilización de herramientas como la inteligencia artificial (IA) y desinformación automatizada.
Para dar un contexto que permita visualizar de manera efectiva el rezago del derecho mexicano, hay que resaltar que por ejemplo en la Unión Europea se han implementado mecanismos como el Reglamento de Inteligencia Artificial, aprobado el 13 de junio de 2024. A diferencia de México y sus vacíos legales, en este se establecen clasificaciones para este tipo de contenidos en función del riesgo que representa. Así los videos diseñados para influir en el comportamiento de una persona o que intente aprovechar alguna vulnerabilidad de determinadas agrupaciones -como puede ser el electorado- se consideran tienen un alto riesgo, por lo que son sometidas a estándares superiores en cuanto a su transparencia, trazabilidad y supervisión.
Esta categorización no es menor; pues implica que cualquier herramienta algorítmica que pueda representar un riesgo este sujeta desde su origen a un estándar de transparencia y rigidez sin precedentes. Así, el reglamento ataca directamente el problema de la "inverificabilidad" de los deep fakes. En su artículo 50, impone obligaciones de transparencia específicas, exigiendo que los proveedores de sistemas de IA que generen contenidos sintéticos de audio, imagen o video marquen dichas creaciones en un formato legible por máquina y detectable por el usuario, garantizando que el ciudadano sepa que está interactuando con una realidad artificialmente manipulada.
Así al contrastar la normatividad de ambos, deja ver que el Estado Mexicano ha sido omiso en desarrollar normativas que acote las tecnologías que favorecen a unos cuantos y perjudican a todos. La experiencia europea demuestra que sí es posible fijar límites democráticos a los algoritmos sin convertir internet en un espacio censurado; ése es el equilibrio al que México debería aspirar con urgencia si realmente pretende resguardar la integridad de sus procesos electorales.
En esta parte resulta inevitable preguntarse el cómo Habermas tomaría este escenario marcado por la inteligencia artificial y la desinformación automatizada, tomando en cuenta que en su obra historia y crítica de la opinión pública (Habermas, 1981) criticaba que la opinión pública se convirtiera en un objeto de manipulación de masas y sostenía que la esfera pública contemporánea se había desgranado al grado de dejar de promover una deliberación racional. Si en ese contexto “analógico” Habermas advertía estos riesgos, cabe preguntarse hasta qué punto consideraría hoy que fenómenos como las deep fakes y desinformación segmentada agravan aún más esa crisis de la esfera pública, y qué tipo de políticas serían necesarias para recuperar, al menos parcialmente, las condiciones de posibilidad de una auténtica democracia deliberativa.
Esta óptica no busca de ninguna manera inferir que deben prohibirse el uso de herramientas de inteligencia artificial o ecosistemas digitales, puesto que ello sería censura. Por el contrario, experiencias recientes, como la elección de personas juzgadoras en 2024, demostraron que es viable realizar campañas electorales en un entorno digital, reduciendo costos, y reduciendo el impacto ambiental producto del desperdicio de las campañas físicas, este antecedente nos permite plantear un modelo de evolución de comunicación política.
Mas bien, las preguntas a introducir son ¿Cómo el poder legislativo mexicano puede y debe regular estos entornos digitales? ¿Cómo podemos transitar incluso en las campañas de Partidos Políticos a que únicamente se hagan por medios electrónicos, y de aquellos tradicionales que no generen basura o costos excesivos como radio y televisión? ¿Cuál es la ruta crítica que el Poder Legislativo debe trazar para regular estos entornos digitales de manera eficaz y constitucional? ¿Cuál es el reto más importante en esta regulación de herramientas de inteligencia artificial?
Considero que el reto más importante en la regulación de los ecosistemas digitales en convivencia con la inteligencia artificial y sus herramientas consiste en diseñar e implementar mecanismos de control tan eficaces como los del sistema tradicional, sin que ello suponga vulnerar la libertad de expresión ni vaciar de contenido el debate político.
Es preciso señalar que el reto no solo recae en los poderes legislativos, sino que, como órganos jurisdiccionales, tenemos la obligación de establecer un rol activo, en el que si bien, la aplicación normativa es sumamente importante, también lo es, el ejercer una función en la que el propio órgano se desempeñe como una contención de este fenómeno. Así en un contexto donde la norma llega tarde y la tecnología corre más rápido que el Congreso, los tribunales se convierten en la primera línea de contención: somos quienes, a través de la interpretación del marco vigente, la construcción de criterios y la fijación de estándares probatorios, podemos empezar a dar respuestas concretas frente a la desinformación automatizada y al uso electoral de la inteligencia artificial.
No obsta lo anterior, que la labor jurisdiccional enfrenta obstáculos al igual que la legislativa, la velocidad con la que se propaga la información en el ecosistema digital es brutal, y aun cuando se intente frenar un proceso de desinformación digital su eliminación total es casi imposible de lograr. Además, dentro del derecho electoral, la certeza e inmediatez son principios rectores para el proceso electoral, dado que, en caso de llegar tarde con un sentencia u orden, se vería mermada la contundencia de las decisiones del Tribunal, al haberse extinguido por el mero transcurro del tiempo el derecho a tutelar.
Si Habermas abogaba por una esfera pública permeada de libertad, hoy debemos reconocer que el contenido selectivo es una forma de coacción sutil. El Estado, por tanto, no solo debe regular el contenido (qué se dice), sino exigir transparencia sobre el continente (cómo se distribuye).
Frente a esta disyuntiva, reducir el debate a si la inteligencia artificial es intrínsecamente buena o mala resultaría en un reduccionismo estéril. Visto desde la perspectiva de Habermas podemos inferir que la respuesta sería pendular. Una inteligencia artificial bien encauzada podría depurar el debate público, detectando falacias y verificando datos en tiempo real, acercándonos a ese ideal de deliberación racional. Sin embargo, en su estado actual de desregulación, la balanza se inclina hacia la manipulación. La tecnología no ha eliminado a la democracia deliberativa, pero sí la ha alterado drásticamente; por ello, estigmatizar la innovación es tan peligroso como aceptarla acríticamente.
Esta exploración nos deja una conclusión donde podemos dejar a estas tecnologías, en esencia, en un punto amoral, es decir, como instrumentos o herramientas cuya carga ética depende enteramente de la finalidad con la que se utilice. Esto gracias al potencial dual que poseen, ya que estas herramientas pueden ser usadas tanto para mejorar el acceso a la información publica en la vida democrática, donde el electorado pueda encontrar sentencias en lenguaje ciudadano, más fáciles de buscar al establecerlas por temáticas de interés, o también, como lo vimos, puedan ocuparse como un arma para la desinformación masiva.
Finalmente conviene resaltar que el Estado no es quien tiene la responsabilidad única de este fenómeno, hay que reconocer que ninguna regulación por excelente que sea, ni ningún órgano jurisdiccional por activo que llegue a mostrarse, puede sustituir la defensa mas efectiva contra la desinformación, por lo que el criterio de una ciudadanía bien informada siempre será la clave para erradicar este fenómeno.
En una era en la que la inteligencia artificial ya forma parte de nuestras vidas, debemos incluirla como parte de nuestra formación cívica, al establecer políticas donde se desarrollen competencias cognitivas que permitan al electorado distinguir, cuestionar y verificar la información que consume. Este paso hacia la alfabetización digital nos permite que las herramientas de inteligencia artificial puedan acompañar al electorado a tomar una mejor decisión desde la información y no desde su ausencia, lo que nos permitiría tenerles como instrumentos capaces de sumar al debate deliberativo.
