cupure logo
queconunadellasespañaparalosporsus

La inteligencia artificial ya se usa para coaccionar gobiernos. ¿Estamos preparados?

La inteligencia artificial ya se usa para coaccionar gobiernos. ¿Estamos preparados?
La inteligencia artificial de X participó en una estrategia de presión a un gobierno extranjero en beneficio de los intereses comerciales de Elon Musk, el primer ejemplo de un nuevo poder blando digitalDiplomacia artificial: así logró Elon Musk torcer el brazo de Sudáfrica con la encerrona del “genocidio blanco” La inteligencia artificial generativa ha explotado en la era de la desinformación. Cuando las democracias aún debatían cuál es la mejor estrategia para frenar la intoxicación del debate público, surgió una herramienta capaz de automatizar la manipulación. Muchos predijeron que las redes quedarían inundadas de propaganda sintética impulsada por IA. Así ha sido. Pero el primer gran caso documentado no ha sido una campaña viral ni un video falso: ha sido una IA diseñada para hablar sobre un supuesto genocidio para torcer la voluntad de un gobierno. Ha sucedido en Sudáfrica. El país natal de Elon Musk se negó a hacer una excepción para que su empresa de satélites Starlink, con sede en EEUU, se saltara la ley que obliga a las compañías foráneas a conceder participación en su accionariado a comunidades discriminadas durante el régimen del apartheid. Musk no quería hacerlo y acusó al Gobierno de discriminarle por ser blanco: “A Starlink no se le permite operar en Sudáfrica porque yo no soy negro”. “Eso no es cierto y usted lo sabe”, respondieron representantes oficiales. Pero ya era tarde. El multimillonario había comenzado a desplegar una estrategia de presión que incluyó el uso de Grok, la IA de su red social X, para impulsar la narrativa de que en el país existe un “genocidio blanco”. Una teoría de la conspiración surgida en foros neonazis que la IA de Musk amplificó a escala mundial en la red social de Musk, a través de miles de respuestas no solicitadas por los usuarios. Buena parte de ellos no sabía de qué estaba hablando Grok y no le dieron importancia. Pero para los expertos, lo que estaba ocurriendo marcó un punto de inflexión: por primera vez, un sistema de inteligencia artificial estaba siendo utilizado como parte de una estrategia de presión geopolítica. “La gente utiliza la IA como árbitro de la verdad y aquí vemos a los propietarios de la IA haciendo que las herramientas coincidan con sus políticas”, destacó la investigadora Jen Golbeck. Árbitros de la verdad Los sistemas de inteligencia artificial ya no solo automatizan tareas. También se usan para influir en el discurso público, alterar el equilibrio político y amplificar narrativas tóxicas. El incidente de Grok ha sido el primero en ser documentado. xAI, la empresa de Musk que lo desarrolla, aseguró que todo se debió a una acción malintencionada de un empleado. Sin embargo, no identificó al trabajador ni explicó cómo pudo este forzar al sistema a validar una desinformación desacreditada por los tribunales. “Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok”, dice xAI, que no ha respondido a más preguntas sobre el asunto. Tampoco a las enviadas por elDiario.es para la redacción de esta información. La desinformación argumentada por una IA tiene un alcance distinto a la mera propaganda sintética o las imágenes manipuladas. Como advirtió Golbeck, los usuarios han empezado a utilizar los modelos de lenguaje para discernir disputas en redes. La propia configuración de Grok lo propicia: puede ser invocada en cualquier momento y conversación, lo que refuerza su rol como supuesta fuente objetiva. En una era con ataques generalizados a los medios de comunicación por la extrema derecha y figuras como el propio Musk, estos sistemas aparecen como nuevos árbitros de la verdad. “Permiten obtener una respuesta bien argumentada en segundos, sin apenas esfuerzo. Y hemos aceptado la narrativa de que sus respuestas son objetivas, porque, después de todo, no son sino pura matemática. Por el contrario, muchos medios y fuentes tradicionales han hecho patente su posicionamiento y línea editorial, poniendo en cuestión así su objetividad”, explica Ujué Agudo. Agudo es coautora, junto a Karlos G. Liberal, de El Algoritmo Paternalista (Katakrak), donde exploran los sesgos que pueden ocultar estos sistemas y nuestra tendencia a creer lo que dice la máquina. “Uno de los mayores riesgos es que no concebimos que nuestro criterio o nuestra autonomía puedan verse influidos por agentes externos, entre ellos, los sistemas automatizados. Como la decisión final siempre recae en nuestras manos, nos sentimos libres y responsables”, añade la experta. “En algunos casos, el cambio es más sutil, pero en otros es evidente: hay una dimensión ideológica clara en el uso de sistemas automatizados”, señala Liberal. “Si están diseñados desde su base para generar dudas sobre la justicia social o la democracia, es fácil acabar dudando de nuestras propias convicciones”. Ambos destacan que no hay herramientas de transparencia que permitan detectar estas manipulaciones. En el caso de Grok, solo salió a la luz porque perdió el control y comenzó a hablar del “genocidio blanco” en conversaciones sin relación con la política sudafricana. Liberal avisa que no está claro que podamos contar con sistemas para detectar ese tipo de manipulaciones alguna vez. “Igual tenemos que asumir que siempre están sesgadas. Y que será nuestra capacidad para contrastar esos resultados o para no darles demasiado valor lo que marque la diferencia. No se trata de detectar el sesgo, sino de no caer en la trampa de creer que estos sistemas son neutrales”. “Podría parecer que lo que buscan es precisamente que vivamos en la desinformación y en la duda constante. En ese 'inundar la zona de mierda' del que hablaba Steve Bannon. No solo no estamos preparados para enfrentarlo, sino que estamos participando activamente en la construcción de una sociedad que, por momentos, se vuelve cada vez más oscura”, continúa el investigador. Del genocidio blanco a Tiananmén Es un engaño construido con intención, señalan expertos en derechos digitales. “La IA generativa que impulsa narrativas políticas no es más que otro elemento de la larga lista de perjuicios que están causando estos sistemas”, alerta Jan Penfrat, asesor de la ONG European Digital Rights (EDRi). “Las empresas tecnológicas intentan vendernos la IA como algo inteligente, lo que lleva a la gente a creer que puede confiar en los contenidos que crean esas máquinas, pero no deberían hacerlo”. Para Penfrat, el problema no es solo técnico, sino político: las grandes plataformas no solo modelan el discurso, sino que también deciden qué discursos pueden o no pueden existir en la realidad que difunden. “Así es como DeepSeek, desarrollado en China, fue programado para no hablar de la masacre de Tiananmén y otros temas políticos que el Partido Comunista Chino no quiere que la gente conozca. Y así es como OpenAI, Google, Meta y X pueden ajustar sus sistemas para eliminar o añadir prejuicios raciales, para promover ciertos puntos de vista políticos por encima de otros”. “Una sociedad en la que todo el mundo lleva una IA generativa en el bolsillo y la usa como fuente de información está en serios problemas”, asevera el especialista, que avisa de que aún es pronto para vaticinar si las actuales leyes europeas serán suficientes para afrontar estos problemas. El poder blando de la máquina Al incidente de Grok le siguió una escena inusual en la Casa Blanca. Alegando el mismo “genocidio blanco” del que hablaba la IA, Donald Trump arrinconó con recortes de prensa y vídeos descontextualizados al presidente sudafricano en el Despacho Oval. A su regreso, el Gobierno comenzó a revisar la ley que había frenado la entrada de Starlink en el país. Si se aprueba la modificación, la empresa podrá operar sin necesidad de vender acciones a población históricamente marginada. Es una victoria política para Musk, pero un peligroso precedente para la manipulación de los grandes modelos de lenguaje. “No debemos ver esto simplemente como un fallo algorítmico, sino como un síntoma del poder blando que ejercen los monopolios tecnológicos”, advierte Adio Dinika, del Instituto de Investigación sobre Inteligencia Artificial Distribuida (DAIR), fundado por la experta en ética algorítmica Timnit Gebru. “Están utilizando sus plataformas para moldear narrativas políticas, presionar a gobiernos y, en última instancia, avanzar en sus intereses comerciales”. “El hecho de que la falta de licencia para Starlink —basada en regulaciones estándar de telecomunicaciones y no en políticas raciales— haya sido enmarcada de esa manera y ahora esté siendo revertida, ilustra cómo la manipulación narrativa mediante IA puede crear presión política y distorsionar la regulación”, añade. Mientras los reguladores debaten marcos legales y las empresas prometen transparencia, millones de personas ya consultan estos sistemas como oráculos digitales. Pero cada respuesta de la inteligencia artificial no solo proporciona información: moldea percepciones, valida prejuicios y, como en este caso, puede alterar el curso de decisiones políticas.

Comentarios

Noticias tecnológicas