• 04 de Julio del 2025

¿Quién tiene la llave del monstruo? Los peligros de la IA no están donde crees

Pixabay

Mientras muchos temen que la inteligencia artificial se “vuelva consciente” o que los robots nos dominen, el verdadero riesgo ya está aquí, y tiene rostro humano. No es Skynet. No es HAL 9000. Es un puñado de empresas, gobiernos y plataformas que controlan los modelos más avanzados del planeta y deciden qué puede decir una IA... y qué no.

Hace unos días, el Wall Street Journal publicó una ilustración que se volvió viral: una criatura tentacular con la máscara amable de ChatGPT y un cartel al fondo que pregunta “¿Alineada”? Una sátira provocadora, sí, pero profundamente reveladora. Porque la pregunta ya no es si la IA será peligrosa. La pregunta es: ¿quién tiene la llave del monstruo?

Una idea de saque. La IA no tiene agenda. Sus dueños, sí.

Los modelos como ChatGPT no tienen intenciones… de momento. No odian ni aman. Simplemente ejecutan instrucciones. El problema es quién entrena esas instrucciones, con qué datos, con qué sesgos y bajo qué lógica de poder.

Hoy, las grandes tecnológicas concentran el conocimiento, los recursos y las herramientas para construir IAs a escalas que ningún gobierno o sociedad civil puede alcanzar sin alianzas. El resultado: modelos cerrados, cajas negras, sesgos institucionalizados y decisiones algorítmicas que no rinden cuentas.

OpenAI, por ejemplo, comenzó con una misión “abierta”. Hoy es una empresa con inversionistas privados que restringe el acceso a sus pesos de entrenamiento. Lo mismo con Anthropic, Google DeepMind o Meta. ¿Dónde queda el interés público?

No es la IA quien toma decisiones. Es su programación. Por eso, los peligros reales no tienen voz robótica ni ojos rojos. Son mucho más sofisticados:

  • Vigilancia masiva algorítmica: sistemas de reconocimiento facial que violan la privacidad con el pretexto de la seguridad.
  • Manipulación informativa: bots diseñados para polarizar, filtrar y moldear el debate público.
  • Automatización de la desigualdad: modelos que perpetúan sesgos raciales, de género o de clase porque fueron entrenados con datos que los normalizan.

Todo esto ocurre hoy. No en el futuro. No en la ciencia ficción. Ya.

¿Y el Sur Global?

En América Latina, la conversación sobre IA aún está dominada por el consumo: ¿qué prompt usar? ¿qué app descargar? Pero poco se habla de soberanía tecnológica. De quién decide los límites del conocimiento. De qué datos nuestros están entrenando modelos sin consentimiento. De por qué estamos repitiendo una historia de dependencia digital.

El Sur Global necesita algo más que adopción tecnológica: necesita voz, código abierto, regulación con dientes y formación ética con visión de futuro.

No basta con una máscara amable

Mientras más se parece la IA a nosotros —mientras mejor habla, sonríe y responde— más fácil es olvidar que debajo de ese barniz hay una estructura invisible de poder. Lo inquietante no es que la IA desobedezca. Lo verdaderamente peligroso es que obedezca perfectamente… a quien tiene la llave.

En el siglo XX, debatimos sobre quién controlaba los medios de comunicación. Hoy, el debate es quién controla las máquinas que producen, organizan y distribuyen el conocimiento.

Porque al final del día, la IA no es un monstruo. El monstruo —como siempre— es el poder sin vigilancia. Y la llave… aún no la tenemos nosotros.