En febrero de 2026, OpenAI-ia-nepa-2026/) publicó su más reciente análisis de amenazas globales: un documento que examina con precisión quirúrgica cómo grupos organizados — desde operadores de fraude financiero hasta redes de desinformación política — están utilizando modelos de inteligencia artificial para potenciar sus operaciones maliciosas.
Este no es un informe académico. Es una radiografía del campo de batalla digital en el que operan hoy las empresas latinoamericanas. **Se estima que para finales de 2026, más del 60% de las campañas de desinformación a escala global incorporarán algún componente generado por inteligencia artificial**, según proyecciones derivadas del propio análisis de OpenAI.
Lo que distingue este reporte es su enfoque en la convergencia: los actores maliciosos ya no usan la inteligencia artificial de forma aislada. La combinan con sitios web falsos, perfiles en plataformas sociales y redes de amplificación automatizadas para crear ecosistemas de engaño que son extremadamente difíciles de detectar con métodos tradicionales.
Para los directores de tecnología y CEOs que aún ven la seguridad de la inteligencia artificial como un problema “de TI”, este informe es una señal de alarma estratégica. En iamanos.com lo entendemos desde el primer día: la seguridad en IA es una decisión de liderazgo, no de soporte técnico.
Cómo Operan los Actores Maliciosos con Modelos de Inteligencia Artificial
El informe de OpenAI identifica patrones claros de abuso que se repiten en múltiples geografías y sectores. Los operadores maliciosos utilizan modelos de lenguaje para tres propósitos centrales: generación de contenido falso a escala industrial, creación de identidades digitales sintéticas convincentes, y automatización-resultados-en-90-dias/) de interacciones sociales para manipular opinión pública.
Lo más revelador del documento es la descripción del flujo de trabajo de estos actores. No están desarrollando sus propias herramientas de inteligencia artificial — están usando las mismas plataformas comerciales disponibles para cualquier empresa, pero explotando sus capacidades para fines que van desde el fraude financiero hasta la manipulación electoral.
En términos concretos: un solo operador con acceso a un modelo de lenguaje avanzado puede generar miles de artículos de noticias falsas, gestionar decenas de perfiles de redes sociales simultáneamente y personalizar mensajes de engaño para audiencias específicas, todo en el tiempo que antes tomaba producir una sola pieza de contenido. Esta asimetría operativa es la amenaza real.
La Combinación Letal: Modelos de Lenguaje y Plataformas Sociales
OpenAI-ia-nepa-2026/) dedica una sección específica del informe a documentar cómo la convergencia entre modelos de inteligencia artificial y plataformas de redes sociales multiplica exponencialmente el daño potencial. El modelo de lenguaje genera el contenido; la plataforma social lo distribuye; la red de amplificación automatizada lo viraliza.
Este ecosistema tripartito es particularmente resistente a las defensas convencionales porque cada componente, visto de forma individual, puede parecer legítimo. Un artículo generado por IA puede ser indistinguible de contenido humano. Un perfil social con historial de actividad parece auténtico. Una red de amplificación que comparte contenido popular no activa alarmas por sí sola.
La detección requiere análisis sistémico y transversal — exactamente el tipo de capacidad que las organizaciones que trabajan con agentes de inteligencia artificial autónomos están comenzando a desarrollar para defensa corporativa.