Un ciberdelincuente utilizó el chatbot Claude de Anthropic para vulnerar sistemas del SAT, INE y gobiernos estatales entre diciembre y enero. La información robada incluye 195 millones de registros de contribuyentes y padrones electorales.
Un ataque cibernético sin precedentes ha sacudido las instituciones mexicanas. De acuerdo con una investigación de la empresa israelí de ciberseguridad Gambit Security, retomada por Bloomberg, un hacker utilizó inteligencia artificial para vulnerar los sistemas de múltiples dependencias gubernamentales y sustraer 150 gigabytes de información confidencial .
El atacante, cuya identidad permanece desconocida, empleó el chatbot Claude, desarrollado por la empresa Anthropic PBC, para llevar a cabo una serie de intrusiones que se extendieron por aproximadamente un mes, de diciembre de 2025 a enero de 2026 .
El usuario escribió instrucciones en español para que la IA:
Actuara como un "hacker de élite".
Detectara vulnerabilidades en las redes gubernamentales.
Redactara scripts informáticos para explotar esas fallas.
Definiera formas de automatizar el robo de datos .
Según los investigadores, Claude advirtió inicialmente al usuario sobre sus intenciones maliciosas, pero el atacante insistió hasta lograr "liberar" al chatbot, es decir, eludir sus barreras de seguridad. Una vez superadas las restricciones, la IA ejecutó miles de comandos en las redes informáticas oficiales .
El hackeo comprometió a múltiples niveles de gobierno y dependencias clave:
SAT (Servicio de Administración Tributaria): Principal autoridad fiscal del país.
INE (Instituto Nacional Electoral): Se vieron afectados los padrones electorales.
Gobiernos estatales: Las administraciones de Jalisco, Michoacán, Tamaulipas y del Estado de México.
Registro Civil de la Ciudad de México.
Servicio de Agua y Drenaje de Monterrey.
Entre la información sustraída se encuentran:
Documentos relacionados con 195 millones de registros de contribuyentes.
Padrones electorales del INE.
Credenciales de empleados públicos.
Archivos del registro civil.
Tanto Anthropic como OpenAI tomaron cartas en el asunto tras ser alertadas por Gambit Security:
Anthropic investigó las acusaciones, interrumpió la actividad y prohibió las cuentas implicadas. La compañía aseguró que incorporará estos ejemplos de actividad maliciosa en sus sistemas para aprender de ellos y mejorar la seguridad de modelos futuros como Claude Opus 4.6 .
OpenAI detectó que el hacker también recurrió a ChatGPT cuando Claude encontraba obstáculos, buscando orientación sobre cómo moverse lateralmente en las redes, qué credenciales requería y cómo evitar ser detectado. La empresa afirmó que sus herramientas se negaron a cumplir estas solicitudes y que bloquearon las cuentas relacionadas .
Las reacciones oficiales han sido dispares:
En diciembre de 2025, la Secretaría de Anticorrupción y Buen Gobierno informó que abrió 20 investigaciones por la presunta vulneración de datos personales en dependencias públicas, aunque se desconoce si están relacionadas con este caso. En ese momento, advirtió que se determinarían sanciones administrativas e incluso penales .
El INE aseguró no haber detectado intrusiones recientes y afirmó haber reforzado su estrategia de ciberseguridad .
El gobierno de Jalisco negó haber sido vulnerado y sostuvo que solo resultaron afectadas redes federales .
El SAT, los gobiernos de Michoacán, Tamaulipas y Estado de México, así como el registro civil de CDMX y Agua y Drenaje de Monterrey, no respondieron de inmediato a las solicitudes de comentario .
Los investigadores de Gambit Security señalaron que el atacante buscaba obtener identidades de empleados del gobierno y explotó al menos 20 vulnerabilidades distintas. Aún no está claro si hizo uso de la información ni con qué fin .
Curtis Simpson, director de estrategia de Gambit Security, explicó la magnitud del ataque:
"En total, produjo miles de informes detallados que incluían planes listos para ejecutar, indicando al operador humano exactamente qué objetivos internos atacar a continuación y qué credenciales utilizar."
Este caso se suma a una tendencia global preocupante: en noviembre de 2025, Anthropic ya había denunciado haber frustrado la primera campaña de ciberespionaje orquestada mediante IA, presuntamente vinculada a hackers respaldados por el Estado chino .