- El SAT rechaza haber sufrido un hackeo o filtración de datos pese a los informes de un ataque masivo con IA
- La versión inicial atribuye a un solo hacker, apoyado en herramientas de Anthropic y OpenAI, un robo de hasta 150 GB de información
- El organismo fiscal afirma que sus sistemas operan bajo estándares internacionales y que no hay rastros de accesos ilegítimos
- La polémica reabre el debate sobre el uso de IA en ciberataques y la protección de datos fiscales y electorales

La polémica en torno a un supuesto ciberataque masivo contra el Servicio de Administración Tributaria (SAT) y otras instituciones públicas ha encendido las alarmas sobre la seguridad de los datos fiscales y personales de millones de contribuyentes. En cuestión de horas, informes técnicos, filtraciones y comunicados oficiales se cruzaron, dibujando un escenario en el que la inteligencia artificial se coloca en el centro del debate sobre los nuevos riesgos digitales.
Mientras una firma de ciberseguridad describe un ataque sofisticado apoyado en modelos de IA generativa, capaz de extraer grandes volúmenes de información sensible, el organismo recaudador ha salido al paso para negar de forma tajante que sus sistemas hayan sido vulnerados. Entre versiones encontradas y dudas razonables, el caso se ha convertido en un ejemplo claro de cómo la gestión de incidentes digitales y la transparencia institucional están bajo la lupa.
Cómo surge la alerta del presunto ciberataque al SAT

El 25 de febrero, una startup israelí de ciberseguridad, Gambit Security, difundió un análisis en el que describía las operaciones de un atacante que habría empleado herramientas de inteligencia artificial como el chatbot Claude de Anthropic y, en menor medida, modelos de OpenAI para preparar y ejecutar intrusiones contra varias entidades públicas mexicanas. Según ese informe, se trataría de un único hacker que, aprovechando las capacidades de la IA, habría coordinado un ataque con apariencia de operación de alto nivel.
De acuerdo con esta investigación, el autor del ataque habría enviado más de mil indicaciones o “prompts” en español a los modelos de IA, pidiéndoles actuar como un supuesto “equipo de operadores y analistas a nivel de Estado-nación”. La IA habría sido utilizada, siempre según el reporte, para detectar vulnerabilidades en portales gubernamentales, redactar scripts de explotación y automatizar procesos de robo de información, incluyendo la creación de un sistema capaz de falsificar certificados fiscales en tiempo real.
La cronología que plantea Gambit Security sitúa el inicio de la operación a finales de diciembre de 2025, con un primer asalto dirigido al SAT y una duración aproximada de un mes. A partir de ahí, se habrían encadenado intentos contra otros organismos públicos, extendiendo el alcance potencial del incidente.
La investigación sostiene que el rastro de la operación se detectó al analizar conversaciones públicas del supuesto atacante con el chatbot, donde se observarían intentos reiterados de eludir las barreras éticas y de seguridad del modelo. Pese a que en algunos momentos la IA habría rechazado peticiones directas para borrar huellas o manipular registros, el agresor habría logrado, a base de insistencia y cambios de enfoque, obtener apoyo técnico significativo.
Qué datos se habrían visto comprometidos, según el informe técnico

Uno de los aspectos que más inquietud ha generado es la magnitud de la supuesta filtración de información. El reporte de Gambit Security y referencias posteriores en medios internacionales describen un escenario en el que se habrían extraído alrededor de 150 gigabytes de datos sensibles, con impacto sobre hasta 195 millones de identidades asociadas a distintos registros públicos en México.
Entre la información que se menciona como potencialmente sustraída se incluyen registros fiscales de contribuyentes (declaraciones, RFC, domicilios fiscales y otros datos tributarios), información del padrón electoral, actas del Registro Civil y credenciales de empleados públicos. Es decir, un conjunto de bases de datos que, combinadas, permitirían trazar perfiles muy detallados de personas físicas y jurídicas.
El supuesto alcance del ataque no se limitaría al SAT. El informe cita también a instituciones como el Instituto Nacional Electoral (INE), varios gobiernos estatales —entre ellos Estado de México, Jalisco, Michoacán y Tamaulipas—, el Registro Civil de la Ciudad de México y los Servicios de Agua y Drenaje de Monterrey, además de al menos una entidad financiera. La combinación de datos fiscales, electorales y civiles plantea un riesgo elevado de robo de identidad y fraude.
Esta fotografía enlaza, además, con otros episodios de filtraciones previas atribuidas a grupos especializados, que habrían afectado a decenas de instituciones y millones de personas. Aunque esas brechas han sido en su momento minimizadas por distintas autoridades, refuerzan la percepción de que los sistemas públicos siguen siendo un objetivo prioritario para la ciberdelincuencia.
La reacción del sector experto no se ha hecho esperar: varias voces en ciberseguridad han señalado que, si se confirmara un incidente de estas características, estaríamos ante un caso paradigmático del salto cualitativo que supone la IA generativa como herramienta en manos de atacantes, al multiplicar su capacidad para automatizar tareas complejas y coordinar ataques más amplios.
La versión oficial del SAT: no hay evidencias de hackeo ni filtración
Frente a este relato técnico, el Servicio de Administración Tributaria publicó el mismo 25 de febrero un comunicado para desmarcarse de las informaciones sobre un presunto hackeo masivo. El organismo recaudador negó categóricamente haber sufrido un robo de información mediante herramientas de inteligencia artificial, insistiendo en que, tras revisar sus plataformas, no se encontraron indicios de intrusión.
Según detalla el SAT, ante la difusión de noticias sobre un supuesto ciberataque con IA contra instituciones gubernamentales, se activaron de inmediato los protocolos internos de monitoreo y revisión de bitácoras de los sistemas que podrían estar relacionados con la presunta filtración. Tras ese análisis, el mensaje oficial es claro: no se identificaron accesos ilegítimos ni comportamientos anómalos en la operación de los servicios informáticos.
El organismo subraya que su modelo de ciberseguridad se encuentra alineado con las directrices y marcos de gestión del Gobierno Federal, respaldado por estándares internacionales como la familia ISO/IEC 27000, ISO 22301 e ISO 31000. Estas normas se orientan a la gestión de la seguridad de la información, la continuidad del negocio y la gestión del riesgo, tres pilares clave para proteger infraestructuras consideradas críticas.
Además, el SAT asegura mantener un esquema de monitoreo permanente sobre sus plataformas, con mecanismos de detección temprana de incidentes que permiten comprobar si una web funciona y procedimientos de respuesta para, en su caso, contener y mitigar amenazas de ciberdelincuencia. De este modo, la institución pretende transmitir la idea de que el sistema no solo está protegido, sino que cuenta con capacidad de reacción rápida ante cualquier indicio de actividad sospechosa.
En sus declaraciones, el organismo fiscal reconoce que es plenamente consciente del aumento de ataques que se apoyan en IA generativa, por lo que habría reforzado la actualización continua de sus sistemas y herramientas de protección. Sin embargo, insiste en que, a día de hoy, no hay constancia interna de la filtración masiva descrita por la firma de ciberseguridad.
El papel de las empresas de inteligencia artificial en el caso
Otra pieza relevante de este rompecabezas la aportan las compañías de IA implicadas indirectamente en el incidente. El informe de Gambit Security señala de forma expresa al chatbot Claude, desarrollado por Anthropic PBC, como la herramienta principal empleada por el atacante para diseñar y automatizar distintas fases del supuesto ciberataque. Se menciona también el uso más limitado de GPT-4.1, de OpenAI, como apoyo para tareas concretas.
Según la investigación, el agresor habría logrado que el sistema generase scripts informáticos, análisis de vulnerabilidades y recomendaciones para sortear controles de seguridad, a pesar de las salvaguardas que estas plataformas incluyen para bloquear usos maliciosos. Parte de esa actividad habría quedado reflejada en interacciones visibles o rastreables, lo que permitió identificar patrones y reconstruir parte de la operativa.
Desde el entorno de Anthropic, portavoces consultados por distintos medios reconocen que, al tener conocimiento de estos movimientos, procedieron a investigar internamente la actividad sospechosa, suspendiendo las cuentas vinculadas al incidente y reforzando sus barreras de seguridad. La empresa admite que el atacante habría intentado “forzar” repetidamente los límites del sistema, y asegura estar trabajando en versiones y protocolos más estrictos para reducir el margen de abuso en el futuro.
Este episodio reaviva un debate que no es exclusivo de México: hasta qué punto los proveedores de IA deben asumir responsabilidad en el uso indebido de sus modelos, y qué tipo de controles adicionales —técnicos, legales o de gobernanza— son necesarios para prevenir que herramientas diseñadas para tareas legítimas terminen facilitando actividades delictivas. La cuestión afecta tanto a empresas estadounidenses como a actores europeos, donde el desarrollo normativo sobre IA y ciberseguridad avanza a ritmo acelerado.
Además, el caso pone sobre la mesa la necesidad de mecanismos de cooperación internacional entre autoridades fiscales, agencias de protección de datos, reguladores tecnológicos y compañías privadas, de forma que se puedan detectar antes los abusos y responder con mayor coordinación cuando los sistemas críticos de un país se ven potencialmente amenazados.
Riesgos para la ciudadanía y gestión institucional de la polémica
Más allá del cruce de versiones técnicas y comunicados, el foco de preocupación se sitúa en el impacto que una filtración de esta naturaleza tendría para la ciudadanía. Si se confirmaran los extremos más graves del informe de Gambit Security, los posibles efectos irían desde el robo de identidad y fraudes fiscales hasta intentos de phishing masivo suplantando a autoridades como el SAT o el INE, pasando por usos indebidos de información electoral o civil.
En ese escenario, especialistas recomiendan a la población reforzar sus hábitos de autoprotección digital: cambiar contraseñas con cierta frecuencia, activar la autenticación de dos factores en servicios críticos, vigilar movimientos en cuentas bancarias y desconfiar de llamadas, correos o mensajes que soliciten datos personales alegando ser organismos oficiales. Estos consejos, habituales en cualquier incidente de seguridad, cobran especial relevancia cuando se sospecha de una posible exposición masiva de datos.
Sin embargo, la postura oficial del SAT —que niega cualquier intrusión— también influye en cómo la población percibe el riesgo. La ausencia de notificaciones masivas a posibles afectados o de medidas extraordinarias de mitigación puede interpretarse de dos formas contrapuestas: o bien como indicio de que realmente no se ha producido la brecha en los términos descritos por la firma israelí, o bien como un intento de contener el impacto reputacional y la preocupación social hasta no disponer de más evidencias.
En paralelo, el episodio alimenta un debate de fondo sobre la transparencia de las instituciones públicas frente a incidentes de ciberseguridad. Organismos fiscales y electorales, tanto en México como en Europa, se enfrentan a la presión de informar con rapidez y claridad cuando existe la sospecha de que datos sensibles puedan estar en juego. El equilibrio entre no generar alarmismo injustificado y garantizar el derecho a estar informado es, a menudo, delicado.
De momento, el caso se mantiene en una zona gris: un relato técnico muy detallado que apunta a un ataque exitoso con apoyo de IA, frente a una negativa oficial respaldada en revisiones internas de sistemas y bitácoras. Hasta que no se conozcan más detalles verificables —ya sea por auditorías externas, investigaciones de autoridades de datos o nuevas evidencias técnicas—, la discusión seguirá marcada por esa tensión entre la versión institucional y la de los analistas de ciberseguridad.
Todo este contexto sitúa a la inteligencia artificial como un actor clave en la evolución de las amenazas digitales y coloca a organismos como el SAT bajo un escrutinio creciente, tanto por parte de la ciudadanía como de la comunidad internacional, obligándoles a reforzar no solo sus barreras tecnológicas, sino también sus mecanismos de comunicación y rendición de cuentas.