Anthropic ha identificado e interrumpido una campaña de espionaje «altamente sofisticada» en la que actores maliciosos respaldados por el Estado chino utilizaron el modelo de inteligencia artificial (IA) Claude para automatizar alrededor de 30 ataques informáticos contra corporaciones y Gobiernos, sin apenas intervención humana.
Los ataques maliciosos, que se llevaron acabo en durante el mes de septiembre de este año, sobresalen porque entre el 80 y 90 por ciento de la operación estaba automatizada con IA, lo que pone de relieve cómo esta tecnología, que cada vez es más avanzada, está facilitando e impulsando las tareas de los ciberdelincuentes para que sean más efectivas.
La compañía ya ha advertido en ocasiones anteriores sobre ciberataques reales con capacidades de IA como asesores, sin embargo, ahora ha destacado la forma de utilizarla para ejecutar los ataques directamente, poniendo énfasis en "la rapidez con la que lo han hecho a gran escala".
De esta forma, en el caso de la última campaña de espionaje interrumpida, Anthropic ha especificado se han identificado alrededor de 30 ataques que iban dirigidos contra distintas organizaciones, grandes empresas tecnológicas y agencias gubernamentales. Además, también ha reflejado «una alta probabilidad» de que los 'hackers' detrás de estas amenazas contaban con el apoyo del Estado chino.
Como ha detallado en un comunicado en su web y en el informe de la investigación, el grupo atacante (identificado como GTG-1002) manipuló la herramienta Claude Code para llevar a cabo sus actividades maliciosas, convirtiéndolo en un «ciberataque a gran escala ejecutado sin una intervención humana significativa».
En concreto, los ataques se llevaron a cabo con «solo pulsar el botón», sin apenas intervención humana, tal y como ha detallado el jefe de inteligencia de amenazas de Anthropic, Jacob Klein, en declaraciones a The Wall Street Journal, recogidas por The Verge.
Según ha explicado Klein, la intervención de los actores maliciosos para ejecutar el ataque se limitó a «unos pocos puntos críticos», en los que detallaban si la IA debía continuar actuando o no, o si identificaban algún error. Así, ha ejemplificado que se llevaron a cabo indicaciones como: «Sí, continúa» y «Oh, esto no parece correcto, Claude, ¿estás seguro?».
Esta automatización ha sido posible gracias a que, actualmente, los modelos cuentan con capacidades más avanzadas de inteligencia para seguir instrucciones complejas y comprender el contexto. Igualmente, también se debe a que pueden actuar como agentes, ejecutando sus propias acciones autónomas, y a que disponen de acceso a una amplia gama de herramientas de 'software'.
Es decir, disponen de capacidades avanzadas con las que antes no contaban, permitiendo convertir, en este caso a Claude, en un arma de ciberataques prácticamente independiente. "Grupos con menos experiencia y recursos ahora pueden potencialmente realizar ataques a gran escala de esta naturaleza", ha sentenciado la compañía.
Cuatro objetivos afectados
Aunque tras detectar la actividad sospechosa Anthropic suspendió las cuentas relacionadas y notificó del problema a las entidades afectadas, los actores maliciosos consiguieron robar datos confidenciales de cuatro de los objetivos atacados. Sin embargo, no ha especificado cuáles han sido las organizaciones o Gobiernos perjudicados, aunque sí ha aclarado que el Gobierno estadounidense no ha sido uno de ellos.
«Esta campaña tiene importantes implicaciones para la ciberseguridad en la era de los agentes de IA», ha apostillado la tecnológica, al tiempo que ha reflexionado que "los agentes son valiosos para el trabajo diario y la productividad, pero en manos equivocadas pueden aumentar considerablemente la viabilidad de los ciberataques a gran escala".
Por tanto, para hacer frente a esta amenaza, Anthropic ha detallado que ha ampliado sus capacidades de detección y ha desarrollado mejores clasificadores para identificar actividad maliciosa.
Otras compañías del sector, como es el caso de Google, también han advertido recientemente sobre el uso de la IA como una tecnología que los ciberdelincuentes han integrado en sus operaciones para ser más efectivos.
Así lo trasladaron los expertos de Google Threat Intelligence Group (GTIG), quienes detallaron que la IA ya no solo se utiliza para aumentar la productividad de sus ataques, sino que también se emplea en sus operaciones creando nuevo 'malware' con IA integrada, capaz de modificar su comportamiento de forma dinámica mientras se ejecuta.