Un grupo de Discord se infiltra en el modelo de ciberseguridad más avanzado de Anthropic antes de su lanzamiento oficial.
Usuarios no autorizados acceden a Claude Mythos, el modelo de inteligencia artificial de Anthropic diseñado para ciberseguridad y aún no publicado oficialmente. Un grupo de miembros de un canal de Discord especializado en rastrear modelos de IA inéditos logró infiltrarse en el sistema a través de un tercero, según informó Bloomberg. Para respaldar sus afirmaciones, los usuarios facilitaron al medio «capturas de pantallas y un vídeo en los que supuestamente se ve cómo lo hicieron». Los implicados no han sido identificados.
➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa
Claude Mythos fue anunciado por Anthropic como una herramienta capaz de identificar vulnerabilidades de alta gravedad en los principales sistemas operativos y navegadores web, con el objetivo de proteger el software crítico. Sin embargo, precisamente por el riesgo que implican esas capacidades, Anthropic optó por un lanzamiento en vista anticipada dentro del Proyecto Glasswing, una iniciativa de ciberseguridad restringida a empresas tecnológicas de primer nivel como Amazon Web Services, Apple, Google, Microsoft y Nvidia.
Un modelo capaz de atacar empresas con defensas débiles
También cuenta con acceso el Instituto de Seguridad de la IA (AISI) del gobierno del Reino Unido, que sometió al modelo a evaluaciones controladas. Los resultados demostraron que Claude Mythos es capaz de atacar de manera autónoma a empresas pequeñas con protecciones débiles, lo que refuerza la decisión de Anthropic de mantenerlo fuera del alcance público.
➡️ Te puede interesar: Curso de Prevención y Gestión de Ciberriesgos y Ciberataques
A pesar de la gravedad del acceso no autorizado, los propios implicados minimizaron sus intenciones. Según declaró una fuente a Bloomberg, «su intención es experimentar con él, no causar daños». El incidente pone en evidencia las dificultades de controlar el acceso a modelos de IA de alto riesgo, incluso cuando se despliegan bajo estrictos marcos de seguridad.
