La filtración de Mythos sacude los mercados de criptomonedas La filtración involuntaria del modelo de inteligencia artificial más avanzado de Anthropic, Claude Mythos, ha desencadenado repercusiones inmediatas en los paisajes de criptomonedas y ciberseguridad.

La filtración de Mythos sacude los mercados de criptomonedas

La filtración involuntaria del modelo de inteligencia artificial más avanzado de #Anthropic , #ClaudeMythos , ha desencadenado repercusiones inmediatas en los paisajes de criptomonedas y ciberseguridad.

En papel, la intención de Anthropic era probar en silencio Mythos con selectos clientes de acceso anticipado, pero la divulgación accidental forzó un abrupto reconocimiento público de sus riesgos potenciales.

El impacto no se limitó solo a las monedas digitales. Las acciones de seguridad de software como #PaloAltoNetworks y #CrowdStrike cayeron entre un 4% y un 6%, mientras que el ETF iShares Expanded Tech-Software Sector cayó un 2.5%. Estos números reflejan cuán entrelazados están los avances de la IA y la seguridad de los activos digitales—y cuán rápidamente puede erosionarse la confianza del mercado cuando emergen nuevas amenazas.

$BTC cayó de $66,899.75 a $66,000 tras la noticia de la filtración el jueves.

El error humano expone riesgos de IA y blockchain

Anthropic atribuyó la brecha a un error humano en su sistema de gestión de contenido. Los investigadores de ciberseguridad encontraron que no solo el borrador de Mythos era accesible, sino que también lo eran miles de otros activos internos vinculados a las operaciones del blog de Anthropic. La compañía respondió restringiendo inmediatamente el acceso público después de ser contactada por periodistas, pero para entonces, el daño ya estaba hecho: información sensible sobre su modelo más poderoso #AI había entrado en el dominio público.

El borrador del post en sí advertía que Mythos podría representar “riesgos de ciberseguridad sin precedentes”, particularmente para la seguridad del blockchain y la auditoría de contratos inteligentes.

Según coindesk.com, documentos internos de Anthropic destacaron explícitamente estos peligros, señalando que Mythos obtuvo una puntuación “dramáticamente más alta” que modelos anteriores en pruebas relacionadas con codificación de software y ciberseguridad. Este salto en capacidad es de doble filo: mientras ofrece nuevas herramientas para la defensa, también aumenta las apuestas para la explotación si tal IA cae en manos maliciosas.

El nivel Capybara promete un poder no visto

Más allá de Mythos en sí, los materiales filtrados hicieron referencia a una futura categoría de modelos llamada “Capybara”, descrita como más grande y capaz que la línea Opus existente de Anthropic.

El nivel Capybara aún no está disponible para uso general y sigue en pruebas iniciales con organizaciones seleccionadas centradas en la defensa cibernética. Internamente etiquetado como versión dos—mientras que Mythos es la versión uno—Capybara señala la ambición de Anthropic de llevar las capacidades de IA aún más allá de los estándares actuales. Sin embargo, el borrador del post dejó claro que ejecutar estos modelos es costoso y aún no es viable a gran escala para la mayoría de los usuarios.

Por qué es importante: Impacto práctico en la seguridad de criptomonedas

Las consecuencias inmediatas de la filtración se han sentido en las esferas financiera y técnica. Para los poseedores de criptomonedas y desarrolladores de blockchain, la revelación de que un modelo de IA puede identificar y explotar vulnerabilidades de manera más efectiva que cualquier otro anterior introduce una nueva capa de riesgo. La auditoría de contratos inteligentes—un proceso destinado a detectar errores o puertas traseras en el código de finanzas descentralizadas (DeFi)—puede enfrentar ahora desafíos que las herramientas existentes no están equipadas para manejar.

Esta preocupación no es teórica; los protocolos de DeFi ya enfrentan frecuentes hackeos que resultan en millones perdidos cada año. Con Mythos supuestamente superando a Opus 4.6 en razonamiento académico y tareas de seguridad de software, algunos temen que los atacantes puedan aprovechar una tecnología similar para automatizar explotaciones a gran escala. El hecho de que Anthropic planee solo un lanzamiento cauteloso de acceso anticipado subraya tanto la promesa como el peligro de tales sistemas avanzados de IA.

Miles de activos internos expuestos involuntariamente

La escala de la exposición destaca: casi 3,000 activos no publicados quedaron abiertos debido a controles de acceso mal configurados en los sistemas backend de Anthropic. Este tesoro incluía no solo detalles sobre Mythos, sino también otros materiales sensibles de la empresa. Si bien el acceso público se cortó poco después del descubrimiento, sigue siendo incierto cuántos terceros pudieron haber accedido o descargado estos archivos antes de que se aseguraran.

Una decisión de un juez esta semana añadió otra capa de complejidad: la jueza del distrito de EE.UU. Rita Lin bloqueó los esfuerzos de las agencias federales para designar a Anthropic como un riesgo de cadena de suministro por su negativa a permitir vigilancia masiva o aplicaciones de guerra autónoma letal para sus modelos de IA. La batalla legal involucra un contrato gubernamental de $200 millones otorgado en julio de 2025—y destaca cómo el escrutinio regulatorio se está convergiendo con el riesgo técnico en un momento precisamente inadecuado para Anthropic y sus clientes.

Lo que puede impulsar la próxima fase

Si Anthropic mueve Mythos de pruebas de acceso anticipado limitadas a una disponibilidad general más amplia—actualmente no confirmada debido a sus altos costos operativos y los riesgos de ciberseguridad declarados—los mercados pueden reaccionar de inmediato dada la capacidad demostrada del modelo para superar a Opus 4.6 en codificación de software y ciberseguridad, como se destacó en documentos internos filtrados.