Detalles confidenciales sobre el modelo de inteligencia artificial de próxima generación de Anthropic han surgido en línea después de que los materiales internos de la compañía se hicieran públicos inadvertidamente. Conocida por su bot de IA conversacional Claude, se reveló que Anthropic estaba probando un sistema descrito como aún más avanzado que su línea actual.
Capacidades Clave y Consecuencias Potenciales del Nuevo Modelo
Anthropic describe este modelo de IA en desarrollo como el sistema más poderoso que ha creado hasta la fecha. Aunque la herramienta permanece sin revelar al público y solo es accesible para selectos socios iniciales, tanto sus métricas de rendimiento como los posibles riesgos están bajo revisión activa. Según documentos distribuidos por la compañía, el sistema logra un avance significativo, superando a las generaciones anteriores tanto en potencia como en capacidad.
Los archivos filtrados se refieren a un modelo denominado “Claude Mythos”, destacando su posible habilidad para no solo identificar, sino también explotar vulnerabilidades de software. La sugerencia de que una tecnología tan poderosa podría descubrir y aprovechar vulnerabilidades de manera autónoma ha desencadenado un debate en los círculos de ciberseguridad. Aunque todavía falta información precisa sobre las capacidades del modelo, los posibles riesgos de seguridad se han convertido en un punto focal entre los expertos que evalúan el impacto del sistema.
La gama de productos existente de Anthropic incluye modelos de IA como Opus, Sonnet y Haiku, cada uno diseñado para ofrecer diferentes equilibrios de escala, habilidades y precios. Según los documentos filtrados, una nueva categoría llamada “Capybara”—anticipada para ser más robusta y grande que incluso Opus—también está en proceso, señalando las ambiciones de la compañía de empujar los límites del desarrollo de IA.
Reacciones Inmediatas de Empresas Tecnológicas y Mercados
A raíz de la filtración, las acciones de varias gigantes de la ciberseguridad y software con sede en EE. UU. vieron un fuerte descenso. Nombres notables como Palo Alto Networks, Crowdstrike y Fortinet experimentaron caídas de valor de acciones que oscilaron entre cuatro y seis puntos en un corto período de tiempo. Los efectos se extendieron por índices tecnológicos más amplios, provocando una caída general en los sectores de software y ciberseguridad.
Junto a los cambios temporales en el sector tecnológico, los mercados de activos digitales también reaccionaron rápidamente. Bitcoin, por ejemplo, vio su valoración descender rápidamente tras la noticia de la filtración, cayendo por debajo del pico que había alcanzado solo unas horas antes. Esta volatilidad destacó la interconexión de las tecnologías emergentes y la naturaleza sensible del sentimiento del mercado.
Una investigación inicial reveló que la filtración se originó cuando aproximadamente tres mil publicaciones de blogs de la compañía y materiales asociados fueron subidos accidentalmente a un repositorio de datos accesible al público. La compañía confirmó que estos documentos incluían anuncios no publicados y comunicaciones internas confidenciales, exponiendo inadvertidamente estrategias corporativas y detalles de proyectos futuros.
Fundada en 2021 por ex-empleados de OpenAI, Anthropic ha abierto una nicho haciendo hincapié en el desarrollo ético de IA, sistemas seguros y soluciones de inteligencia artificial escalables. Siguiendo de cerca las innovaciones en el sector tecnológico, Anthropic se ha posicionado como una compañía de interés para grandes organizaciones y agencias regulatorias. Sus últimos avances continúan atrayendo atención y escrutinio de igual medida.


