Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic enfrenta escrutinio tras la filtración del código de Claude que expone 512k líneas de código interno
En medio de la creciente preocupación por la seguridad de la IA, la filtración del código de claude ha puesto a Anthropic bajo un intenso escrutinio por parte de desarrolladores e investigadores de todo el mundo.
Anthropic confirma la exposición de código fuente interno
El martes, Anthropic confirmó que había enviado inadvertidamente una parte del código fuente interno para su herramienta de codificación con IA Claude Code. La empresa describió el incidente como un “problema de empaquetado de la liberación causado por un error humano, no una brecha de seguridad”, subrayando que no hubo ninguna intrusión externa.
Según analistas independientes de ciberseguridad, la exposición incluía aproximadamente 1,900 archivos y alrededor de 512,000 líneas de código. Además, los expertos señalaron que el asistente se ejecuta directamente dentro de los entornos de los desarrolladores, donde puede acceder a información sensible, lo que intensificó las preocupaciones sobre un posible uso indebido.
La situación se intensificó rápidamente después de que una publicación en X compartiera un enlace al material filtrado. Para las primeras horas de la mañana del martes, esa publicación ya había superado los 30 millones de vistas, aumentando de manera dramática la visibilidad del repositorio filtrado y atrayendo a especialistas en seguridad para examinar los archivos.
Implicaciones de seguridad y preocupaciones del atacante
Desarrolladores e investigadores comenzaron a revisar la base de código filtrada para entender cómo está arquitecturado Claude Code y cómo planea Anthropic evolucionar el producto. Sin embargo, algunos profesionales de seguridad plantearon de inmediato preguntas sobre lo que podrían hacer atacantes sofisticados con conocimientos detallados de los sistemas internos.
La empresa de ciberseguridad de IA Straiker advirtió en una publicación de blog que los adversarios ahora podrían estudiar cómo se mueven los datos a través del pipeline interno de Claude Code. Dicho esto, la firma advirtió que esta visibilidad podría permitir que alguien diseñe cargas útiles que persistan a lo largo de sesiones prolongadas, creando efectivamente una puerta trasera oculta dentro del flujo de trabajo de un desarrollador.
Estas advertencias han amplificado los temores más amplios de la industria sobre la seguridad de filtraciones de código. Además, los analistas destacaron que las herramientas que operan dentro de entornos de desarrolladores, con acceso profundo a repositorios e infraestructura, constituyen un objetivo especialmente atractivo para actores maliciosos.
Un segundo incidente de datos de Anthropic en menos de una semana
Esta filtración no fue un revés aislado para Anthropic. Solo días antes, Fortune informó que la empresa había hecho accidentalmente miles de archivos internos accesibles públicamente, marcando un incidente separado de datos de anthropic que precedió al lanzamiento del código fuente.
Según se informó, esos archivos anteriores incluían un borrador de una publicación de blog que describía un modelo de IA próximo conocido internamente como “Mythos” y “Capybara”. El borrador señaló que el modelo experimental podría introducir riesgos notables de ciberseguridad, lo que ahora se ha vuelto aún más sensible a la luz de la exposición posterior del código fuente.
En respuesta a ambos eventos, Anthropic declaró que está implementando salvaguardas adicionales para prevenir errores similares. Además, la empresa reiteró que en ninguno de los incidentes estuvo involucrado ningún dato sensible de clientes ni credenciales, intentando tranquilizar a clientes empresariales y reguladores.
Claude Code en cifras e impacto en el mercado
Anthropic lanzó Claude Code al público general en mayo del año pasado, posicionándolo como un asistente de IA que ayuda a los desarrolladores a construir funciones, corregir errores y automatizar tareas repetitivas. El lanzamiento marcó un impulso significativo de la empresa en el lucrativo mercado de herramientas de software impulsadas por IA.
La tracción comercial del producto ha sido rápida. Para febrero, Anthropic informó que Claude Code había alcanzado un ingreso anualizado de más de $2.5 mil millones. Sin embargo, esta cifra extraordinaria también ha elevado las apuestas para la postura de seguridad de Anthropic a medida que más empresas integran el asistente en sus flujos de trabajo.
La presión competitiva se ha intensificado a medida que los rivales responden a ese crecimiento. OpenAI, Google y xAI han destinado todos recursos sustanciales para construir sus propios asistentes de codificación, con la esperanza de capturar una parte del mercado en expansión y competir directamente con la herramienta insignia de Anthropic.
Fundación, reputación y próximos pasos tras la filtración de claude code
Fundada en 2021 por ex ejecutivos y equipos de investigación de OpenAI, Anthropic ha construido su reputación en torno a su familia de modelos de IA Claude y su énfasis en la seguridad. La filtración de claude code ahora ha puesto esa narrativa de seguridad bajo presión, incluso cuando la firma insiste en que la causa raíz fue operativa y no adversarial.
La empresa ha dicho que está implementando verificaciones de empaquetado más estrictas, controles de acceso y procedimientos de revisión para liberaciones que involucren repositorios internos. Dicho esto, los expertos en seguridad argumentan que las plataformas modernas de IA requieren defensas continuas y por capas, dado su profundo nivel de integración en entornos de desarrolladores y la creciente sofisticación de posibles atacantes.
El portavoz de Anthropic subrayó que la organización está dando pasos concretos para garantizar que este tipo de incidente no se repita. En resumen, las filtraciones recientes ponen de relieve qué tan rápido deben equilibrar las empresas de IA en crecimiento los lanzamientos agresivos de productos con una higiene de seguridad rigurosa para mantener la confianza.