Claude Opus 4.7 ya está aquí: más autónomo, más preciso y con visión mejorada
Hoy, 16 de abril, Anthropic hizo oficial el lanzamiento de **Claude Opus 4.7**, y la noticia llegó acompañada de benchmarks, testimonios de early testers y — algo inusual — una confesión pública: su modelo más poderoso, Mythos Preview, sigue bajo llave. Pero no te dejes distraer por eso. Lo que sí puedes usar hoy es bastante impresionante.
Hoy, 16 de abril, Anthropic hizo oficial el lanzamiento de Claude Opus 4.7, y la noticia llegó acompañada de benchmarks, testimonios de early testers y — algo inusual — una confesión pública: su modelo más poderoso, Mythos Preview, sigue bajo llave. Pero no te dejes distraer por eso. Lo que sí puedes usar hoy es bastante impresionante.
Acá te cuento todo lo que necesitas saber, sin relleno.
El contexto rápido
Opus 4.7 llega dos meses después del 4.6, siguiendo el ritmo de lanzamientos bimensuales que Anthropic ha establecido desde finales de 2025. No es un salto de generación: es una actualización directa al mismo tier, con el mismo precio. Lo que cambia es lo que hay adentro.
Y lo que hay adentro es bastante.
¿Qué trae de nuevo?
Visión de alta resolución
El salto más llamativo en papel: el soporte de imágenes pasó de 1,568 píxeles en el lado largo a 2,576 píxeles (de ~1.15 a ~3.75 megapíxeles). En benchmarks de acuidad visual, el modelo saltó del 54.5% al 98.5%. Eso no es una mejora incremental — eso es otro nivel.
En la práctica: diagramas técnicos densos, interfaces de usuario, documentos escaneados, capturas de pantalla para computer use. Todo se lee mejor, con más detalle y sin necesitar trucos de escala.
Pensamiento adaptativo (Adaptive Thinking)
Se acabó el modo de “extended thinking” fijo. Ahora el modelo ajusta dinámicamente cuánto pensar según la complejidad del problema. Y lo más interesante: verifica sus propios resultados antes de responder, corrigiendo errores lógicos en la fase de planificación.
En palabras de un early tester de fintech: “detecta sus propias fallas lógicas durante la planificación y acelera la ejecución, muy por encima de los modelos anteriores”.
Nivel de esfuerzo “xhigh”
Nuevo nivel entre high y max. Si trabajas con Claude Code o pipelines agénticos, esto te da un control más fino sobre el tradeoff entre profundidad de razonamiento y latencia. Anthropic recomienda empezar con high o xhigh para tareas de codificación.
Task Budgets (beta)
Puedes asignar un “presupuesto” de tokens a una tarea. Claude prioriza su trabajo dentro de ese límite, lo que te da control predecible sobre costos en flujos largos y agénticos.
/ultrareview en Claude Code
Nuevo comando que lanza una sesión de revisión dedicada y busca lo que “un revisor cuidadoso detectaría”: errores de diseño, inconsistencias, deuda técnica sutil. No es un linter — es más parecido a tener un senior engineer mirando tu PR.
Los números que importan
- +13% en el benchmark interno de codificación de Anthropic (93 tareas)
- +64.3% en SWE-bench Pro (vs 53% de Opus 4.6) — tareas de ingeniería de software del mundo real
- 3x más tareas de producción resueltas en Rakuten-SWE-Bench
- Supera a Opus 4.6, GPT-5.4 y Gemini 3.1 Pro en los benchmarks publicados
El único punto donde bajó: un pequeño -4% en Agentic Search respecto al 4.6. Curiosidad menor, no un bloqueante.
Memoria entre sesiones
Esto es más silencioso pero muy práctico: Opus 4.7 es mejor usando memoria basada en sistema de archivos. Recuerda notas importantes de sesiones largas y las usa como contexto para tareas nuevas, reduciendo el overhead de tener que recontextualizar cada vez.
Si tienes flujos de trabajo multi-sesión (agentes, investigación larga, proyectos de código continuos), esto se siente.
Lo que debes vigilar antes de migrar
El tokenizador cambió
El nuevo tokenizador procesa texto de forma más eficiente, pero el mismo input puede generar entre 0% y 35% más tokens. Suma a eso que el modelo “piensa más” en niveles de esfuerzo altos, generando más tokens de salida. Tus costos podrían subir aunque el precio por token no haya cambiado.
Sigue instrucciones de forma extremadamente literal
Buena noticia si tus prompts son precisos. Mala noticia si heredaste prompts vagos de versiones anteriores. Vale la pena revisar los prompts más críticos antes de cambiar el modelo en producción.
Adiós a temperatura, top_p y top_k
Estos parámetros de muestreo ya no están disponibles. Las llamadas a la API que los incluyan van a devolver errores 400. Si tienes integraciones que los usan, es una migración obligatoria antes de cambiar de modelo.
El elefante en la sala: Mythos
Anthropic fue inusualmente directo al reconocer que Opus 4.7 no es su modelo más capaz — eso sería Mythos Preview, disponible solo para partners seleccionados a través de Project Glasswing. La razón: Mythos tiene capacidades de ciberseguridad tan avanzadas que Anthropic prefiere no lanzarlo de forma general todavía.
Opus 4.7 viene con sus capacidades de ciberseguridad intencionalmente reducidas respecto a Mythos, y con salvaguardas automáticas que bloquean usos de alto riesgo. Los profesionales de seguridad legítimos pueden aplicar al nuevo Cyber Verification Program para acceder a excepciones.
¿Vale la pena migrar ya?
Si haces trabajo de código complejo o agéntico: sí. El salto en SWE-bench Pro no es cosmético, y la capacidad de delegar tareas largas con menos supervisión es el diferenciador más concreto.
Si tienes pipelines en producción: revisa primero. Los cambios en el tokenizador y la eliminación de parámetros de muestreo requieren validación antes de apagar el switch.
Si usas Claude principalmente para conversación o tareas simples: el 4.6 sigue siendo sólido y el impacto en costos de tokens podría no justificar el cambio inmediato.
El precio se mantiene igual que en 4.6: $5 por millón de tokens de entrada / $25 por millón de tokens de salida. Disponible desde hoy en Claude.ai, la API de Anthropic, Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry.
El modelo string para la API es claude-opus-4-7.