Published on

CodeStral de Mistral Lidera con Ventana de Contexto de 256k

Autores
  • avatar
    Nombre
    Ajax
    Twitter

El Ascenso de CodeStral de Mistral al Liderazgo

Mistral, a menudo denominada la 'OpenAI europea', ha lanzado una versión actualizada de su modelo de código, CodeStral. Esta nueva iteración ha ascendido rápidamente a la cima de la Copilot Arena, compartiendo el primer puesto con DeepSeek V2.5 y Claude 3.5. Notablemente, la ventana de contexto se ha expandido ocho veces hasta alcanzar una impresionante capacidad de 256k.

Rendimiento y Velocidad Mejorados

El nuevo CodeStral (2501) presume de una arquitectura y un tokenizador más eficientes, lo que ha llevado a una duplicación en la velocidad de generación en comparación con su predecesor. También ha logrado resultados de vanguardia (SOTA) en varios benchmarks y demuestra significativas capacidades de finalización de código (FIM). Según el socio de Mistral, Continue.dev, la versión 2501 marca un paso significativo en el campo de FIM.

Victoria en la Copilot Arena

En la Copilot Arena, una plataforma competitiva para modelos de código, CodeStral 2501 ha asegurado el primer puesto, empatando con Deepseek V2.5 y Claude 3.5 Sonnet. Esto marca una mejora de 12 puntos (1.2%) con respecto a la versión anterior de CodeStral (2405). Si bien modelos como Llama 3.1, Gemini 1.5 Pro y GPT-4o se clasifican más abajo, la ausencia de o1 sugiere que las clasificaciones podrían cambiar con su inclusión.

Detalles de la Copilot Arena

La Copilot Arena se lanzó el pasado noviembre mediante una colaboración entre investigadores de la Universidad Carnegie Mellon y UC Berkeley, junto con LMArena. Funciona de manera similar a la LLM Arena, donde los usuarios plantean problemas y el sistema selecciona aleatoriamente dos modelos para proporcionar salidas anónimas. Luego, los usuarios eligen la salida superior. Como versión específica para código de la LLM Arena, Copilot Arena también sirve como herramienta de programación de código abierto que permite a los usuarios comparar múltiples modelos simultáneamente en VSCode. Actualmente, 12 modelos de código han competido en más de 17,000 batallas.

Resultados SOTA en Múltiples Benchmarks

Mistral también compartió que CodeStral 2501 ha logrado resultados SOTA en varias métricas en pruebas tradicionales como HumanEval. Los modelos seleccionados para la comparación fueron aquellos con menos de 100B parámetros, generalmente considerados fuertes en tareas FIM. Además, la ventana de contexto ha aumentado de 32k en la versión 2405 (22B parámetros) a 256k en la nueva versión. En pruebas que involucran bases de datos Python y SQL, CodeStral 2501 consistentemente se clasificó en primer o segundo lugar en múltiples métricas.

Rendimiento en Lenguajes

CodeStral, que según se informa admite más de 80 idiomas, logró una puntuación promedio de HumanEval del 71.4%, casi 6 puntos porcentuales más alta que el modelo en segundo lugar. También ha alcanzado el estado SOTA en idiomas comunes como Python, C+ y JS, y ha superado el 50% en las puntuaciones del lenguaje C#. Curiosamente, el rendimiento de CodeStral 2501 en Java ha disminuido en comparación con su predecesor.

Rendimiento en FIM

El equipo de Mistral también publicó los datos de rendimiento de FIM para CodeStral 2501, medidos por coincidencia exacta de una sola línea. La puntuación promedio y las puntuaciones individuales de Python, Java y JS mejoran en comparación con la versión anterior y superan a otros modelos como la API FIM de OpenAI (3.5 Turbo). DeepSeek es un competidor cercano. Los resultados de FIM pass@1 muestran tendencias similares.

Disponibilidad

CodeStral 2501 está accesible a través del socio de Mistral, Continue, para su uso en VSCode o IDE de Jetbrains. Los usuarios también pueden implementarlo ellos mismos a través de la API, con un precio de 0.3/0.9 USD o EUR por millón de tokens de entrada/salida.