Mistral AI se alía con Microsoft y lanza Mistral Large como alternativa europea a ChatGPT

El acuerdo permite a Mistral AI acceder a la infraestructura de IA de Azure para acelerar el desarrollo y la implementación de sus grandes modelos de lenguajes (LLM) de próxima generación. Gracias a ello, la startup acaba de lanzar al mercado dos nuevos productos: un modelo de lenguaje llamado Mistral Large, diseñado para competir con modelos como GPT-4 y Claude 2.

Lectura 5 minutos
29 de febrero 2024

Así funciona Mistral Large

Mistral Large es un modelo de lenguaje avanzado (LLM) que actualmente está disponible a través de la Plateforme y que también lo estará en Azure, «nuestro primer socio de distribución», según explica la misma startup.

La herramienta funciona a través de una API de pago y puede realizar tareas complejas de razonamiento multilingüe, incluida la comprensión, transformación y generación de código de texto. Estas son algunas de sus capacidades:

Habla inglés, francés, español, alemán e italiano con fluidez y nivel nativo, con una comprensión matizada de la gramática y el contexto cultural.

Su ventana contextual de 32.000 tokens permite recuperar información precisa de documentos grandes.

Su seguimiento preciso de instrucciones permite a los desarrolladores diseñar sus políticas de moderación (de hecho, se usó para configurar la moderación a nivel del sistema de le Chat).

Es nativamente capaz de realizar llamadas a funciones. Esto, junto con el modo de salida restringido, implementado en Plateforme, permite el desarrollo de aplicaciones y la modernización de la pila tecnológica a escala.

Acerca de Le Chat

Junto con Mistral Large, la startup presentó a Le Chat, un asistente de chat en versión beta que para funcionar puede utilizar Mistral Large, Mistral Small o un modelo llamado Mistral Next, diseñado para ser breve y conciso.

Como ya explicamos, Mistral Large es el nuevo modelo insignia de lenguaje diseñado para competir con modelos líderes como GPT-4. Mistral Small, en cambio, es un modelo optimizado en cuanto a latencia, coste y velocidad de procesamiento, lo que lo convierte en una solución intermedia. Finalmente, Mistral Next es un prototipo conciso que apunta a ser breve y directo en sus respuestas.

Asociación con Microsoft

La asociación entre Mistral AI y Microsoft se basa en tres pilares:

Microsoft respaldará a Mistral AI con una infraestructura de supercomputación de Azure AI, que ofrece el mejor rendimiento y escala para cargas de trabajo de inferencia y entrenamiento de IA para los modelos emblemáticos de Mistral AI.

Ambas empresas pondrán los modelos premium de Mistral AI a disposición de los clientes a través de los modelos como servicio (MaaS) en el catálogo de modelos de Azure AI Studio y Azure Machine Learning. Además de los modelos OpenAI, el catálogo de modelos ofrece una selección diversa de modelos comerciales y de código abierto. La infraestructura optimizada para IA de Azure y las capacidades de nivel empresarial ofrecen a Mistral AI oportunidades adicionales para promover, vender y distribuir sus modelos a clientes de Microsoft en todo el mundo.

Investigación y desarrollo de IA: Microsoft y Mistral AI explorarán la colaboración en torno a la capacitación de modelos con fines específicos para clientes seleccionados, incluidas las cargas de trabajo del sector público europeo.

Mistral AI: de código abierto a API de pago

Mistral AI se fundó en mayo de 2023 por Arthur Mensch (exingeniero de DeepMind, el laboratorio de investigación de Google), Guillaume Lample y Timothée Lacroix, (ex investigadores científicos de Meta) y batió récord de recaudación logrando alcanzar el status de unicornio en un periodo de 7 meses.

La startup trabaja a través de grandes modelos de lenguaje (LLM, por sus siglas en inglés) que necesitan gran cantidad de potencia de procesamiento informático, igual como lo hace OpenAI, aunque la principal diferencia con esta última es que Mistral se ha enfocado históricamente en prototipos de código abierto. De hecho, a solo 4 meses de su nacimiento, la startup francesa lanzó su primer modelo de lenguaje open source capaz de crear aplicaciones, chatbots y generadores de imágenes, Mistral 7B, y lo puso a disposición de los desarrolladores.

Esto ya no es así. El nuevo lanzamiento de la startup, Mistral Large, funciona a través de una API de pago con precios basados en el uso. El costo actual es de 8 dólares por millón de tokens de entrada y 24 dólares por millón de tokens de salida, donde la tokenización representa pequeños fragmentos de palabras en el ámbito de la inteligencia artificial del lenguaje.

Mistral AI admite ventanas contextuales de 32,000 tokens de forma predeterminada, lo que permite procesar más de 20,000 palabras en inglés. Mistral Large es capaz de procesar inglés, francés, español, alemán e italiano.

En comparación, GPT-4 Turbo, con una ventana de contexto de 128.000 tokens, tiene un precio de 10 dólares por millón de tokens de entrada y 30 dólares por millón de tokens de salida. Esto hace que Mistral Large sea 1,25 veces más económico que GPT-4 Turbo.

Fuente: marketing ecommerce

Path Copy Created with Sketch.
X