En su primera conferencia de desarrolladores LlamaCon AI, Meta presentó una nueva herramienta llamada Llama API. Esta API, que está en una vista previa limitada, permite a los desarrolladores explorar y experimentar con productos que utilizan diferentes modelos de Llama. Junto con los kits de desarrollo de software (SDK) de Meta, los desarrolladores pueden crear servicios, herramientas y aplicaciones impulsadas por Llama.
Aunque Meta no compartió de inmediato el precio de la API, su lanzamiento es parte de la estrategia de la empresa para mantenerse a la vanguardia en el competitivo mundo de los modelos de inteligencia artificial. Hasta ahora, los modelos de Llama han sido descargados más de mil millones de veces, pero competidores como DeepSeek y Qwen de Alibaba representan un desafío para Meta en su intento de establecer un ecosistema sólido con Llama.
La Llama API ofrece herramientas para ajustar y evaluar el rendimiento de los modelos de Llama, comenzando con el modelo Llama 3.3 8B. Los clientes pueden generar datos, entrenar sus modelos y luego utilizar la suite de evaluación de Meta para probar la calidad de su modelo personalizado. Meta aseguró que no utilizará los datos de los clientes de la Llama API para entrenar sus propios modelos y que los modelos creados con esta API pueden ser transferidos a otros servidores.
Para los desarrolladores que trabajan con los modelos Llama 4, la Llama API ofrece opciones de servicio a través de asociaciones con Cerebras y Groq. Estas opciones “experimentales tempranas” están “disponibles bajo solicitud” para ayudar a los desarrolladores a crear prototipos de sus aplicaciones de inteligencia artificial. Meta también mencionó que espera ampliar las asociaciones con más proveedores para ofrecer aún más opciones para construir sobre Llama.
La compañía planea ampliar el acceso a la Llama API en las próximas semanas y meses.


