Modelo Lumi o1 Mini
Bienvenido a la documentación de Lumi o1 Mini, el modelo de entrada ágil y eficiente de LunaVerseX. Diseñado para velocidad y rentabilidad, es perfecto para una amplia gama de tareas de procesamiento de lenguaje natural que requieren respuestas rápidas y un uso optimizado de recursos.
Descripción General
Lumi o1 Mini es un modelo de lenguaje fundamental que ofrece un excelente equilibrio entre rendimiento, velocidad y costo. Es ideal para aplicaciones que necesitan generar texto, responder preguntas, resumir información o realizar clasificaciones simples de manera eficiente.
Características Clave:
- Velocidad y Baja Latencia: Optimizado para respuestas rápidas, crucial para aplicaciones interactivas.
- Eficiencia de Costos: Una opción económica para tareas de IA de alto volumen o para proyectos con presupuestos ajustados.
- Versatilidad: Capaz de manejar una variedad de tareas de PNL, desde la generación de texto creativo hasta el análisis básico.
- Fácil Integración: Acceso sencillo a través de nuestra API RESTful estándar.
Especificaciones Técnicas
Para interactuar con Lumi o1 Mini, realizarás solicitudes POST al endpoint /v1/chat/completions
(o un endpoint similar, verificar la documentación general de la API para la URL base exacta).
Parámetros de Solicitud Comunes:
Parámetro | Tipo | Obligatorio | Descripción |
---|---|---|---|
model |
string | Sí | Debe ser "lumi-o1-mini" para usar este modelo. |
messages |
array | Sí | Una lista de objetos de mensaje que describen la conversación hasta el momento. Cada objeto debe tener role ("system", "user", o "assistant") y content (el texto del mensaje). |
max_tokens |
integer | No | El número máximo de tokens a generar en la respuesta. Por defecto: 256. Límite: 2048. |
temperature |
number | No | Controla la aleatoriedad. Valores más bajos (ej. 0.2) hacen la salida más determinista; valores más altos (ej. 0.8) la hacen más creativa. Por defecto: 0.7. Rango: 0.0 - 1.0. |
stream |
boolean | No | Si es true , se enviarán fragmentos de la respuesta a medida que se generan (Server-Sent Events). Por defecto:
false . |
Formato de Respuesta (no-streaming):
Una respuesta JSON típica cuando stream: false
se ve así:
{
"id": "chatcmpl-xxxxxxxxxxxxxxxxxxxxxx",
"object": "chat.completion",
"created": 1700000000,
"model": "lumi-o1-mini",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Aquí va la respuesta generada por Lumi o1 Mini."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 50,
"total_tokens": 75
}
}
Para respuestas en streaming, consulta la guía de integración con Python (streaming).
Ejemplos de Uso
Ejemplo en Python (Solicitud Simple):
import requests
import json
import os
API_KEY = os.getenv("LUNAVERSEX_API_KEY", "TU_API_KEY") # Reemplaza con tu API Key
API_URL = "https://api.lunaversex.com/v1/chat/completions" # Ajusta si la URL base es diferente
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
}
payload = {
"model": "lumi-o1-mini",
"messages": [
{"role": "system", "content": "Eres un asistente útil y conciso."},
{"role": "user", "content": "¿Cuál es la capital de Francia?"}
],
"max_tokens": 50
}
try:
response = requests.post(API_URL, headers=headers, json=payload, timeout=20)
response.raise_for_status() # Lanza una excepción para errores HTTP 4xx/5xx
result = response.json()
assistant_reply = result.get("choices", [{}])[0].get("message", {}).get("content", "No se pudo obtener respuesta.")
print(f"Lumi o1 Mini: {assistant_reply}")
except requests.exceptions.HTTPError as errh:
print(f"Error HTTP: {errh}")
print(f"Respuesta del servidor: {response.text}")
except requests.exceptions.ConnectionError as errc:
print(f"Error de Conexión: {errc}")
except requests.exceptions.Timeout as errt:
print(f"Error de Timeout: {errt}")
except requests.exceptions.RequestException as err:
print(f"Error Inesperado: {err}")
Ejemplo con cURL:
curl -X POST TU_URL_BASE_API/v1/chat/completions \
-H "Authorization: Bearer TU_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "lumi-o1-mini",
"messages": [
{"role": "user", "content": "Escribe un haiku sobre la programación."}
],
"max_tokens": 30
}'
Recuerda reemplazar TU_URL_BASE_API
y TU_API_KEY
con tus valores reales.
Casos de Uso Ideales
Lumi o1 Mini es particularmente efectivo para:
- Chatbots y Asistentes Virtuales: Para respuestas rápidas y conversaciones fluidas.
- Resumen de Texto: Creación de resúmenes concisos de documentos o artículos.
- Clasificación de Texto: Categorizar texto según temas o sentimientos.
- Generación de Contenido Breve: Creación de descripciones de productos, tuits, o ideas para publicaciones.
- Respuesta a Preguntas Simples: Obtener respuestas directas a preguntas factuales.
- Prototipado Rápido: Ideal para experimentar con ideas de IA antes de escalar a modelos más grandes.
Comienza a Construir con Lumi o1 Mini
Integra la velocidad y eficiencia de Lumi o1 Mini en tus aplicaciones hoy mismo.
Obtener API Key Guía de Integración Python