Modelo Lumi o1 Mini

Bienvenido a la documentación de Lumi o1 Mini, el modelo de entrada ágil y eficiente de LunaVerseX. Diseñado para velocidad y rentabilidad, es perfecto para una amplia gama de tareas de procesamiento de lenguaje natural que requieren respuestas rápidas y un uso optimizado de recursos.

Descripción General

Lumi o1 Mini es un modelo de lenguaje fundamental que ofrece un excelente equilibrio entre rendimiento, velocidad y costo. Es ideal para aplicaciones que necesitan generar texto, responder preguntas, resumir información o realizar clasificaciones simples de manera eficiente.

Características Clave:

  • Velocidad y Baja Latencia: Optimizado para respuestas rápidas, crucial para aplicaciones interactivas.
  • Eficiencia de Costos: Una opción económica para tareas de IA de alto volumen o para proyectos con presupuestos ajustados.
  • Versatilidad: Capaz de manejar una variedad de tareas de PNL, desde la generación de texto creativo hasta el análisis básico.
  • Fácil Integración: Acceso sencillo a través de nuestra API RESTful estándar.

Especificaciones Técnicas

Para interactuar con Lumi o1 Mini, realizarás solicitudes POST al endpoint /v1/chat/completions (o un endpoint similar, verificar la documentación general de la API para la URL base exacta).

Parámetros de Solicitud Comunes:

Parámetro Tipo Obligatorio Descripción
model string Debe ser "lumi-o1-mini" para usar este modelo.
messages array Una lista de objetos de mensaje que describen la conversación hasta el momento. Cada objeto debe tener role ("system", "user", o "assistant") y content (el texto del mensaje).
max_tokens integer No El número máximo de tokens a generar en la respuesta. Por defecto: 256. Límite: 2048.
temperature number No Controla la aleatoriedad. Valores más bajos (ej. 0.2) hacen la salida más determinista; valores más altos (ej. 0.8) la hacen más creativa. Por defecto: 0.7. Rango: 0.0 - 1.0.
stream boolean No Si es true, se enviarán fragmentos de la respuesta a medida que se generan (Server-Sent Events). Por defecto: false.

Formato de Respuesta (no-streaming):

Una respuesta JSON típica cuando stream: false se ve así:


{
  "id": "chatcmpl-xxxxxxxxxxxxxxxxxxxxxx",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "lumi-o1-mini",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Aquí va la respuesta generada por Lumi o1 Mini."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 50,
    "total_tokens": 75
  }
}
                        

Para respuestas en streaming, consulta la guía de integración con Python (streaming).

Ejemplos de Uso

Ejemplo en Python (Solicitud Simple):


import requests
import json
import os

API_KEY = os.getenv("LUNAVERSEX_API_KEY", "TU_API_KEY") # Reemplaza con tu API Key
API_URL = "https://api.lunaversex.com/v1/chat/completions" # Ajusta si la URL base es diferente

headers = {
    "Authorization": f"Bearer {API_KEY}",
    "Content-Type": "application/json"
}

payload = {
    "model": "lumi-o1-mini",
    "messages": [
        {"role": "system", "content": "Eres un asistente útil y conciso."},
        {"role": "user", "content": "¿Cuál es la capital de Francia?"}
    ],
    "max_tokens": 50
}

try:
    response = requests.post(API_URL, headers=headers, json=payload, timeout=20)
    response.raise_for_status() # Lanza una excepción para errores HTTP 4xx/5xx
    
    result = response.json()
    assistant_reply = result.get("choices", [{}])[0].get("message", {}).get("content", "No se pudo obtener respuesta.")
    print(f"Lumi o1 Mini: {assistant_reply}")

except requests.exceptions.HTTPError as errh:
    print(f"Error HTTP: {errh}")
    print(f"Respuesta del servidor: {response.text}")
except requests.exceptions.ConnectionError as errc:
    print(f"Error de Conexión: {errc}")
except requests.exceptions.Timeout as errt:
    print(f"Error de Timeout: {errt}")
except requests.exceptions.RequestException as err:
    print(f"Error Inesperado: {err}")
                        

Ejemplo con cURL:


curl -X POST TU_URL_BASE_API/v1/chat/completions \
-H "Authorization: Bearer TU_API_KEY" \
-H "Content-Type: application/json" \
-d '{
  "model": "lumi-o1-mini",
  "messages": [
    {"role": "user", "content": "Escribe un haiku sobre la programación."}
  ],
  "max_tokens": 30
}'
                        

Recuerda reemplazar TU_URL_BASE_API y TU_API_KEY con tus valores reales.

Casos de Uso Ideales

Lumi o1 Mini es particularmente efectivo para:

  • Chatbots y Asistentes Virtuales: Para respuestas rápidas y conversaciones fluidas.
  • Resumen de Texto: Creación de resúmenes concisos de documentos o artículos.
  • Clasificación de Texto: Categorizar texto según temas o sentimientos.
  • Generación de Contenido Breve: Creación de descripciones de productos, tuits, o ideas para publicaciones.
  • Respuesta a Preguntas Simples: Obtener respuestas directas a preguntas factuales.
  • Prototipado Rápido: Ideal para experimentar con ideas de IA antes de escalar a modelos más grandes.

Comienza a Construir con Lumi o1 Mini

Integra la velocidad y eficiencia de Lumi o1 Mini en tus aplicaciones hoy mismo.

Obtener API Key Guía de Integración Python