Modelo Lumi o1
Descubre Lumi o1, el modelo de lenguaje insignia de LunaVerseX. Ofrece un equilibrio óptimo entre capacidades avanzadas, velocidad de respuesta y eficiencia, convirtiéndolo en la elección ideal para una amplia gama de aplicaciones de inteligencia artificial que demandan alta calidad y rendimiento.
Descripción General
Lumi o1 es un modelo de lenguaje sofisticado y versátil, diseñado para abordar tareas complejas de procesamiento de lenguaje natural con una precisión y coherencia notables. Se sitúa como una solución potente y equilibrada dentro del ecosistema LuminousAI.
Características Clave:
- Rendimiento Superior: Capaz de generar texto de alta calidad, realizar análisis profundos y mantener conversaciones contextuales complejas.
- Equilibrio Óptimo: Ofrece una excelente combinación de potencia de procesamiento, velocidad y eficiencia en el uso de recursos.
- Adaptabilidad Avanzada: Puede ser afinado (fine-tuned) para tareas específicas, logrando un desempeño experto en dominios particulares.
- Capacidades Multitarea: Sobresale en traducción, resumen, respuesta a preguntas complejas, generación de código y más.
Especificaciones Técnicas
Para interactuar con Lumi o1, realizarás solicitudes POST al endpoint /v1/chat/completions
(o similar, consulta la documentación general).
Parámetros de Solicitud Comunes:
Parámetro | Tipo | Obligatorio | Descripción |
---|---|---|---|
model |
string | Sí | Debe ser "lumi-o1" para usar este modelo. |
messages |
array | Sí | Lista de objetos de mensaje (role : "system", "user", "assistant"; content : texto). |
max_tokens |
integer | No | Máximo de tokens en la respuesta. Por defecto: 1024. Límite: 4096. |
temperature |
number | No | Controla la creatividad (0.0-1.0). Por defecto: 0.7. |
stream |
boolean | No | Respuesta en streaming (Server-Sent Events). Por defecto: false . |
top_p |
number | No | Controla la diversidad a través del muestreo nucleus. Por defecto: 1.0. |
Formato de Respuesta (no-streaming):
Una respuesta JSON típica cuando stream: false
:
{
"id": "chatcmpl-yyyyyyyyyyyyyyyyyyyyyy",
"object": "chat.completion",
"created": 1700000100,
"model": "lumi-o1",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Respuesta detallada y coherente generada por Lumi o1."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 50,
"completion_tokens": 150,
"total_tokens": 200
}
}
Para respuestas en streaming, consulta la guía de integración con Python (streaming).
Ejemplos de Uso
Ejemplo en Python (Análisis de Sentimiento):
import requests
import json
import os
API_KEY = os.getenv("LUNAVERSEX_API_KEY", "TU_API_KEY")
API_URL = "https://api.lunaversex.com/v1/chat/completions"
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
}
payload = {
"model": "lumi-o1",
"messages": [
{"role": "system", "content": "Analiza el sentimiento del siguiente texto y responde solo con 'positivo', 'negativo' o 'neutral'."},
{"role": "user", "content": "Estoy absolutamente maravillado con la calidad de este producto, ¡superó todas mis expectativas!"}
],
"max_tokens": 10,
"temperature": 0.1
}
try:
response = requests.post(API_URL, headers=headers, json=payload, timeout=30)
response.raise_for_status()
result = response.json()
sentiment = result.get("choices", [{}])[0].get("message", {}).get("content", "No se pudo determinar.")
print(f"Sentimiento detectado por Lumi o1: {sentiment}")
except requests.exceptions.RequestException as e:
print(f"Error en la solicitud: {e}")
Ejemplo con cURL (Generación de Código):
curl -X POST TU_URL_BASE_API/v1/chat/completions \
-H "Authorization: Bearer TU_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "lumi-o1",
"messages": [
{"role": "system", "content": "Eres un experto programador en Python."},
{"role": "user", "content": "Escribe una función en Python que reciba una lista de números y devuelva la suma de los números pares."}
],
"max_tokens": 200,
"temperature": 0.3
}'
Reemplaza TU_URL_BASE_API
y TU_API_KEY
.
Casos de Uso Ideales
Lumi o1 es una excelente opción para:
- Generación de Contenido de Larga Forma: Artículos de blog, reportes, guiones.
- Sistemas Avanzados de Pregunta-Respuesta (Q&A): Respuestas detalladas basadas en grandes contextos.
- Traducción de Alta Calidad: Traducciones precisas y con matices entre idiomas.
- Generación y Explicación de Código: Creación de fragmentos de código, depuración y explicación de algoritmos.
- Herramientas de Escritura Asistida: Sugerencias de estilo, corrección gramatical avanzada, expansión de ideas.
- Análisis de Datos Complejos: Extracción de insights y patrones de texto no estructurado.
Potencia tus Proyectos con Lumi o1
Descubre el rendimiento y la versatilidad de Lumi o1 para llevar tus aplicaciones al siguiente nivel.
Obtener API Key Ver Documentación Completa