Ctrl+Enter para lanzar
💡 PROPUESTA
🔥 CRÍTICA
Pipeline
Gasto del Proyecto
$0.0000
Tokens Consumidos
0
Presupuesto
Sin límite
Gasto por Agente
Sin datos aún — lanza un pipeline.
💲 Ver tabla de precios por modelo
| Modelo | Provider | Input /1M | Output /1M |
|---|
Agentic OS
Agentic OS
Ingresa tu email y te enviaremos un enlace para restablecer tu contraseña.
Ingresa tu nueva contraseña.
Cronos Agentic OS · v15.0
Cargando...
—
Sin miembros compartidos
Ctrl+Enter para lanzar
💡 PROPUESTA
🔥 CRÍTICA
Pipeline
Gasto del Proyecto
$0.0000
Tokens Consumidos
0
Presupuesto
Sin límite
Gasto por Agente
Sin datos aún — lanza un pipeline.
| Modelo | Provider | Input /1M | Output /1M |
|---|
Inteligencia v10
Selecciona un bloque para ver su contenido.
Revisa el plan antes de gastar tokens y cómputo
Pasos del Workflow
Idea / Objetivo
El pipeline está pausado. Revisa el PRD y decide si continuar.
📋 Product Requirements Document
ID: #— · Timeout: 30 min
Ajusta la configuración y lanza una nueva versión. Se generará un Diff automático al finalizar.
Mantenimiento de Tipos de Agente
Completa los campos para crear el agente
💡 Backstorys detallados (~2000-4000 chars) mejoran significativamente la calidad del output.
Selecciona un workflow o crea uno nuevo
DevOps Research & Assessment — métricas de rendimiento del pipeline
Totales
Umbrales de rendimiento (contexto Cronos):
Los agentes consultan estos documentos automáticamente durante la ejecución.
📎 Arrastra o haz clic para subir documentos al KB (PDF / TXT / MD)
Resultados:
Paso — pausado · Timeout: 30 min
| # | Proyecto / Idea | Estado | Modo | Creado | Tiempo | Costo | Acciones |
|---|
Modelos por defecto del sistema
El cambio se aplica en el siguiente pipeline sin reiniciar.
✨ Modelos personalizados (catálogo)
Agrega cualquier modelo compatible con LiteLLM: DeepSeek, Mistral, Azure, Cohere, etc. Estarán disponibles en el selector de agentes.
💡 Ejemplos de model IDs: deepseek/deepseek-chat · mistral/mistral-large-latest · azure/gpt-4o · cohere/command-r-plus · together/llama-3-70b
El proveedor se configura en la pestaña Proveedores o mediante variables de entorno de LiteLLM.
Registro de Feedback
Sin feedback loops activos
Conocimiento acumulado por Cronos de proyectos anteriores
Cargando lecciones…
Aprendizaje · Chaos · Evals · SRE · Flywheel · Hive Mind · Programación
—
Lecciones aprendidas
—
Tasa de prevención
—
Ahorro por paralelismo
—
Escenarios de caos
Self-Correction Archive — fallos analizados y lecciones guardadas
Pre-Flight Simulation — escenarios de fallo analizados por el Chaos Agent
Dynamic Tooling — herramientas CrewAI generadas y validadas en sesión
Agent Iterations — árbol de pensamiento (thought · action · observation)
Agent Leaderboard — Efficiency Score por rol y modelo
| Rol | Modelo | Runs | Avg Score | Latencia | Costo | ES |
|---|
SRE Monitor — PostgreSQL · Ollama · Índices Vectoriales
🧬 Acumulación de muestras
—
/ — muestras
0% del threshold para auto-exportación
Activar Modelo Fine-Tuned
Modelo activo:
—
Configuración Hot-Reload
Historial de exportaciones
🧠 Inteligencia Colectiva — Hive Mind
—
Reutilizaciones
—
Outputs únicos
—
Proyectos
similitud promedio: —
⚡ Smart Routing
—
🔬 Curación de Dataset
—
Aprobadas
—
Descartadas
—
Retención %
🏅 Top Conocimientos Reutilizados
Sin reutilizaciones aún — ejecuta pipelines para acumular.
Modo Autónomo — workflows ejecutados automáticamente por el scheduler
➕ Nueva Tarea Programada
Ej: 0 2 * * 1 = lunes 02:00 · 0 9 * * * = diario 09:00
0 = siempre pide confirmación
Tareas Programadas
Cargando…
Ejecuciones Recientes
Sin ejecuciones aún
v9_core en PostgreSQL
Score inicial rechazado
Score versión final
Total iteraciones
🔍 Problemas detectados por el Auditor (Modo Corrección Crítica)
✅ Output Final Aprobado (preview)