IA Local: Integración de Ollama en OmniMon
Chatea con tu sistema usando lenguaje natural. El nuevo módulo de IA de OmniMon soporta Ollama para inferencia privada y local con capacidades de tool calling.
Por Qué Importa la IA Local
Los proveedores de IA en la nube son potentes, pero traen compromisos: latencia, costo y privacidad. Con la nueva integración de Ollama en OmniMon, tus datos de monitoreo del sistema nunca salen de tu máquina.
Cómo Funciona
OmniMon se conecta a Ollama ejecutándose localmente en localhost:11434. No se necesita clave API — solo instala Ollama y comienza a chatear.
Modelo soportado: llama3.2 (configurable)
El módulo de IA inyecta contexto del sistema en tiempo real en cada prompt:
- Uso actual de RAM (GB usados, total, porcentaje)
- Porcentaje de utilización de CPU
- Top 10 de procesos por consumo de recursos (PID, nombre, memoria, CPU)
- Throughput de red (RX/TX por segundo)
Tool Calling: IA Que Actúa
La IA de OmniMon no solo observa — puede tomar acción. El motor de tool calling soporta tres operaciones:
| Herramienta | Descripción |
|---|---|
kill_process | Terminar un proceso por PID |
kill_by_name | Terminar todos los procesos que coincidan con un patrón |
close_tabs | Cerrar pestañas del navegador por patrón de URL |
Cada llamada a herramienta se valida contra el sistema de seguridad de OmniMon:
- Protección de procesos — Los procesos del kernel,
launchdy servicios del sistema no pueden ser terminados. - Lista de permitidos — Solo herramientas aprobadas pueden ejecutarse.
- Registro de auditoría — Todas las acciones de IA se registran.
Proveedores Soportados
OmniMon v4.1 soporta cinco proveedores de IA:
| Proveedor | Requiere API Key | Ejecución Local |
|---|---|---|
| Ollama | No | Sí |
| OpenAI | Sí | No |
| Anthropic | Sí | No |
| Gemini | Sí | No |
| OpenRouter | Sí | No |
Todas las credenciales se almacenan en el keychain nativo de tu SO — nunca en texto plano.
Cómo Empezar
- Instala Ollama:
brew install ollama(macOS) o visita ollama.com - Descarga un modelo:
ollama pull llama3.2 - Inicia el servidor:
ollama serve - Abre OmniMon y navega al panel de Chat IA
Defensa Contra Inyección de Prompts
Cada mensaje del usuario pasa por el filtro detectPromptInjection() de OmniMon antes de enviarse a cualquier proveedor. Esto previene que prompts maliciosos exploten el sistema de tool calling.