aiollamafeature

IA Local: Integración de Ollama en OmniMon

Chatea con tu sistema usando lenguaje natural. El nuevo módulo de IA de OmniMon soporta Ollama para inferencia privada y local con capacidades de tool calling.

Por Qué Importa la IA Local

Los proveedores de IA en la nube son potentes, pero traen compromisos: latencia, costo y privacidad. Con la nueva integración de Ollama en OmniMon, tus datos de monitoreo del sistema nunca salen de tu máquina.

Cómo Funciona

OmniMon se conecta a Ollama ejecutándose localmente en localhost:11434. No se necesita clave API — solo instala Ollama y comienza a chatear.

Modelo soportado: llama3.2 (configurable)

El módulo de IA inyecta contexto del sistema en tiempo real en cada prompt:

  • Uso actual de RAM (GB usados, total, porcentaje)
  • Porcentaje de utilización de CPU
  • Top 10 de procesos por consumo de recursos (PID, nombre, memoria, CPU)
  • Throughput de red (RX/TX por segundo)

Tool Calling: IA Que Actúa

La IA de OmniMon no solo observa — puede tomar acción. El motor de tool calling soporta tres operaciones:

HerramientaDescripción
kill_processTerminar un proceso por PID
kill_by_nameTerminar todos los procesos que coincidan con un patrón
close_tabsCerrar pestañas del navegador por patrón de URL

Cada llamada a herramienta se valida contra el sistema de seguridad de OmniMon:

  • Protección de procesos — Los procesos del kernel, launchd y servicios del sistema no pueden ser terminados.
  • Lista de permitidos — Solo herramientas aprobadas pueden ejecutarse.
  • Registro de auditoría — Todas las acciones de IA se registran.

Proveedores Soportados

OmniMon v4.1 soporta cinco proveedores de IA:

ProveedorRequiere API KeyEjecución Local
OllamaNo
OpenAINo
AnthropicNo
GeminiNo
OpenRouterNo

Todas las credenciales se almacenan en el keychain nativo de tu SO — nunca en texto plano.

Cómo Empezar

  1. Instala Ollama: brew install ollama (macOS) o visita ollama.com
  2. Descarga un modelo: ollama pull llama3.2
  3. Inicia el servidor: ollama serve
  4. Abre OmniMon y navega al panel de Chat IA

Defensa Contra Inyección de Prompts

Cada mensaje del usuario pasa por el filtro detectPromptInjection() de OmniMon antes de enviarse a cualquier proveedor. Esto previene que prompts maliciosos exploten el sistema de tool calling.