releaseainetworkreliability

OmniMon v5.0.1 - Chat IA Mejorado, Historial de Conversación y Telemetría de Red Real

v5.0.1 renueva el chat IA con historial de conversación, PIDs clicables, soporte multi-proveedor, y expone telemetría de red real por proceso desde el backend Rust.

OmniMon v5.0.1

Un patch release cargado de mejoras significativas. v5.0.1 transforma el chat IA de una herramienta de un solo turno en un asistente real con memoria, y conecta la vista de red a telemetría en vivo del backend.

Renovación del Chat IA

El chat IA recibió la mayor atención en esta versión - 7 commits enfocados en hacerlo robusto, confiable y genuinamente útil.

Historial de conversación - Los mensajes ahora persisten entre turnos. La IA recuerda lo que preguntaste antes y puede dar seguimiento al contexto previo. El historial está limitado a 10 mensajes para mantener el uso de tokens eficiente.

Soporte multi-proveedor - Conecta Ollama, OpenAI, Anthropic, OpenRouter o Gemini. Cambia de proveedor al vuelo desde la barra de Configuración IA. Modelo por defecto: meta-llama/llama-3.2-3b-instruct:free vía OpenRouter.

PIDs clicables - Cuando la IA menciona un proceso (ej. “firefox en PID 2841 está usando 3.2GB”), el PID ahora es un enlace clicable que abre el modal de detalles del proceso. Ya no hay que copiar y pegar PIDs.

Superficies duales de chat - La barra de Acciones IA maneja acciones del sistema (matar, cerrar pestañas, inspeccionar), mientras la barra de Configuración IA gestiona ajustes y reglas de alerta. Cada una tiene su propio tooltip explicando su función.

Animación de “pensando” - Animación de puntos parpadeantes estilo Claude Code mientras la IA procesa tu solicitud, con botón de Cancelar si tarda demasiado.

Correcciones de Confiabilidad

El infame bug “error decoding response body” fue eliminado. Cada instancia de resp.json().await inseguro en el backend Rust fue reemplazada con un patrón seguro text() + from_str() que maneja respuestas malformadas, errores 5xx y cuerpos vacíos de forma elegante.

Protección de timeout - Un timeout de 45 segundos en el frontend previene que el chat se quede colgado indefinidamente. Si un modelo es lento o no responde, recibes un mensaje de error claro en vez de un spinner infinito.

Logging de diagnóstico - Logging comprensivo agregado a cada solicitud IA: proveedor, modelo, tamaño de prompt, estatus de respuesta y longitud del cuerpo. Diagnosticar problemas ahora es directo.

Telemetría de Red Real

La vista de red ahora usa datos reales por proceso del backend Rust vía Tauri IPC, en vez de estimaciones solo de pestañas del navegador. El nuevo comando get_network_data expone:

  • Throughput por proceso (bytes entrada/salida)
  • Eventos de conexión recientes (IP, puerto, protocolo)
  • Actualizaciones en tiempo real vía el puente IPC

Los datos de pestañas del navegador siguen disponibles como fallback cuando los datos del backend no están disponibles.

Gestión Inteligente de Pestañas

El comando IA close_tabs ganó un modo de exclusión:

"Cierra todas las pestañas excepto GitHub y YouTube"

La IA ahora entiende patrones excepto, para que puedas limpiar pestañas sin perder las importantes.

Internacionalización Completa

113+ nuevas claves i18n por idioma (EN/ES) cubriendo toda la interfaz del chat IA, descripciones de perfiles, etiquetas de barra de herramientas y botones de sugerencia. La IA incluso responde en tu idioma configurado.

Instalar

# macOS
brew tap chochy2001/omnimon && brew install --cask omnimon

# Linux
curl -fsSL https://get.omnimon.com.mx | bash

# Windows
winget install chochy2001.omnimon

Changelog completo en GitHub