28 de marzo de 2026
En el desarrollo de software, a menudo nos enfrentamos a tareas que, aunque sencillas, resultan tediosas: escribir scripts de automatización, comparar estructuras de archivos en diferentes directorios o realizar transformaciones de datos repetitivas. Aunque herramientas en la nube como Claude o GPT-4 son excelentes para tareas complejas, utilizarlas para estos procesos menores implica un consumo innecesario de tokens y una dependencia constante de servicios de pago.
La alternativa más eficiente hoy en día es el uso de modelos de lenguaje locales. Gracias a la integración entre Ollama y el proyecto CLI OpenCode, es posible ejecutar un asistente potente directamente en tu máquina, sin costes de suscripción y con total privacidad.
El primer paso para trabajar en local es conocer la capacidad real de tu equipo. No necesitas una estación de trabajo de última generación para tareas de código básicas, pero sí un mínimo de recursos para que la experiencia sea fluida.
Una herramienta muy recomendable para esto es canirun.ai. Este sitio analiza tus especificaciones técnicas (especialmente la memoria RAM y la VRAM de tu tarjeta gráfica) y te indica qué modelos podrás ejecutar.
Para tareas de automatización y ayuda en el código, la regla general es que un modelo a partir de 7 mil millones de parámetros (7B) suele ser el punto de equilibrio ideal. Son lo suficientemente inteligentes para entender lógica de programación y lo bastante ligeros para correr rápido en hardware doméstico moderno.
En mi caso personal, estoy utilizando actualmente Qwen 2.5 Coder 7B. Para generar pequeños scripts de Python o comparar ficheros JSON de gran tamaño, su respuesta es casi instantánea y la precisión es sorprendente. No obstante, dependiendo de tu hardware (si tienes más de 32GB de RAM o una GPU potente), podrías escalar a modelos de 14B o 32B si buscas un razonamiento más profundo.
Aunque OpenCode permite una configuración manual detallada, la forma más rápida y limpia de conectar tus modelos locales con el asistente es utilizar el puente directo que ofrece Ollama.
Una vez tengas instalado Ollama y hayas descargado tu modelo preferido (por ejemplo, con ollama pull qwen2.5-coder), solo tienes que ejecutar:
ollama launch opencode
Este comando es clave porque automatiza toda la configuración: detecta tu instancia local, establece las variables de entorno necesarias y lanza la interfaz de OpenCode lista para trabajar. Evitas así tener que configurar manualmente proveedores externos o servicios en la nube, manteniendo todo el flujo 100% local.
¿Cuándo merece la pena usar este setup en lugar de una IA comercial? Principalmente en tareas de "baja complejidad pero alta fricción":
La combinación de OpenCode y Ollama no solo es una cuestión de ahorro de costes (que también), sino de agilidad y privacidad. Al delegar las tareas más pesadas y repetitivas a un modelo local de 7B, liberas tu presupuesto de tokens para problemas realmente complejos y mantienes un flujo de trabajo en la terminal mucho más dinámico.