La guía de la IA

07 de marzo de 2026

Dedicándome a la tecnología, trabajando con software y manteniendo un blog donde me gusta escribir y lo hago menos de lo que me gustaría, resulta casi imposible no hablar de la Inteligencia Artificial. Durante el último año, la IA ha pasado de ser casi ciencia ficción a inundarlo todo.

Este post, más largo de lo habitual, nace de una necesidad personal: la de poner en orden mis propias notas, investigaciones y aprendizajes. Al final, escribir es la mejor forma que conozco de estructurar las ideas y separar el grano de la paja. Mi intención con esta serie no es venderte la última herramienta de moda, sino bajar a tierra lo que está pasando y cómo podemos entender esta tecnología sin que nos explote la cabeza.

Índice de contenidos

Ni magia, ni robots: Solo computación y patrones

A veces parece que hay una especie de "niebla" mental sobre la IA. Parece que estamos ante un oráculo o un cerebro consciente. Lo que veíamos en las películas se ha hecho realidad, y tenemos entre nosotros un Skynet o HAL de verdad. Pero si abrimos el capó y miramos los engranajes, la realidad es mucho más terrenal.

En esencia, la IA es software diseñado para imitar capacidades humanas, pero con una diferencia fundamental respecto al desarrollo tradicional. Si un programa clásico es una receta rígida donde yo, como programador, defino que "si pasa A, haz B", la IA es un aprendiz de patrones. No necesita que le dé todas las reglas por escrito; ella misma encuentra las regularidades en los datos. Pero ojo, no "piensa". Es pura estadística aplicada a una escala masiva.

¿Por qué ahora?

Algo que solemos ignorar es que las redes neuronales no son una novedad de hace dos años. La idea de imitar las conexiones sinápticas para procesar datos es una teoría que ya se manejaba en los años 50. Entonces, ¿por qué no tuvimos este "boom" hace décadas?

Para que estas redes neuronales "despertaran", han necesitado dos ingredientes que solo coinciden ahora:

¿Qué es un LLM en realidad?

Los modelos de lenguaje que usamos hoy son redes neuronales gigantescas entrenadas para una sola tarea: adivinar la siguiente palabra.

Hasta hace nada, la IA se dedicaba a clasificar: te decía si un correo era spam o si en una foto aparecía un gato. Era IA discriminativa. Lo que ha cambiado las reglas del juego es la IA Generativa.

Como su nombre indica, su superpoder es crear contenido nuevo. Ha pasado de organizar carpetas a ser capaz de redactar un texto, generar una imagen desde cero o, lo que a muchos nos interesa, escribir una función de código que funciona a la primera. No es que "sepa" lo que hace, es que sabe qué palabra o píxel tiene más probabilidades de ir después del anterior.

Los tres pilares de lo que puede generar:

  1. Texto (LLMs): Como ya vimos, son redes neuronales maestras en la probabilidad. No solo escriben poemas; pueden programar software, resumir libros o traducir idiomas captando los matices culturales, no solo palabra por palabra.
  2. Imagen y Arte Visual: Modelos como Midjourney o DALL-E han aprendido la relación entre las palabras y los píxeles. Saben qué aspecto tiene la "luz de atardecer" o el "estilo cyberpunk" y pueden construir una imagen desde cero (píxel a píxel) a partir de una frase.
  3. Multimodalidad (El presente): Esto es lo más nuevo y potente. Es la capacidad de la IA para saltar entre formatos. Por ejemplo, una IA que puede "ver" una foto de tu nevera y "escribir" una receta con lo que hay dentro, o una IA que "escucha" un audio y lo convierte en un vídeo.

¿Qué NO es la IA?

Cómo aprende una máquina?

Imagina que quieres enseñarle a un niño a distinguir entre un perro y un gato. No le das un manual de 500 páginas sobre anatomía felina; simplemente ve un perro y le dices: "Esto es un perro", ve un gato y le dices "Esto es un gato". Aprende por repetición y asociación.

Con la IA pasa exactamente lo mismo:

  1. Entrenamiento: Le "alimentamos" con millones de ejemplos (textos, fotos, códigos).
  2. Patrones: La máquina nota que los gatos suelen tener orejas puntiagudas y los perros hocicos más largos.
  3. Predicción: Cuando le enseñas una foto nueva, no "sabe" qué es, pero dice: "Hay un 98% de probabilidades de que esto sea un gato".

El espejo humano: El sesgo que nos complica la vida

Aquí entra un tema que me parece clave para entender por qué a veces nos frustramos con estas herramientas. En los años 60, Joseph Weizenbaum creó ELIZA, un chatbot básico que imitaba a un terapeuta. Weizenbaum lo programó para imitar a un terapeuta rogeriano (una técnica de psicología que consiste en devolverle al paciente sus propias palabras).

Se quedó horrorizado al ver que la gente se abría emocionalmente con la máquina, creyendo que los entendía.

Tenemos una tendencia innata a humanizar la tecnología (antropomorfismo). Si algo nos responde con lenguaje fluido, nuestro cerebro asume que "hay alguien ahí". Nos enfadamos con el chat o le hablamos con rodeos. El problema es que, al tratarla como a un humano, perdemos la especificidad operativa. Olvidamos que estamos ante una herramienta de cálculo y no ante un oráculo.

Para sacarle partido de verdad a la IA, el primer paso es romper ese espejo: menos charla y más instrucciones precisas. No pienses que "entiende" tu problema, cuando en realidad sólo está haciendo estadística avanzada para darte la respuesta más probable. Entender esto es la clave para saber como sacarle partido, tratándola como lo que es: una herramienta.

Capítulo 2. El Diccionario de Supervivencia

En el post anterior hablábamos de que la IA no es magia, sino computación y patrones. Pero para movernos con soltura en este ecosistema y, sobre todo, para no frustrarnos cuando las cosas no salen como esperamos, necesitamos hablar el mismo idioma que la máquina.

Para manejar la IA con criterio, no basta con saber qué botones pulsar. Necesitas entender los mecanismos que definen su comportamiento. Si ignoras estos conceptos, estarás usando la herramienta a ciegas.

1. El Token: La unidad de medida

La IA no procesa palabras completas como nosotros; trocea el texto en tokens. Un token puede ser una palabra corta, una sílaba o incluso un signo de puntuación.

¿Por qué te importa? Porque todo en este mundo se mide en tokens: desde la capacidad de respuesta hasta lo que te cobran por las APIs. Si entiendes que la IA "trocea" la información, entenderás por qué a veces le cuesta tanto contar letras de una palabra o hacer rimas perfectas: ella no ve letras individuales, ve bloques de datos.

2. La Ventana de Contexto: No es un pozo sin fondo

Este es, probablemente, el concepto más crítico. La Ventana de Contexto es la "memoria de trabajo" o la capacidad de atención de la IA en una sola sesión. Imagina que es una mesa de escritorio: cuando la mesa se llena, para poner un papel nuevo tienes que tirar uno de los que ya estaban.

3. Embeddings: El carnet de identidad de tus datos

Si la Ventana de Contexto es nuestra "mesa de trabajo", los Embeddings son el sistema de archivado inteligente que nos permite no saturarla.

Para que una IA entienda la relación entre las ideas, utiliza estos "embeddings": una lista de números (vectores) que sitúa cada frase en un mapa gigante de miles de dimensiones. Para entenderlo como desarrolladores, bajémoslo a un ejemplo de solo 3 coordenadas: [¿Es software?, ¿Es una base de datos?, ¿Es un animal?]

¿Por qué te importa esto en la práctica? Piensa en cuando subes un PDF a una IA. La IA no "lee" las 200 páginas cada vez que le preguntas algo. Lo que hace es:

  1. Trocear el PDF en párrafos.
  2. Generar el embedding (las coordenadas) de cada párrafo.
  3. Cuando preguntas algo, busca qué trozos del PDF tienen las coordenadas más parecidas a tu duda y solo le pasa esos trozos a la Ventana de Contexto.

Es la base de lo que llamamos RAG: buscar por "sentido común" matemático para ahorrar tokens y ganar precisión.

4. Alucinaciones: Cuando la probabilidad falla

La IA Generativa es una máquina de predecir la siguiente palabra más probable. No tiene una base de datos de "verdades".

5. Parámetros: El tamaño del "cerebro"

Seguro que has oído que X modelo tiene "billones de parámetros". Un parámetro es, básicamente, una conexión ajustable en la red neuronal (como los cables en un cuadro de conexiones).

6. Temperatura: ¿Robot o Artista?

Aunque a veces está oculto en la interfaz, la mayoría de los modelos tienen un ajuste de Temperatura.

7. El RAG: ¿Cómo aprende la IA sobre tus datos?

Seguramente has probado herramientas como NotebookLM o le has subido un PDF a ChatGPT y te has sorprendido: de repente, la IA sabe todo sobre ese documento técnico de 50 páginas y sus respuestas se "acotan" estrictamente a lo que pone ahí. No se inventa cosas de internet, se centra en tus datos.

¿Cómo es posible? ¿Ha "estudiado" la IA tu documento y se lo ha aprendido para siempre? No. Lo que estás viendo en acción es una técnica llamada **RAG (Retrieval-Augmented Generation

Para entender el RAG, olvida la idea de que la IA "aprende". Imagina que la IA es un profesor superdotado que sabe de todo, pero al que le pides que haga un examen sobre un proyecto tuyo que él nunca ha visto.

  1. Sin RAG (Entrenamiento): Sería como obligar al profesor a memorizar tu proyecto antes del examen. Es costoso, lento y, si mañana cambias una frase del proyecto, el profesor ya tiene información obsoleta en su cabeza.

  2. Con RAG: Es como si el profesor fuera al examen con tus apuntes en la mano. No necesita memorizarlos; simplemente, cuando le haces una pregunta, él busca rápidamente en los apuntes, lee el párrafo relevante y te responde usando su inteligencia pero basándose solo en lo que pone el papel.

¿Cómo funciona el RAG por dentro?

Cuando subes ese PDF, el sistema hace tres cosas en milisegundos:

¿Por qué herramientas como NotebookLM parecen "acotarse" tanto?

Te habrás fijado en que si le preguntas a NotebookLM algo que no está en tus archivos, a veces te dice: "No puedo responder porque esa información no aparece en los documentos".

Esto no es porque la IA se haya vuelto "tonta" o haya olvidado lo que sabía. Es porque el sistema RAG tiene una instrucción de seguridad muy estricta: priorizar siempre el libro que tiene abierto. Esto es lo que nos da la seguridad de que la IA no va a "alucinar" o inventarse datos basándose en información genérica de internet.

Capítulo 3. El Traductor Universal

Si has seguido los posts anteriores, ya tienes claro que la IA no es un oráculo, sino un procesador de patrones. Pero aquí es donde la cosa se pone interesante: ¿Cómo es posible que un "Modelo de Lenguaje" (LLM) sea capaz de escribir una función en Python, diseñar un mapa web en Leaflet o generar una imagen de un astronauta a caballo?

La respuesta corta es que, para una IA, todo es lenguaje. Pero vamos a desglosarlo un poco mejor, porque entender esto es lo que te permite pasar de "jugar" con la IA a usarla como una herramienta de ingeniería real.

1. El código como arquitectura lógica

Para nosotros, programar es crear lógica. Para un LLM, aprender a programar no ha sido muy distinto a aprender inglés o gallego. El código tiene una sintaxis, una gramática y, sobre todo, una estructura previsible.

La IA ha sido entrenada con casi todo el código público que existe (pensemos en el volumen de datos de GitHub). Lo que hace no es "entender" informática, sino entender la secuencia lógica. Sabe que después de un if suele venir una condición y, tras ella, una indentación con una instrucción. Al ser un entorno tan rígido y con reglas tan claras, a la IA le resulta más fácil ser precisa programando que escribiendo poesía.

2. ¿Por qué algunos modelos programan mejor que otros?

No es que unos sean "más listos" que otros, es una cuestión de dieta de datos.

3. Imágenes y Vídeo: Traduciendo palabras a píxeles

Aquí es donde ocurre lo que llamamos multimodalidad. Al principio, esto era como un juego de teléfonos descompuestos: tenías un modelo que entendía el texto y le pasaba la orden a otro que generaba la imagen.

Hoy, los modelos más potentes son nativos multimodales. Desde el minuto uno de su entrenamiento, han visto imágenes y han leído sus descripciones simultáneamente. Han aprendido que el concepto lingüístico "atardecer" está vinculado a ciertos patrones de color y degradados de píxeles. Ya no "traducen" de un idioma a otro; entienden el mundo en ambos formatos de forma nativa.

4. La trampa del dibujo: ¿Por qué la IA no sabe cuántos dedos tiene una mano?

Seguro que has visto esas imágenes con manos de seis dedos. Esto explica perfectamente por qué la IA no tiene un modelo mental de la realidad. Ella no sabe qué es una "mano" ni para qué sirve; solo sabe que en las fotos etiquetadas como "mano" suele haber formas alargadas de color carne. Si estadísticamente el patrón es confuso, el resultado visual también lo será.

5. ¿Por qué unos modelos son más rápidos que otros?

A veces te encuentras con modelos que parecen un rayo y otros que escriben a paso de tortuga. Esto depende del número de parámetros (el tamaño del "cerebro") y del hardware que tengan detrás.

Entender que la IA es un motor de razonamiento estadístico cambia la forma en la que le pides las cosas. Si le pides código, dale la estructura. Si le pides una imagen, describe los patrones. No estás hablando con un artista ni con un colega senior; estás interactuando con un traductor universal de patrones que es tan bueno como la información con la que lo alimentas.

Capítulo 4. Instrucciones operativas (Prompting)

Si has llegado hasta aquí, ya sabes que la IA no te "entiende" en el sentido humano de la palabra; lo que hace es procesar una instrucción y calcular la respuesta más probable basándose en su entrenamiento. Por eso, el "arte" de dar instrucciones (que algunos llaman pomposamente Prompt Engineering) no consiste en ser educado, sino en ser meticuloso.

En mi día a día con el código o los mapas, si una consulta SQL no devuelve lo que quiero, no me enfado con la base de datos; reviso la sintaxis. Con la IA hay que aplicar la misma mentalidad.

1. Rompe el espejo: De la conversación a la instrucción

El mayor error es tratar el chat como una charla de café. Escribir "Oye, ¿sería posible que quizás me ayudaras a resumir esto si no es mucha molestia?" solo añade ruido innecesario a la ventana de contexto.

La IA no necesita cortesía, necesita parámetros. Pasa de la "charla" a la instrucción operativa. Sé directo. Usa verbos de acción: "Resume", "Analiza", "Escribe", "Extrae".

2. La anatomía de un prompt profesional

Para que una instrucción sea robusta, yo suelo usar una estructura de tres capas:

3. La técnica de la "Cadena de Pensamiento"

Como vimos en el post anterior, algunos modelos programan mejor porque "piensan" antes de hablar. Tú puedes forzar ese comportamiento en cualquier modelo usando una técnica sencilla: pídele que razone paso a paso.

Si le lanzas un problema complejo de golpe, es más fácil que alucine. Si le dices: "Analiza el problema, desglósalo en pasos lógicos y, finalmente, dame la solución", la probabilidad de éxito aumenta drásticamente. Estás obligando a la red neuronal a seguir un camino lógico trazable.

4. El "Few-Shot": Enseñar con ejemplos

A veces, una descripción no basta. Si quieres que la IA escriba con un estilo concreto o clasifique datos de una forma específica, dale ejemplos.

Es la forma más rápida de que la IA capte el patrón que buscas sin tener que escribir un manual de instrucciones infinito que sature los tokens de la sesión.

5. Itera: El prompt perfecto no existe a la primera

En el desarrollo de software, raramente algo funciona a la primera versión. Con el prompting es igual.

Dominar el prompting no es aprenderse "fórmulas mágicas", es aprender a comunicarte con una máquina de forma estructurada. Es, en esencia, volver a ser un poco artesano de la palabra para obtener resultados de ingeniería.

Capítulo 5. Las Herramientas de Desarrollo de Software

Si eres de los que, como yo, empezó usando la IA solo para preguntarle cómo centrar un div o para que te explicara una función compleja de PostgreSQL, tengo que decirte que te estás quedando en la superficie. En los últimos meses, el ecosistema ha dado un salto gigante: hemos pasado de "hablar con la IA" a "integrar la IA en nuestro entorno de desarrollo".

Como ingeniero, siempre busco soluciones que resuelvan problemas reales. Y aquí el problema real es la fricción: copiar código del chat, pegarlo en el editor, ver que falla porque la IA no conoce mi base de datos, y volver a empezar. Para resolver esto, han aparecido tres conceptos clave: Agentes, Skills y el protocolo MCP.

El Agente: El "Cerebro" con iniciativa

Un chat normal es pasivo: tú preguntas, él responde. Un Agente es un modelo de lenguaje al que le hemos dado un objetivo y autonomía para usar herramientas.

MCP: El protocolo que lo cambia todo

Hace poco escribí en el blog sobre cómo conectar PostgreSQL a un agente de IA mediante MCP (Model Context Protocol)

Los MCP son, en esencia, canales de comunicación entre los modelos de IA y herramientas externas.

Las Skills (Herramientas): Las "Manos" del agente

Una de las dudas más comunes es cómo "aprende" la IA a hacer cosas nuevas. Las Skills (o herramientas) no son algo que la IA traiga de serie (aunque algunas sí) por "saber mucho", sino funciones que tú, como desarrollador, tienes que habilitar o programar.

Podemos dividirlas en tres niveles según su origen:

1. Skills Nativas (Las que ya vienen "instaladas")

Muchas herramientas de IA (como ChatGPT, Claude o Gemini) ya traen herramientas de serie. Por ejemplo, el acceso a internet, la ejecución de código Python en un entorno seguro (Code Interpreter) o la generación de imágenes.

2. Skills de Ecosistema (Marketplace de conectores)

Aquí es donde entra lo que comentábamos del MCP. Existe ya un ecosistema de servidores MCP creados por la comunidad.

Los MCP dotan a los modelos de IA de nuevas Skills.

3. Skills a medida (Las que tú programas)

Si necesitas que la IA haga algo muy específico de tu flujo de trabajo (por ejemplo, "publicar este borrador en mi blog de Hugo"), tienes que crear la Skill tú mismo.

¿Cómo encaja todo esto? (Ejemplo práctico)

Imagina que estás trabajando en un mapa con Leaflet. Quieres añadir marcadores desde una base de datos:

  1. El Agente es tu interlocutor.
  2. El MCP es el puente que le permite leer tu base de datos PostgreSQL local.
  3. La Skill es la capacidad que le has dado para "escribir en el archivo mapa.js".

Tú solo dices: "Añade al mapa los puntos de la tabla 'eventos' de mi base de datos". El Agente usa el MCP para consultar la tabla, procesa los datos y usa su Skill de escritura para actualizar tu código.

Instrucciones persistentes: Los archivos .md y ficheros de configuración

Si estamos tratando de ser meticulosos y evitar la "charla" innecesaria, no tiene sentido repetirle nuestras preferencias a la IA en cada nuevo chat. Aquí es donde entran los archivos de configuración de contexto, como los ai.mdagents.md o los .cursorrules.

Capítulo 6. Estrategia de modelos: ¿A quién le pides cada tarea?

A estas alturas de la guía, ya tienes el entorno configurado y sabes cómo dar instrucciones. Pero te falta lo más importante para el día a día: saber qué modelo elegir. Hoy en día no hay una sola "IA"; hay un catálogo creciente de modelos con especialidades muy distintas.

Si intentas resolver un problema de lógica compleja con un modelo rápido, te dará una respuesta errónea con mucha seguridad. Si usas un modelo pesado para corregir una falta de ortografía, estás matando moscas a cañonazos. Vamos a poner orden en este ecosistema.

1. Modelos de Razonamiento (O-series / "Deep Thinking")

Estos son los modelos "lentos" por diseño (como la serie o1 o los nuevos modelos de pensamiento profundo). Su característica principal es que utilizan una cadena de pensamiento interna antes de escribir la primera palabra.

2. Modelos de Desarrollo (Coding Assistants)

Aunque los generalistas programan bien, existen versiones optimizadas para el código (como los que alimentan a Cursor o versiones específicas "Coder"). Estos modelos han tenido una dieta de entrenamiento basada en repositorios de alta calidad y entienden mejor la jerarquía de un proyecto.

3. Modelos "Flash" o Ligeros (Velocidad y Eficiencia)

Son los modelos pequeños (como GPT-4o-mini, Claude Haiku o Gemini Flash). Tienen menos parámetros, lo que los hace increíblemente rápidos y económicos en términos de tokens.

4. Modelos de Gran Contexto (La memoria infinita)

Hay modelos específicos que destacan por tener una Ventana de Contexto gigantesca (capaces de leer libros enteros o repositorios completos de una vez).

Capítulo 7. Conclusiones y el camino a seguir

Después de haber desgranado desde qué es un token hasta cómo orquestar agentes con MCP, toca hacer una pausa y mirar el mapa completo. Escribir esta serie me ha servido para poner orden a mis investigaciones, pero sobre todo para reafirmar algunas convicciones sobre cómo debemos afrontar este cambio quienes nos dedicamos a la tecnología.

Estas son mis conclusiones tras meses de "cacharrreo", pruebas y algún que otro error de concepto:

1. La comprensión es tu mejor herramienta

No basta con saber qué botones pulsar. Entender cómo funciona la IA por dentro, su naturaleza estadística, sus límites de contexto y por qué alucina, es lo que marca la diferencia entre quien se frustra y quien sabe trabajar con ella. Como en cualquier otra rama de la ingeniería, conocer los cimientos te permite construir estructuras mucho más sólidas. Si sabes por qué la IA se equivoca, sabrás cómo corregir la instrucción para que no vuelva a suceder.

2. Solo estamos rascando la superficie

Lo que hoy nos parece revolucionario, como el Model Context Protocol (MCP) que os comentaba hace unos días, probablemente sea solo el estándar básico de mañana. Estamos en una fase muy temprana de esta tecnología.

3. Orquestación frente a monopolio

Si algo me preocupa de este "boom" es la tendencia a quedarnos atrapados en un solo ecosistema. Ahora más que nunca, es vital huir del vendor lock-in.

Reflexión final

La IA no ha venido a sustituir nuestra capacidad de pensar, sino a amplificar nuestra capacidad de hacer. Seguimos siendo artesanos e ingenieros de la tecnología , y nuestra labor sigue siendo la misma: resolver problemas reales con las mejores herramientas a nuestro alcance. La IA es solo un nuevo martillo, muy potente, pero que requiere una mano experta que sepa dónde golpear.

Espero que esta guía te haya servido para despejar un poco la niebla y empezar a usar estas herramientas con más criterio y menos miedo. Nos vemos en los próximos posts, seguramente probando alguna nueva "skill" o integrando mapas en algún flujo de trabajo que hoy ni siquiera imaginamos.

← Volver al blog