Chatbot tradicional vs LLM: diferencias que realmente importan
Cómo funciona un chatbot con clasificación de intents, cómo funciona uno basado en LLM, y cuándo elegir cada enfoque con ejemplos concretos.
Biblioteca
Articulos tecnicos: agentes, arquitectura, herramientas y decisiones de diseno.
Cómo funciona un chatbot con clasificación de intents, cómo funciona uno basado en LLM, y cuándo elegir cada enfoque con ejemplos concretos.
Configura autoMode.environment para que el clasificador conozca tu infraestructura y deje de interrumpirte con falsos positivos.
Un LLM predice el siguiente token más probable. No entiende. Entonces, ¿cómo produce outputs que parecen requerir comprensión real?
Qué es prompt injection, la vulnerabilidad nº1 de OWASP para LLMs, cómo funciona el ataque y cómo proteger tu app desde el inicio.
Cómo construir automatizaciones con IA usando Zapier, Make o n8n. Cinco flujos reales, tabla comparativa y framework para elegir tu primera automatización.
Los guardarrailes evitan que un agente IA borre datos, filtre información o entre en bucles. Aprende qué son y cómo implementarlos con código desde cero.
Aprende a usar un modelo de IA para evaluar automáticamente las respuestas de otro agente. Rúbricas, tipos de evaluación y los errores más frecuentes.
Aprende a configurar Proyectos en Claude desde cero: instrucciones personalizadas, archivos de conocimiento y ejemplos reales para distintos perfiles.
Los modelos de IA fragmentan texto en tokens. El español necesita más que el inglés para lo mismo. Te explico por qué y qué impacto tiene en tus proyectos.
Qué es la temperatura en modelos de lenguaje, cómo afecta las respuestas y elegir el valor según la tarea. Ejemplos con el mismo prompt.
Qué es la ventana de contexto de un modelo de lenguaje, cómo se mide en tokens y prácticas concretas para sacarle partido desde el principio.
Las 6 decisiones de arquitectura para tu primer agente IA en producción: objetivo preciso, memoria, herramientas con mínimo privilegio y supervisión humana.
La metodología que uso para que Claude Code se mejore a si mismo a través de medir, proponer hipótesis, iterar y validar resultados
Skills, hooks, CLAUDE.md: el mapa completo de las 8 herramientas de Claude Code y cuándo usar cada una. Guía práctica para quienes empiezan.
Cómo transformar texto en vectores numéricos y construir búsqueda semántica real. Desde similitud coseno hasta RAG, con diagramas, código TypeScript y ejercicios interactivos.
Los 5 patrones de prompt engineering: zero-shot, few-shot, CoT, role prompting y structured output con código TypeScript real.
MCP (Model Context Protocol) estandariza cómo los agentes de IA se conectan a herramientas externas. Explicación con ejemplos en Python comentados línea a línea.
Cómo construir un RAG de producción con chunking semántico, hybrid search y reranking. Las decisiones reales que determinan si tu sistema recupera bien o falla en silencio.
La IA genera código en segundos pero no conoce tus dependencias. La estrategia de tests que funciona con agentes de programación.
Guía técnica para medir la fiabilidad real de agentes IA en producción: task completion rate, evals deterministas, LLM-as-judge y detección de degradación silenciosa.
El lenguaje que usas afecta cómo razona tu IA. Tres mecanismos concretos por los que TypeScript mejora el código generado por agentes como Claude Code.
El 40% de los proyectos de agentes IA en empresas se cancelarán antes de 2027. Tool loop, prompt injection y MCP explicados sin hype para entender por qué.
Cada vez que el coste de programar cayó, el número de developers creció. Por qué creo que estamos en la mejor era para dedicarse a esto.
Cómo usar Claude Code Hooks para añadir gates de calidad que el modelo no puede saltarse: lint, tests, OpenAPI y seguridad antes de cada commit.
Hay una técnica que permite ejecutar docenas de herramientas en paralelo sin que el modelo vea ningún resultado intermedio. Nadie habla de ella porque está enterrada en la especificación. Cuando la descubras, vas a replantear cómo diseñas cualquier pipeline de agentes.
Los datos muestran que AGENTS.md mal hechos reducen éxito 2% y aumentan costes 20%. Aquí cómo escribir el tuyo correctamente.