Sistema 24/7 con un modelo de lenguaje + base de conocimiento + integraciones a tu operación.
Diferente a un chatbot tradicional: entiende lenguaje natural y contexto, no palabras clave. Típicamente combina Claude o GPT, RAG sobre tu sitio/CRM, integraciones a WhatsApp Business / Cal.com / CRM, panel de logs y operación mensual de ajuste.
Ver también: RAG (Retrieval Augmented Generation), WhatsApp Business API, LLM (Large Language Model)
Guía pilar →
Modelos que generan contenido nuevo (texto, código, imagen, audio) en lugar de solo clasificar.
Incluye Claude, GPT, Gemini, Llama, Mistral. La diferencia con la IA "clásica" es que produce output original adaptado al contexto en lugar de devolver una respuesta predefinida. Es la base de los agentes y la mayoría de las automatizaciones modernas.
Ver también: LLM (Large Language Model), Agente IA, Fine-tuning
Modelo de lenguaje grande entrenado con texto masivo. Claude, GPT, Gemini son LLMs.
Se mide por tamaño de contexto (cuántos tokens puede leer de una vez), velocidad de respuesta, costo por token y benchmarks de razonamiento. Para empresas chilenas en 2026: Claude 3.5/4 y GPT-4o son los defaults.
Ver también: IA generativa, Tokens, Agente IA
Técnica que conecta un LLM a tu base de conocimiento privada en tiempo real.
En vez de re-entrenar el modelo con tu información (caro, lento, riesgoso), RAG busca fragmentos relevantes en tus documentos cuando llega una consulta y los pasa al modelo como contexto. Es la forma estándar de hacer agentes que saben sobre tu empresa específica.
Ver también: Agente IA, Embeddings, Fine-tuning
Re-entrenar un LLM existente con tu data específica para personalizarlo.
Requiere miles de ejemplos etiquetados, horas de cómputo y mantenimiento continuo. En 95% de los casos para empresas medianas chilenas, RAG + buen prompt es mejor opción que fine-tuning. Solo justifica fine-tuning para tareas muy específicas con dataset robusto.
Ver también: RAG (Retrieval Augmented Generation), LLM (Large Language Model), Embeddings
Representación numérica de texto que permite búsqueda por significado en vez de por palabra.
Convierte cada fragmento de tu documentación en un vector de números. Cuando llega una consulta, se convierte en vector y se buscan los fragmentos más cercanos. Es la base técnica de RAG. Modelos comunes: text-embedding-3 (OpenAI), Voyage AI, Cohere.
Ver también: RAG (Retrieval Augmented Generation), Vector database
Base de datos optimizada para almacenar y buscar embeddings.
Existen distintas opciones según volumen: extensiones para Postgres, motores especializados como Pinecone, Weaviate o Qdrant. Para empresas medianas chilenas con <1M documentos, una extensión sobre Postgres suele ser la opción más eficiente en costo y desempeño.
Ver también: Embeddings, RAG (Retrieval Augmented Generation)
Unidad mínima en que un LLM "ve" el texto. Aproximadamente 0.75 palabras en español.
El precio de los modelos se cobra por tokens (input + output). Un mensaje de WhatsApp típico son 50-200 tokens. Una conversación de soporte completa: 1.000-5.000 tokens. Importa para presupuestar costos a escala.
Las instrucciones que le das al modelo. Define tono, comportamiento y límites.
En un agente IA serio el prompt está versionado (como código), se itera mensualmente sobre transcripts reales y vive en el repositorio del proyecto. Mucho de la calidad del agente depende de la calidad del prompt, no solo del modelo.
Ver también: Agente IA, LLM (Large Language Model)
CLI de Anthropic para desarrollo asistido por IA.
Permite que Claude opere directamente en el codebase: lee, escribe, edita, ejecuta tests. Una pieza central del flow AI-native en equipos que construyen software en 2026.
Ver también: AI-native, LLM (Large Language Model)