El chatbot inteligente como nuevo frontend de tu eCommerce
Del clic al chat: cómo los LLM están redefiniendo la experiencia de compra.
Estoy creando un agente de inteligencia artificial para eCommerce. Su objetivo es claro y potente: tomar pedidos y acompañar al cliente en todo el recorrido—desde descubrir productos, armar el carrito, pagar y cerrar la orden.
En un eCommerce tradicional, cada paso vive en una pantalla o pagina. Hoy, gracias a los LLM y las interfaces conversacionales, podemos hacer desaparecer la UI y reemplazarla por una conversación fluida con un bot que entiende el contexto y ejecuta acciones en tiempo real.
¿Cómo encaja en una arquitectura composable?
Solo añadimos un Backend-for-Frontend (BFF) dedicado al bot. Ese BFF se ubica entre el LLM y tu Commerce Engine (Headless), orquestando las llamadas a catálogo, carrito, pagos y órdenes sin tocar la lógica de dominio.
El verdadero reto
No se trata de escalar bases de datos ni de renderizar vistas; el desafío es captar la intención del usuario. La conversación es ambigua y cambiante. Aquí es donde los LLM brillan: desambiguan peticiones y devuelven respuestas útiles sin reglas rígidas.
Flujo operativo
El usuario escribe al bot.
El frontend (chat) envía el mensaje al BFF.
El BFF valida y pide al LLM detectar la intención.
Un orquestador decide el siguiente paso del flujo.
El BFF invoca la API adecuada del commerce engine (buscar, agregar, pagar…).
El bot responde y el ciclo continúa.
La conversación se convierte en el nuevo frontend. LLM + orquestador sustituyen la navegación tradicional por un recorrido guiado por intención y contexto.
Más que código: experiencia
Ahora medimos cosas distintas:
¿El bot entendió a la primera?
¿Respondió antes de que el cliente se aburriera?
¿Qué hizo cuando no entendió el mensaje?
Necesitamos tests conversacionales en CI/CD, prompts versionados y dashboards que midan latencia percibida, tasa de confusión y la robustez de los fallbacks.
Lo que viene
En la próxima edición te contaré cómo lo estoy construyendo: stack de herramientas, decisiones de arquitectura, y los aprendizajes que van saliendo camino.
¡Nos leemos pronto!