


La noticia de que OpenAI ”aparca” Instant Checkout resulta, paradójicamente, una buena señal para el eCommerce. No porque la compra conversacional haya muerto (todo lo contrario), sino porque confirma algo que muchos intuíamos: el valor inmediato de estos asistentes está más en descubrir, comparar y orientar… y menos en “cerrar el pago” dentro del chat.
Según los análisis publicados, OpenAI habría decidido dar marcha atrás con Instant Checkout tras meses de pruebas, manteniendo el foco en que el customer journey empiece en ChatGPT, pero termine en las apps o webs del merchant (y, a la vez, seguir explorando un marco más amplio de ”agentic commerce” con protocolos e integraciones).
Que no haya checkout “embebido” no significa que la IA deje de recomendar. Al contrario: si el objetivo es derivar tráfico “valioso” al merchant, la batalla se traslada a lo que de verdad importa para una marca:
En otras palabras: el nuevo terreno de juego no es “pago en ChatGPT”, es discovery en chat.
Los eCommerce modernos están optimizados para personas… y para ciertos crawlers. Pero para un LLM, una web real puede ser ruido: demasiados bloques, demasiado HTML, experiencias dinámicas, enlaces redundantes, y un montón de páginas que no aportan valor a la decisión.
Aquí es donde empiezan a tener sentido los estándares emergentes que facilitan “explicar” un sitio a los modelos. Uno de los más prácticos es /llms.txt, una propuesta que plantea ofrecer una guía en formato Markdown con el contenido y enlaces más útiles para que los LLMs entiendan mejor la tienda y enlacen a lo correcto justo cuando el usuario está decidiendo.
La idea es simple y potente: igual que un sitemap ayuda a motores de búsqueda, un llms.txt ayuda a motores generativos a orientarse sin perderse.
Que se abre una oportunidad muy pragmática: ser más visible en el momento en el que nace la intención (investigación y comparación), sin sustituir SEO ni Paid, sino complementándolos.
Pero para jugar bien esta partida no basta con “estar online”. Hay que informar mejor a estos sistemas:
Que OpenAI replantee Instant Checkout no es un paso atrás en comercio conversacional: es una maduración del enfoque. La compra es compleja (fiscalidad, fraude, inventario, devoluciones…), y tiene sentido que el cierre siga viviendo donde el merchant controla la experiencia y el cumplimiento.
Lo que sí parece claro es que el asistente seguirá siendo un gran “front door” del ecommerce. Y si ese es el nuevo punto de entrada, preparar la casa deja de ser opcional.
En WAM llevamos tiempo trabajando en esta línea y por eso creamos un acelerador para SFCC B2C (y también disponible para otros ecosistemas como Magento) que automatiza la generación de ficheros tipo llms.txt / llms-full.txt siguiendo el estándar emergente (llmstxt.org), con control editorial (productos destacados), límites para evitar contenidos excesivos y soporte multi-idioma/mercado.
No es “magia” ni promete atajos: es una capa técnica que ayuda a que los LLMs y AI browsers entiendan mejor el eCommerce y enlacen a lo relevante, justo donde hoy se decide buena parte del tráfico cualificado.
La conversación está cambiando. El checkout puede seguir donde siempre… pero la decisión cada vez empieza más arriba y más conversacional.
Si tu tienda no está preparada para este canal, te arriesgas a algo muy simple: no aparecer cuando el usuario pregunta.
Y ahí la frase es tan cruda como realista: si no lo preparas, no compites.
Si te interesa explorar cómo activar este enfoque en SFCC B2C o Magento, con un piloto controlado y medición progresiva (sin prometer atribución perfecta desde el día 1), lo vemos.