
El problema no es el mecanismo de migración. El problema es lo que se intenta migrar.
El 2 de marzo, Anthropic lanzó claude.com/import-memory con una lógica simple: dile a ChatGPT que liste todo lo que sabe de ti, copia la respuesta, pégala en Claude. Sin archivos, sin APIs, sin configuración técnica. Un prompt.
Yuchen Jin (@Yuchenj_UW), investigador en UW, lo probó ese mismo día. “Wait, so you can extract your entire ChatGPT memory and migrate to Claude with one simple prompt like this??? I thought this should be more complicated.” 242,000 impresiones. 648 bookmarks. El hilo que siguió fue más revelador que el anuncio.
Anatomía de una “memoria” de IA
Antes de hablar de lo que se porta, hay que entender qué son estas memorias en términos reales.
Los sistemas de memoria de ChatGPT y Claude funcionan así: el modelo observa la conversación, extrae señales sobre el usuario, y las guarda como notas de texto. Preferencias de formato. Contexto profesional. Detalles personales mencionados de paso.
No hay modelado semántico del usuario. No hay representación de cómo piensa o decide. No hay estado activo de proyectos en curso. Son bullets de texto plano, escritos en lenguaje natural, consultados en cada conversación.
El prompt de Anthropic le pide a ChatGPT que liste esas notas. ChatGPT las lista. El usuario las pega en Claude.
La migración funciona. El resultado es lo que reveló Yuchen: cuatro memorias. Superficiales. Bastante irrelevantes. No por falla del proceso, sino porque eso era todo lo que había.
El sistema de memoria actual no fue diseñado para ser valioso
Ese es el punto que el hilo no terminó de articular.
La memoria actual de estos modelos captura preferencias de superficie porque fue diseñada para reducir fricción conversacional, no para modelar al usuario. “Prefiere respuestas cortas” existe para que el modelo no tenga que preguntar el tono cada vez. “Trabaja en marketing” existe para que las respuestas usen ejemplos relevantes.
Eso resuelve un problema de UX. No construye un activo portable de valor real.
Para que la portabilidad de contexto entre AIs sea materialmente útil, las memorias tendrían que capturar cosas distintas: proyectos con estado y dependencias activas, patrones de razonamiento y toma de decisiones, historial de iteraciones en un problema, relaciones entre áreas de trabajo.
Ese tipo de representación no existe en ninguna plataforma de consumo masivo hoy. Y hay una razón sistémica para eso.
El incentivo paradójico del sector
Mientras las memorias sean débiles, las plataformas no tienen mucho que perder al facilitar su exportación.
Anthropic lo entendió y lo convirtió en posicionamiento. El mensaje implícito de claude.com/import-memory es: “No necesitamos encerrarte. Ganamos porque somos mejores.” Y de paso, Claude permite exportar sus propias memorias también, un detalle que no era necesario para el anuncio pero que Anthropic incluyó.
El problema es que este gesto es fácil precisamente porque lo que se exporta vale poco.
Cuando las memorias sean lo suficientemente ricas para capturar cómo trabaja alguien de verdad, los incentivos se invierten. Ese contexto acumulado se vuelve un activo de retención real. Y la tentación de protegerlo es directamente proporcional a su valor.
Varios usuarios en el hilo de Yuchen ya lo señalaron: si el prompt de extracción empieza a escalar a millones de usuarios, OpenAI lo detectará y lo limitará. No porque sea técnicamente imposible permitirlo, sino porque el lock-in de contexto es de los pocos diferenciadores duraderos que estas plataformas pueden construir.
Lo que está en riesgo además de la portabilidad
Hay un riesgo colateral que el entusiasmo del hilo opacó.
Si puedes extraer el perfil acumulado de un usuario de ChatGPT con un prompt de lenguaje natural, también puede hacerlo cualquier persona con acceso a esa sesión. No hay autenticación adicional para la extracción. No hay log de quién solicitó el listado. No hay notificación al usuario.
Hoy eso es manejable porque las memorias son triviales. El riesgo escala exactamente al mismo ritmo que el valor de esas memorias.
El sistema que Anthropic normalizó esta semana, exportar contexto con lenguaje natural sin fricción adicional, necesitará una capa de protección antes de que las memorias sean lo que eventualmente prometen ser.
Qué tendría que existir para que esto funcione de verdad
Tres condiciones que hoy no se cumplen en ninguna plataforma:
Memorias semánticamente ricas. No preferencias de superficie. Representaciones del estilo de razonamiento del usuario, historial de decisiones, proyectos con estado. Sin eso, la portabilidad es un gesto simbólico.
Un estándar abierto de transferencia contextual. Lo que OAuth resolvió para autenticación necesita un equivalente para contexto de usuario: un protocolo que permita delegar y auditar la transferencia entre sistemas con consentimiento explícito.
Protección proporcional al valor. Si el contexto va a ser tan valioso como prometen, necesita autenticación antes de exportar, logs de acceso, y notificación al usuario.
Gemini, Grok y los asistentes basados en Llama están mirando. Ninguno movió una pieza comparable todavía. Si alguno lo hace antes de que OpenAI responda formalmente, la presión sobre el ecosistema para adoptar alguna forma de portabilidad se vuelve difícil de ignorar.
Lo que realmente cambió esta semana
No fue la calidad de lo que se puede migrar. Eso sigue siendo poco.
Lo que cambió es que por primera vez una plataforma grande estableció como posición oficial que el contexto del usuario es portable. Eso convierte la portabilidad en expectativa, no en excepción.
La brecha entre lo que se puede portar hoy, cuatro bullets de texto plano, y lo que tendría que portarse para que eso valga algo, es la ruta crítica del siguiente ciclo de desarrollo en memoria de IA conversacional.
El que la cierre primero, y la abra al mismo tiempo, tiene la posición más interesante del sector.