Le Problème de la Portabilité de la Mémoire IA : Pourquoi Votre Contexte est Prisonnier
Après trois ans d’utilisation de ChatGPT, vous avez construit quelque chose de précieux sans vous en rendre compte. Votre IA sait que vous préférez des réponses concises. Elle sait que vous êtes développeur Python, que vous travaillez dans l’infrastructure, que vous aimez les commentaires de code en anglais même si vous parlez français. Elle se souvient des noms de vos projets, de vos décisions architecturales, de votre style de communication.
Maintenant, essayez d’emporter tout cela vers Claude. Ou Gemini. Ou n’importe quelle autre plateforme.
Impossible.
Certes, la plupart des plateformes vous permettent d’exporter vos données — historiques de conversations, mémoires enregistrées, informations de compte. Mais ce que vous récupérez n’est que de la matière brute, pas du savoir utilisable. Les relations entre les faits, les inférences construites au fil de mois d’interaction, le contexte qui rend une mémoire utile — rien de tout cela ne survit à l’exportation. Et même si c’était le cas, il n’existe aucun format standard qu’une autre plateforme pourrait importer. Quand vous changez, vous ne perdez pas les données — vous perdez la compréhension.
C’est le problème de la portabilité de la mémoire IA, et il est sur le point de devenir l’un des enjeux les plus importants de l’industrie.
Le nouveau verrouillage n’est pas le modèle — c’est la mémoire
Section intitulée « Le nouveau verrouillage n’est pas le modèle — c’est la mémoire »Au cours des deux dernières années, la concurrence en IA s’est concentrée sur les capacités des modèles : benchmarks de raisonnement, taille de fenêtre de contexte, support multimodal. Mais à mesure que les modèles convergent en capacité, la vraie différenciation se déplace ailleurs : la mémoire.
OpenAI l’a compris tôt. Le 10 avril 2025, la mémoire de ChatGPT s’est étendue de simples faits enregistrés au référencement de l’intégralité de l’historique des conversations. Le 3 juin, même les utilisateurs gratuits ont obtenu une version allégée. Le message était clair : plus vous utilisez ChatGPT, plus il devient difficile de partir.
Ce n’est pas un hasard. Comme le PDG de Mem0, Taranjeet Singh, l’a déclaré à TechCrunch lors de l’annonce de leur levée de 24 millions de dollars : “Memory is becoming one of their key moats now that LLMs are getting commoditized.” Les grands laboratoires d’IA construisent des systèmes de mémoire, mais ils ont peu d’incitation à les rendre portables ou interopérables. Le contexte accumulé est le nouveau coût de transition.
La douleur est suffisamment réelle pour qu’une nouvelle catégorie d’outils ait émergé. MemoryPlugin propose une extension de navigateur pour la synchronisation de mémoire cross-platform. Context Pack aide à transférer le contexte entre ChatGPT et Claude. AI Context Flow construit une couche de contexte universelle entre les plateformes d’IA. Mais ils construisent tous des ponts propriétaires entre des silos propriétaires — chacun avec son propre format, ses propres limitations, et aucune interopérabilité entre eux.
Ce que vous perdez réellement quand vous changez
Section intitulée « Ce que vous perdez réellement quand vous changez »Pour comprendre l’ampleur du problème, considérez ce que contient une mémoire IA mature :
Identité et préférences. Votre nom, votre rôle, votre langue, votre style de communication, vos préférences de formatage, le niveau de technicité que vous attendez dans les réponses.
Contexte professionnel. Votre stack technique, votre entreprise, vos projets, les décisions architecturales que vous avez prises, les contraintes dans lesquelles vous travaillez.
Connaissances relationnelles. Des faits qui n’ont de sens qu’en relation avec d’autres faits — que votre projet utilise React parce que vous avez d’abord évalué Vue et Svelte, et que cette décision a été influencée par l’expérience de votre équipe avec TypeScript et le besoin d’un écosystème mature de bibliothèques UI.
Connaissances temporelles. Des choses qui étaient vraies à un moment donné — vous migriez d’AWS vers GCP au T3, votre équipe a adopté Kubernetes au T4, votre entreprise a restructuré l’équipe plateforme en janvier.
Aucune de ces connaissances n’a de représentation standardisée. ChatGPT les stocke en interne. Claude les déduit de l’historique des conversations. Gemini utilise son propre format. Il n’existe pas d’équivalent de contacts.vcf pour les mémoires d’IA. Pas de calendar.ics. Pas d’OPML. Aucun format universel que n’importe quelle plateforme puisse lire et écrire.
Tout le monde parle de mémoire portable — personne ne livre le format
Section intitulée « Tout le monde parle de mémoire portable — personne ne livre le format »L’ironie, c’est que l’industrie reconnaît déjà que c’est un problème.
Mem0 se positionne explicitement comme un “memory passport” — votre mémoire d’IA voyageant avec vous entre les apps et les agents, comme l’email ou les identifiants. Ils ont levé 24 millions de dollars sur cette vision. Mais l’API de Mem0 est un service propriétaire, pas un format ouvert d’échange. Votre mémoire voyage à travers Mem0, pas de manière indépendante.
Letta (anciennement MemGPT) a créé le format Agent File (.af) pour sérialiser des agents IA avec état. Bien que le .af inclue des sections de mémoire modifiables avec les préférences utilisateur et la personnalité, il est conçu pour la persistance d’agents entre sessions — pas pour le contexte portable d’un utilisateur entre différents systèmes d’IA.
Cognee a construit un moteur de graphe de connaissances pour la mémoire des agents IA. Excellente infrastructure. Mais quand vous ingérez des données dans Cognee, elles vivent dans la représentation interne de Cognee.
Chacun de ces projets résout une partie du puzzle. Aucun d’eux ne définit à quoi devrait ressembler un fichier de mémoire IA portable. Ils construisent des conteneurs de plus en plus sophistiqués, mais il n’y a pas d’étiquette d’expédition standard.
La pression réglementaire est déjà là
Section intitulée « La pression réglementaire est déjà là »Ce n’est pas seulement une préoccupation de développeurs — cela devient une question réglementaire.
Le EU Data Act, dont les dispositions centrales sont en vigueur depuis le 12 septembre 2025, impose aux fournisseurs de services cloud et de traitement de données de faciliter le changement de fournisseur, de supprimer les barrières techniques et contractuelles à la portabilité, et de prendre en charge des formats d’exportation standardisés. Les frais de changement doivent être totalement éliminés d’ici janvier 2027, et les contrats à long terme existants doivent être adaptés d’ici septembre 2027. La direction est claire : le verrouillage des données utilisateurs par les fournisseurs est en collision réglementaire.
Le EU AI Act, atteignant sa pleine application en août 2026, ajoute des exigences de transparence pour les systèmes d’IA. Pendant ce temps, la Commission européenne débat activement de la classification de ChatGPT sous le Digital Services Act — et avec ChatGPT approchant les 900 millions d’utilisateurs actifs hebdomadaires, la révision programmée du DMA en mai 2026 pourrait bien inclure les plateformes d’IA générative comme nouvelle catégorie de service de plateforme centrale. Des chercheurs de la London School of Economics ont déjà argumenté que c’est nécessaire pour répondre aux dynamiques concurrentielles du marché de l’IA.
La question n’est pas de savoir si les plateformes d’IA subiront la pression de supporter la portabilité de la mémoire. C’est de savoir si l’industrie définit le standard de manière proactive, ou si les régulateurs en imposent un.
Ce dont un vrai standard a besoin
Section intitulée « Ce dont un vrai standard a besoin »Un format viable d’échange de mémoire IA doit gérer plusieurs choses que les approches existantes ne couvrent pas :
Des types de mémoire structurés. Pas seulement des dumps de conversations brutes, mais des mémoires typées : faits, préférences, compétences, objectifs, relations, contexte de projet. Un système en aval doit savoir si “L’utilisateur préfère le mode sombre” est une préférence ou un fait, car chacun a des implications différentes sur la manière de l’appliquer.
La provenance. D’où vient cette mémoire ? Quelle plateforme ? Quelle conversation ? A-t-elle été explicitement déclarée par l’utilisateur ou inférée par l’IA ? La provenance est importante pour la confiance : une mémoire que l’utilisateur a tapée devrait avoir plus de poids qu’une que l’IA a inférée d’un commentaire en passant.
Le cycle de vie temporel. Les mémoires ne sont pas permanentes. Une préférence peut changer. Un projet peut se terminer. Un fait peut être remplacé. Tout format qui ne modélise pas le temps — création, expiration, remplacement — accumulera des connaissances obsolètes qui dégradent l’utilité de l’IA au fil du temps.
L’intégrité. Si j’exporte 500 mémoires de ChatGPT et que je les importe dans Claude, comment vérifier que rien n’a été perdu ou corrompu en transit ? Les hashes de contenu et les checksums ne sont pas optionnels — ils sont essentiels pour tout format qui prétend être fiable.
La séparation entre conversations et mémoires. Les logs de conversations bruts ne sont pas des mémoires. Ils sont la matière première à partir de laquelle les mémoires sont dérivées. Un bon format doit représenter les deux : les conversations telles qu’elles se sont déroulées, et les connaissances structurées qui en sont extraites.
Aucun format ne réussira tout du premier coup. Ce sont les exigences que nous considérons comme les plus importantes — et les plus négligées par les approches existantes.
Présentation de PAM : Portable AI Memory
Section intitulée « Présentation de PAM : Portable AI Memory »C’est le problème que Portable AI Memory (PAM) a été conçu pour résoudre.
PAM est une spécification ouverte — pas un produit, pas un service, pas une API — qui définit un format d’échange vendor-neutral pour les mémoires IA des utilisateurs. Pensez-y comme ce que vCard est pour les contacts, ou iCalendar pour les événements, mais pour les connaissances que votre IA a accumulées à votre sujet.
La spécification définit trois schémas JSON composables :
-
Memory Store — Des mémoires structurées avec des types, des scores de confiance, un cycle de vie temporel, un suivi de provenance, des références croisées et une vérification d’intégrité. Chaque mémoire porte un hash de contenu pour la déduplication et un type sémantique issu d’une taxonomie fermée (fact, preference, skill, context, relationship, goal, instruction, identity, environment, project).
-
Conversation — Des logs de conversations normalisés avec un format de message agnostique au fournisseur, une structure DAG pour les conversations ramifiées, les appels d’outils, les citations et le contenu multipart. C’est ici que réside la matière première.
-
Embeddings — Des représentations vectorielles liées à des mémoires spécifiques, stockées en ligne ou par référence à des vector stores externes.
Un bloc d’intégrité avec canonicalisation RFC 8785 garantit que lorsque vous exportez 500 mémoires et les importez ailleurs, vous pouvez vérifier cryptographiquement que chacune est arrivée intacte.
Voici à quoi ressemble une seule mémoire PAM :
{ "id": "mem-042", "type": "preference", "content": "User prefers concise, technical answers without excessive explanation", "content_hash": "sha256:a1b2c3...", "provenance": { "platform": "chatgpt", "extraction_method": "llm_inference", "conversation_ref": "conv-2025-03-15" }, "temporal": { "created_at": "2025-03-15T10:30:00Z", "updated_at": "2025-11-20T14:15:00Z" }, "confidence": { "current": 0.92, "decay_model": "time_exponential" }, "tags": ["communication", "formatting"]}Chaque champ existe pour une raison. Le type indique aux systèmes en aval comment appliquer cette mémoire. La provenance leur indique à quel point lui faire confiance. Le bloc temporal leur indique quand elle a été confirmée pour la dernière fois. Le bloc confidence modélise comment la certitude évolue dans le temps. Et le content_hash permet de vérifier l’intégrité après le transit.
Ce que PAM ne fait pas
Section intitulée « Ce que PAM ne fait pas »PAM est un format de fichier, pas une plateforme. Il est important d’être clair sur ce qu’il ne couvre pas :
Pas de synchronisation en temps réel. PAM définit un format d’échange statique — un fichier .pam.json. Il ne définit pas de protocole de synchronisation, d’API de streaming, ni de mécanisme de mise à jour en temps réel. Si vous avez besoin de synchronisation en direct entre plateformes, vous avez besoin d’un produit comme MemoryPlugin ou AI Context Flow par-dessus.
Pas d’extraction de mémoires. PAM ne décide pas ce qui doit être une mémoire. Convertir des conversations brutes en mémoires structurées nécessite du jugement — généralement d’un LLM. Le SDK PAM fournit des convertisseurs pour les exportations de plateformes et une structure pour les résultats, mais l’intelligence d’extraction est une préoccupation séparée.
Pas d’application du contrôle d’accès. PAM inclut un schéma de contrôle d’accès (niveaux de visibilité, permissions partagées), mais l’application relève de la responsabilité du système consommateur. PAM décrit la politique ; il ne l’applique pas.
Pas de génération d’embeddings. Le schéma d’embeddings stocke les vecteurs et les lie aux mémoires, mais PAM ne génère pas d’embeddings. Cela dépend du modèle et des dimensions que vous choisissez.
Ces limitations sont délibérées. Un format qui essaie d’être une plateforme finit par n’être ni l’un ni l’autre. PAM reste dans sa voie — définir la structure, vérifier l’intégrité, laisser le reste à l’écosystème.
La spécification complète, les schémas JSON, les exemples et un SDK Python sont publiés sur portable-ai-memory.org. Le SDK inclut des convertisseurs pour les exportations des principales plateformes d’IA, une validation approfondie au-delà du JSON Schema (références croisées, cohérence temporelle, vérification de hash de contenu) et une CLI pour les opérations rapides.
L’analogie du vCard — et pourquoi c’est important
Section intitulée « L’analogie du vCard — et pourquoi c’est important »Quand vCard a été introduit en 1995, chaque client de messagerie et carnet d’adresses avait son propre format propriétaire de contacts. Les contacts étaient prisonniers d’Outlook, de Lotus Notes, des Palm Pilots. La solution n’a pas été un service universel de contacts — c’était un fichier universel de contacts. Un fichier .vcf que n’importe quelle application pouvait lire et écrire.
vCard n’a pas eu besoin d’un vcard-outlook-loader ou d’un vcard-palm-sync service. Le format était suffisamment bon, et suffisamment ouvert, pour que chaque application implémente le support de manière indépendante. Le standard a réussi parce qu’il était simple, précis, et n’essayait pas d’être un produit.
PAM suit la même philosophie. Il ne rivalise pas avec Mem0, Cognee ou Letta — il les alimente. Exportez de ChatGPT, convertissez en PAM, importez dans n’importe quel système qui implémente un loader PAM. La spec est la valeur. Le SDK facilite l’adoption. Le reste appartient à l’écosystème.
Ce qui va se passer
Section intitulée « Ce qui va se passer »Le problème de la portabilité de la mémoire IA sera résolu. La seule question est comment. Soit les grandes plateformes définiront l’interopérabilité selon leurs propres termes (peu probable — leur incitation est le verrouillage), soit les régulateurs l’imposeront avec des exigences techniques qui pourraient s’avérer restrictives (possible — l’UE va déjà dans cette direction), soit la communauté des développeurs convergera vers un standard ouvert qui fait de la portabilité le comportement par défaut.
PAM est notre contribution à la troisième option. La spécification est publiée. Les schémas sont validés. Le SDK fonctionne aujourd’hui. Ce qu’il faut maintenant, c’est l’adoption — des développeurs construisant des convertisseurs, des systèmes de mémoire acceptant PAM comme format d’entrée, et des utilisateurs exigeant le droit de posséder leur contexte IA.
Vos mémoires d’IA sont les vôtres. Elles ne devraient pas être prisonnières.
PAM est une spécification ouverte publiée sous Creative Commons. Le SDK Python est sous licence Apache 2.0. Les deux sont disponibles sur portable-ai-memory.org et GitHub.
Daniel Ginês est le créateur de PAM et ingénieur DevOps.