Nous avions une ambition simple : créer un outil capable de générer automatiquement des descriptions de fiche produits pour le e-commerce.
Le contexte était idéal : montée de l’IA générative, besoin métier évident (plusieurs clients nous sollicitent simultanément...).
Nous lançons le développement, les premières démos sont prometteuses, les prospects sont intéressés.
Il faut aussi se rappeler d'une chose.
Quand nous avons lancé le projet, les modèles d’IA générative étaient encore relativement limités : moins fiables, moins précis, plus difficiles à contrôler.
Nous avions donc naturellement adopté une approche “produit”, avec beaucoup de règles, de structuration et de logique embarquée pour compenser ces limites.
Mais en quelques mois, les modèles ont fait un bond spectaculaire.
Leur capacité à comprendre, générer et s’adapter a profondément changé la donne… et remis en question notre approche initiale.
Nous faisons donc un choix radical : abandonner l’approche produit.
Pas parce que l’IA générative ne fonctionne pas, mais parce que le vrai défi réside dans la manière de l’intégrer dans les outils et les processus métiers.
Une promesse… pas si simple
Sur le papier, le cas d’usage est évident : générer des descriptions à partir de données existantes (fiches techniques, images, contenus marketing).
Mais sur le terrain, chaque client est différent :
- outils (PIM, CMS, ERP…) et architecture différente
- données
- règles métier
- contraintes éditoriales (ton of voice par exemple)
Entre une fiche produit d’une maison de luxe et une fiche produit d’une marketplace de bricolage, les attentes, le niveau de détail et le ton sont radicalement différents. Leur processus métier pour la réalisation des descriptions, l’est également.
Ce que nous pensions être un produit standard… ne l’était pas.
Le vrai problème : l’écosystème
Nous avons essayé d’adapter le produit par de nombreuses configurations. Mais rapidement, une réalité s’impose : ce n’est pas une question de paramétrage.
Chaque client implique :
- des flux différents
- des intégrations spécifiques
- des règles uniques
- des processus métiers propres à chaque client.
Dans certains cas, la donnée produit est répartie entre plusieurs équipes (studio, copywriters, marketing, e-commerce), avec des outils différents (PLM, PIM, DAM, CMS, etc.).
Pour répondre à l’industrialisation de notre solution, en réalité, nous faisions déjà du sur-mesure.
Le déclic
La question de l’intégration de notre solution revenait systématiquement. Et nous n’avions jamais une réponse vraiment satisfaisante.
Les clients ne veulent pas d’un outil en plus dans leur écosystème déjà bien complexe : Ils veulent une solution intégrée à leur existant.
Le pivot : du produit aux workflows intégrés
Nous avons réalisé que nous ne devions pas construire un produit… mais nous brancher sur les systèmes existants.
Concrètement, cela signifie un changement profond d’approche :
- nous ne centralisons plus la logique dans un outil unique
- nous orchestrons des workflows directement dans l’écosystème client
Là où notre produit imposait une nouvelle interface et un nouveau point d’entrée, nos workflows viennent s’intégrer dans les outils déjà utilisés par les équipes.
L’IA ne devient plus un outil en plus.
Elle devient une brique invisible dans les processus existants.
Une évolution rendue possible
Cette évolution a été rendue possible par deux facteurs :
- la maturité des outils d’orchestration
- et surtout la flexibilité croissante des modèles d’IA
Là où nous devions auparavant encadrer fortement chaque cas d’usage, l’IA est aujourd’hui capable de s’adapter à des contextes variés :
- données hétérogènes
- règles métier différentes
- contraintes éditoriales spécifiques
Cette flexibilité rend possible une approche beaucoup plus modulaire et intégrée.
Concrètement, ce que ça change
Nous sommes passés d’un produit à des pipelines capables de :
- s’intégrer aux outils existants (PIM, DAM, CMS…)
- orchestrer les étapes (données → génération → contrôle → publication)
- s’adapter aux règles métier
Des outils comme n8n, LangGraph ou PydanticAI sont aujourd’hui des standards matures. Ils ne fournissent pas des produits clés en main, mais des briques d’orchestration puissantes.
En nous appuyant sur ces frameworks, nous avons pu assembler rapidement des pipelines intelligents.
Résultats :
- moins de code spécifique
- plus de flexibilité
- une capacité à itérer beaucoup plus vite
Ce que ça change, côté client :
Finalement, au lieu de rajouter un énième outil, la solution s’intègre directement dans les processus métiers existants :
- déploiement plus rapide
- meilleure adoption par les utilisateurs
- meilleure maintenabilité et pérennité
- itérations et ajustements facilités
Conclusion : savoir pivoter
Nous avons commencé avec une logique produit. Nous pensions construire une solution universelle.
Nous avons finalement compris que la valeur ne résidait pas dans un outil…
mais dans la capacité à s’intégrer intelligemment dans des systèmes existants.
--> Ce que nous avons abandonné, ce n’est pas l’IA.
--> C’est l’idée qu’elle devait être encapsulée dans un produit.
Aujourd’hui, nous intégrons de l’IA agentique dans les workflows existants, en les augmentant, plutôt que de forcer nos clients à s’adapter à un outil supplémentaire.
Notre conviction chez Proxym
Après la digitalisation, puis le cloud, nous entrons dans une nouvelle époque : celle de l’intégration de l’IA dans les processus métier.
Et dans cette logique :
- la valeur n’est pas uniquement dans le modèle IA
- elle est dans l’orchestration
- et dans l’adoption par les équipes (Mais ça… c’est une autre histoire que nous aborderons sur l’importance de la formation des équipes métiers à l’IA.)