Par Clément Proust, AI Manager chez proLogistik
Pourquoi autant de projets d’intelligence artificielle en supply chain peinent-ils encore à tenir leurs promesses ? Alors que les technologies n’ont jamais été aussi matures, de nombreuses initiatives restent bloquées au stade de l’expérimentation ou produisent des résultats en deçà des attentes. Le problème n’est pourtant pas là où on l’imagine. Ce n’est ni la puissance des algorithmes, ni la disponibilité des outils qui font défaut. Le véritable frein est ailleurs : dans la manière dont les données sont captées, structurées et exploitées. En entrepôt comme dans l’ensemble de la supply chain, l’intelligence artificielle ne peut créer de valeur que si elle s’appuie sur une donnée fiable, continue et directement issue des opérations. Sans ce socle, les modèles restent théoriques, difficiles à déployer et encore plus à industrialiser.
L’IA en logistique : une promesse encore inégalement tenue
Depuis plusieurs années, l’intelligence artificielle s’impose comme un levier majeur de transformation pour la supply chain. Prévision des flux, optimisation des ressources, automatisation des décisions : les cas d’usage se multiplient et les attentes sont élevées. Pourtant, dans la réalité des opérations, tous les projets ne tiennent pas leurs promesses. Non pas faute de maturité des technologies. Les algorithmes sont aujourd’hui performants, accessibles et capables de traiter des volumes de données considérables. Le véritable point de friction se situe ailleurs : dans la qualité, la structuration et la disponibilité des données exploitées. Dans de nombreux environnements, les données nécessaires à l’IA sont fragmentées, hétérogènes, parfois reconstruites a posteriori à partir de multiples systèmes. Cette approche introduit des biais, des délais et une complexité qui freinent considérablement la mise en œuvre opérationnelle. En supply chain, l’IA ne se joue donc pas uniquement sur la puissance des modèles, mais sur la capacité à exploiter une donnée fiable, continue et directement issue du terrain.
Le rôle structurant de la donnée dans la performance de l’IA
Dans un entrepôt logistique, chaque action — préparation d’une commande, déplacement d’un opérateur, validation d’un colis — génère de la donnée. Cette donnée est précieuse, car elle reflète la réalité opérationnelle dans toute sa granularité. Mais pour qu’elle devienne exploitable par des modèles d’intelligence artificielle, encore faut-il qu’elle soit captée au bon moment, structurée de manière homogène, historisée dans la durée, et accessible sans transformation lourde. Lorsque ces conditions ne sont pas réunies, les projets IA basculent rapidement dans des logiques de reconstruction de données, avec des coûts élevés et des résultats incertains. À l’inverse, lorsque la donnée est native — c’est-à-dire produite directement par les applications métiers et exploitée sans rupture — elle devient un véritable levier de performance. Les modèles peuvent être entraînés plus rapidement, avec plus de précision, et produire des recommandations immédiatement actionnables.
Pourquoi le modèle SaaS change la donne
C’est précisément sur ce point que le modèle SaaS apporte un avantage déterminant. En centralisant les applications métiers — WMS, TMS, LMS, OMS — et en maîtrisant leur environnement d’exécution, les architectures SaaS permettent de capter les données à la source, de manière continue et homogène. Elles garantissent ainsi une cohérence entre les données opérationnelles et leur exploitation analytique. Cette continuité est essentielle. Elle permet de s’affranchir des problématiques classiques de silos, de retraitement ou de dépendance à des systèmes tiers. Elle réduit également les délais de mise en œuvre des projets IA, en supprimant une grande partie des étapes de préparation de la donnée. Autrement dit, le SaaS ne simplifie pas seulement l’accès aux outils : il crée les conditions nécessaires à une IA réellement opérationnelle. Dans des environnements aussi exigeants que les entrepôts logistiques, où chaque décision peut avoir un impact immédiat sur la productivité ou la qualité de service, cette capacité à exploiter une donnée fiable en temps réel est un facteur clé de différenciation.
De l’expérimentation à l’industrialisation : un enjeu de vitesse et de maîtrise
Un autre enjeu majeur des projets d’intelligence artificielle en supply chain réside dans leur capacité à passer à l’échelle. Beaucoup d’initiatives restent aujourd’hui au stade de l’expérimentation : preuves de concept, pilotes limités, tests sur des périmètres restreints. Le passage à une utilisation industrielle, généralisée à plusieurs sites ou à l’ensemble d’un réseau logistique, reste complexe. Là encore, la qualité de la donnée est déterminante. Lorsque les modèles reposent sur des données instables ou difficilement reproductibles, leur déploiement à grande échelle devient risqué. À l’inverse, un socle de données maîtrisé permet de reproduire les modèles, de les adapter à différents contextes et d’assurer une montée en charge progressive. Les architectures SaaS, en offrant une base de données unifiée et historisée, facilitent cette industrialisation. Elles permettent de capitaliser sur les apprentissages réalisés sur un site pour les répliquer sur d’autres, tout en tenant compte des spécificités locales. La question n’est donc plus de savoir si l’IA peut créer de la valeur en entrepôt, mais à quelle vitesse elle peut être déployée de manière fiable et durable.
Une IA utile, ancrée dans la réalité des opérations
Au-delà des considérations technologiques, un point reste essentiel : l’IA n’a de valeur que si elle s’inscrit dans la réalité du terrain. Dans les entrepôts, les opérations sont contraintes par des facteurs très concrets : organisation des flux, configuration des allées, équipements disponibles, rythmes de travail des équipes. Toute optimisation doit intégrer ces paramètres pour être pertinente. C’est pourquoi les approches les plus efficaces sont celles qui combinent analyse de la donnée et compréhension fine des opérations. L’IA ne remplace pas l’expertise métier : elle l’amplifie. Elle permet d’identifier des schémas invisibles à l’œil humain, de tester rapidement différents scénarios et d’orienter les décisions vers les configurations les plus performantes. Mais sa mise en œuvre doit rester progressive, maîtrisée et alignée avec les réalités opérationnelles.
Vers un nouveau standard de la supply chain pilotée par la donnée
À mesure que les technologies se diffusent, un nouveau standard se dessine dans la supply chain : celui d’une organisation pilotée par la donnée, où les décisions sont éclairées en continu par des modèles analytiques et prédictifs. Dans ce contexte, la maîtrise de la donnée devient un actif stratégique. Elle conditionne non seulement la performance des outils, mais aussi la capacité des entreprises à s’adapter rapidement aux évolutions de leur environnement : variations de la demande, tensions sur les ressources, exigences accrues des clients. Les modèles SaaS, en intégrant nativement cette dimension, s’imposent comme un socle particulièrement adapté à ces enjeux. Ils permettent de concilier agilité, fiabilité et capacité de déploiement à grande échelle — trois conditions indispensables pour tirer pleinement parti de l’intelligence artificielle dans la supply chain.
Conclusion
L’intelligence artificielle en logistique n’est plus un sujet d’expérimentation, mais un enjeu d’exécution. Sa réussite repose moins sur la sophistication des algorithmes que sur la qualité de la donnée et la capacité à l’exploiter de manière continue et maîtrisée. Dans cette perspective, les architectures SaaS offrent un avantage structurel : elles permettent de transformer la donnée opérationnelle en levier de performance durable, et de faire de l’IA un outil concret au service des opérations.
A propos de l’auteur
Clément Proust est Responsable de l’équipe Intelligence Artificielle chez proLogistik France (DSIA), basé à Nantes. Il pilote les activités liées à l’acculturation, à l’expérimentation et à l’industrialisation de projets data/IA appliqués aux environnements métiers, notamment dans la supply chain.
Fort de plus de 10 ans d’expérience dans l’IT et la data, il a développé une expertise complète allant du Machine Learning et du Deep Learning à l’IA générative, en passant par la Computer Vision, le traitement du langage naturel et les architectures de données. Il accompagne les entreprises dans la conception de solutions sur mesure, depuis la structuration des données jusqu’au déploiement à grande échelle.
Avant de rejoindre proLogistik, il a dirigé des équipes Data & IA au sein de structures d’ingénierie et piloté de nombreux projets innovants en lien avec des laboratoires de recherche. Son approche allie expertise technique, vision opérationnelle et capacité à transformer des expérimentations en solutions concrètes et industrialisées.