Bienvenue dans un monde « AI First » !

Bienvenue dans un monde « AI First » !

Après le tsunami « mobile first », voici une nouvelle vague, toute aussi puissante, qui déferle dans les entreprises en général et dans le retail en particulier.

La France semble cette fois mieux positionnée pour « surfer sur cette déferlante » grâce à nos bataillons de mathématiciens devenus data scientists dans notre nouvelle économie. Si les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ont capté une part importante de nos forces vives en leur offrant des salaires de dirigeants, il reste encore des chercheurs qui créent chaque jour de nouveaux algorithmes pour le compte de laboratoires comme l’INRIA (Institut National de Recherche en Informatique et en Automatique), le CNRS (Centre National de la Recherche Scientifique) ou de start-up, créatrices de solutions innovantes autour de l’intelligence artificielle (IA)*.

L’IA n’est pas un terme nouveau car il est apparu dès 1953 mais plusieurs phénomènes ont littéralement changé la donne ces dernières années : le cloud est venu démultiplier les capacités de calcul avec des coûts dérisoires, des outils informatiques offrent la possibilité de capter facilement des données externes non standardisées, les GAFAM mettent à disposition de leur écosystème de clients et de développeurs des algorithmes maison qu’ils ont développés et qu’ils facturent à l’usage. Par ailleurs, les entreprises stockent de plus en plus de données issues de leurs ERP mais aussi de leurs outils digitaux et de plus en plus nombreux capteurs de données (IoT).

Cette combinaison de facteurs permet de révolutionner l’IA et d’entrer dans une nouvelle ère, celle du Maching Learning. Les algorithmes ne sont plus figés, ils deviennent apprenants et permettent d’affiner par exemple les modèles de prévisions.

Le phénomène IA associé à ses nombreux effets d’annonce cache néanmoins une réalité très contrastée au sein des entreprises. L’Institut du Commerce Connecté a souhaité approfondir le sujet avec l’un des meilleurs experts du marché : Manuel Davy.

Avant de devenir entrepreneur et de fonder Vekia, le spécialiste du Machine Learning pour le retail, Manuel a obtenu un doctorat et une habilitation à diriger les recherches en mathématiques appliquées, a collaboré dans un laboratoire de recherche à l’Université de Cambridge et a été chercheur au CNRS et à l’INRIA. Il a alors bénéficié d’un programme d’essaimage afin de faire vivre ses algorithmes dans l’univers du retail. Aujourd’hui, alors que l’entreprise compte plus de 7 data scientists, il intervient encore ponctuellement sur la mise au point d’algorithmes complexes.

ICC : Manuel, penses-tu qu’il existe aujourd’hui une bulle intelligence artificielle ?

Manuel : Oui et non. Aujourd’hui, on peut regrouper les entreprises IA en 3 catégories : celles qui l’affichent mais restent finalement dans les approches statistiques traditionnelles ; celles qui utilisent les boîtes à outils de Machine Learning et d’IA mises à disposition par les GAFAM sur le cloud et enfin celles plus rares, comme Vekia, qui contribuent au développement de nouvelles approches et de nouveaux algorithmes d’IA. Il y a donc un réel sujet autour de l’IA aujourd’hui, mais comme souvent, beaucoup d’acteurs surfent sur ce sujet à la mode.

ICC : Manuel, peux-tu clarifier la différence entre le Machine Learning et le Deep Learning dont on parle beaucoup ?

Manuel : Le Machine Learning est une discipline scientifique qui regroupe des algorithmes de natures diverses qui ont pour vocation de donner à une machine la capacité de devenir intelligente en apprenant à partir de données. Les algorithmes de Deep Learning sont un des outils du Machine Learning, qui sont une version récente et étendue des réseaux de neurones. Le Deep learning est aujourd’hui très puissant lorsqu’on doit faire apprendre à la machine à reconnaître une information complexe, par exemple faire la différence entre une photo de lion et une photo de tigre, ou pour transformer la parole en texte. Le Deep Learning requiert de très nombreux exemples de ce qu’on veut apprendre à reconnaître, souvent plusieurs millions qu’il faut individuellement étiqueter à la main au préalable. On ne peut donc pas l’utiliser dans des contextes où l’on ne dispose pas de tels exemples très nombreux et représentatifs. C’est le cas notamment pour la prévision des ventes dans le commerce : même s’il y a des millions de transactions, on ne dispose que de très rares exemples de combinaisons rassemblant un certain type de promotion, une certaine météo, certains produits en un certain lieu. Cela requiert encore une dose de modélisation physique, d’autant plus que les données disponibles pour apprendre sont souvent partielles et/ou erronées.

ICC : Dans la jungle de l’IA, comment se positionne Vekia ?

Manuel : Vekia a fait le choix de traiter un sujet très spécialisé, celui du pilotage des stocks. Nous avons pour cela développé des algorithmes d’intelligence artificielle pour vérifier les données, prévoir la demande et calculer la politique d’approvisionnement optimale. Au sein de la jungle de l’IA, notre positionnement est celui d’un contributeur au domaine de l’IA. Le haut niveau de performance attendu par notre sujet le nécessite – c’est aussi le choix de garder une avance constante sur les « utilisateurs » de l’IA. De ce fait, nous avons des collaborations étroites entre nos 6 chercheurs et les chercheurs académiques pour délivrer des performances sans cesse meilleures. La supply chain est une des fonctions clés de la plupart des industries, à commencer par la distribution. Gagner en performance contribue à rendre l’économie plus efficace et limite le gaspillage et la pollution, nous sommes donc sur une mission d’intérêt général.

ICC : Comment vois-tu évoluer l’IA dans l’univers du retail dans les 5 ans à venir ?

Manuel : L’IA approche d’une étape de maturité où elle va se généraliser et devenir accessible à la majorité des ingénieurs, notamment grâce aux outils mis à disposition par les GAFAM. Nous en verrons les bénéfices dans notre vie quotidienne. Mais, comme avec tous les sujets à la mode, je m’attends aussi à des désillusions. D’une part, parce que les forces et faiblesses de ces outils ne sont pas encore bien comprises de tous. D’autre part, parce que la performance la plus élevée ne peut pas s’obtenir facilement. Il y a même un théorème du Machine Learning qui l’exprime, le « No free lunch theorem » : il n’existe aucun algorithme qui soit meilleur que n’importe quel autre pour résoudre un ensemble de problèmes donné. Pour avoir une performance plus élevée, il est donc nécessaire de spécialiser l’algorithme et de le raffiner. Cela laisse encore de beaux jours devant eux pour les data scientists !

*L‘Intelligence Artificielle (IA) est la science dont le but est de faire faire par une machine des tâches que l’homme accomplit en utilisant son intelligence. Terme créé par John McCarthy en 1956 – l’un de ses pères fondateurs.



Curabitur in amet, Praesent ipsum Sed risus. elit.