Au moment où la transformation digitale des entreprises ne fait plus débat depuis longtemps et où les grands groupes ont l’impression d’avoir engagé les changements nécessaires à leur survie, nous sommes déjà entrés déjà dans une nouvelle ère technologique. Comment l’intelligence artificielle pourrait-elle bousculer l’ordre établi ?

On la voit partout. L’intelligence artificielle fait les gros titres, fascine le grand public et est au cœur de la stratégie des géants du digital, d’un côté à l’autre de la planète, chez les GAFA comme les BAT (Baidu, Alibaba, Tencent). Roland Fitoussi, Président de SQLI, explique d’ailleurs dans son récent ouvrage Mondialisation Acte II – Le choc de l’intelligence artificielle en quoi la bataille économique qui se joue est même un enjeu de civilisation. Nous sommes en effet aux prémices de la plus importante révolution technologique depuis internet. Le principal bénéficiaire de cette précédente vague, Google, ne s’y est d’ailleurs pas trompé. Depuis un peu plus d’un an, son CEO Sundar Pichai insiste à chaque sortie médiatique sur son nouveau motto : AI First. L’intelligence artificielle made in Google infuse chacun de ses services, chacun de ses produits, de Google Photos à Google Home en passant par la gestion énergétique de ses data centers.
L’intelligence artificielle est-elle uniquement le sujet des plus grandes entreprises de la Silicon Valley, ou concerne-t-elle aussi les acteurs de « moindre » importance ? Faut-il être un géant pour suivre le sillon de cette révolution technologique ?

L’intelligence artificielle et la recherche fondamentale

Pour mieux comprendre où on va, essayons rapidement de comprendre d’où l’on vient.
L’intelligence artificielle, c’est d’abord un étrange oxymore. L’intelligence a longtemps été un qualificatif exclusivement humain (ou, dans une certaine mesure, animal) qui s’oppose donc naturellement aux machines issues de la main de l’Homme. C’est en 1950, sous l’impulsion d’Allan Turing, que naît un courant de pensée qui s’intéresse à la possibilité de machines (on ne parle pas encore d’informatique) qui seraient dotées d’une forme d’intelligence capable de rivaliser avec celle de l’Homme. Dès lors, avec les recherches de John Mc Carty (Stanford) – à qui l’on doit le terme d’intelligence artificielle – de Marvin Minsky (MIT) et de Allen Newel (Carnegie Mellon), entre autres, le sujet s’impose comme champ de recherche de prédilection des plus grands campus.

S’ensuivent alors une vingtaine d’années de découvertes et de réel optimisme. Mais même si dans les pays anglo-saxons cette recherche est financée par des fonds privés (et éventuellement militaires), le sujet reste encore essentiellement académique, sans réel impact économique.
Puis arrive une période communément appelée Hiver de l’intelligence artificielle. Les résultats promis par les chercheurs les plus ambitieux ne sont pas au rendez-vous et les financements des recherches se réduisent drastiquement. En cause notamment : les capacités du matériel informatique de l’époque qui n’offrent pas la puissance de calcul et la mémoire nécessaires à la mise en application des découvertes et théories. La recherche connaîtra un deuxième âge d’or dans les années 1980-90 avec de nouveaux projets ambitieux et des découvertes significatives, avant de subir de nouvelles coupes budgétaires et un second hiver.

Depuis, les travaux se sont poursuivis sous différentes formes. Plus précisément, c’est moins la finalité d’une « intelligence artificielle forte », c’est-à-dire capable que de raisonner en tous points comme un être humain, qui est visée. La recherche se fragmente en une multitude de sous-domaines dédiées à des problématiques très précises, chacune abordée sous de multiples facettes.
C’est à cette période que la définition de l’intelligence artificielle, comme un ensemble des techniques permettant aux machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux[1], prend tout son sens.

Dans la plupart de ces techniques, on trouve à la notion d’apprentissage ou plus précisément machine learning. Plus spécifiquement c’est la sous-méthode de l’apprentissage profond (deep learning), qui fonctionne sur les architectures dites de réseaux neuronaux, inspirée du cerveau humain qui est le plus souvent encore aujourd’hui associée à l’intelligence artificielle.
2012 marque ainsi l’avènement de l’apprentissage profond qui permet à des tâches telles que la reconnaissance visuelle et vocale de faire des progrès très significatifs.

L’intelligence artificielle irrigue la Silicon Valley

Ce début des années 2010 correspond également au moment où Facebook, Microsoft, Google ou IBM commencent à s’intéresser de très près au sujet et à investir massivement. Ces derniers y voient tout de suite des cas d’usages très concrets qui apportent un bénéfice économique immédiat. Le filtrage des images violentes sur internet est par exemple un sujet majeur pour des acteurs comme Google et Facebook qui délivrent le contenu du web au plus grand nombre. Avec ses progrès en reconnaissance visuelle, l’intelligence artificielle se révèle bien évidemment très attractive pour des tâches très consommatrices en ressources, voire impossibles lorsqu’elles sont uniquement réalisées par des humains.

En quelques années les géants américains vont s’accaparer une grande partie des talents de l’intelligence artificielle. Pour n’en citer que deux : le Français Yann LeCun et le Britannique Geoffrey Hinton, qui sont tous les deux à l’origine du regain d’intérêt pour l’apprentissage profond avec leurs travaux sur les réseaux neuronaux convolutifs en 1988-89. Le premier a pris la tête du Facebook AI Research en 2013 alors que le second a rejoint Google suite au rachat de sa société DNNresearch Inc, la même année.

Créer des nouveaux modèles d’intelligence artificielle est un domaine éminemment complexe. Cela requiert des ressources humaines qui sont rares et donc chères. Et devant l’appétit grandissant des GAFA et BAT, il est bien difficile de lutter financièrement.

Cette boulimie, on la retrouve également sur la scène des startups. Il suffit pour s’en rendre compte de jeter un œil sur les acquisitions, ces dernières années, d’entreprises plus ou moins matures dont la technologie s’appuie sur une forme d’intelligence artificielle.


Là encore, on retrouve en tête les géants américains de l’économie digitales. Ces derniers acquièrent ainsi des assets technologiques, des positions sur des marchés émergents, mais aussi des talents si convoités. De plus, on constate une accélération significative de ces investissements. Il ne s’agit plus seulement pour eux d’optimiser leurs produits et services, mais de prendre dès maintenant l’avantage sur les nouveaux secteurs qui vont être assurément dopés à l’intelligence artificielle tels que l’automobile (véhicules autonomes) ou la santé.

L’un des spécialistes français de la question, le Dr Laurent Alexandre alertait d’ailleurs, en début d’année, les pouvoirs publics sur le risque induit pour l’économie française et européenne de « perdre sa souveraineté numérique » sur l’intelligence artificielle.

L’intelligence artificielle est d’abord une guerre de colosses… mais pas seulement !

L’intelligence artificielle est une commodité

Au-delà des avancées scientifiques qui expliquent l’essor actuel de l’intelligence artificielle, il faut comprendre que deux autres facteurs entrent compte ici. Le premier, ce sont les progrès du matériel, en particulier des processeurs graphiques qui se révèlent très précieux avec leur capacité à traiter de grandes quantités de données (ce qui explique le succès actuel et l’explosion du cours de bourse du fabriquant NVidia).
Le second facteur, c’est la masse de données à disposition. L’apprentissage est crucial pour les intelligences artificielles. Aussi plus elles sont alimentées, et plus elles sont performantes. Là encore des acteurs comme Google et Facebook disposent d’un avantage considérable, compte tenu de la masse de données que ces entreprises ont à leur disposition. Le corolaire de ce constat, c’est que plus une intelligence artificielle est utilisée par des tiers disposant de leurs propres jeux de données, meilleure elle devient. C’est pourquoi tous les grands acteurs ont très tôt, avec des modèles économiques différents, ouvert leurs solutions d’intelligence artificielle aux développeurs tiers. Au-delà du chiffre d’affaires généré (qui à terme sera loin d’être négligeable) l’ouverture de ces services est l’assurance de leur optimisation dans la durée.
L’implication est considérable pour le marché. Pour caricaturer, il suffit aujourd’hui, d’une seule ligne de code et d’un accès à internet pour permettre à n’importe quel développeur d’accéder à la puissance de l’intelligence artificielle dans son application ou son service. Qu’il s’agisse d’un module de compréhension du langage naturel, de reconnaissance visuelle, ou d’une autre des nombreuses facultés mises à disposition par Google, Amazon et autres IBM, les développeurs ont désormais l’embarras du choix des solutions mises à disposition. Il n’est plus nécessairement obligatoire d’avoir un PhD en poche pour construire des solutions exploitant l’intelligence artificielle.
Kevin Kelly, éditeur de the Wired résume cette manière d’accéder à l’intelligence artificielle dans une formule très juste : AI as a Service.

En quelque sorte, c’est un phénomène équivalent à ce qu’a fait Amazon avec AWS, grâce au gigantisme de son échelle, en faisant de l’hébergement et de la puissance de calcul des commodités pour de nombreux sites et applications.

IBM Watson propose des facultés d’intelligence artificielle sous forme d’API. NVidia crée des fermes de cartes graphiques pour que des tiers fassent tourner leurs algorithmes d’intelligence artificielle dans le cloud. Apple de son côté met désormais à disposition des créateurs d’applications, avec CoreML, des modèles prédéfinis de reconnaissance visuelle ou textuelle. Google a annoncé, lors de sa dernière conférence I/O, le projet AutoML, doté de sa propre intelligence artificielle pour aider les développeurs, non spécialistes, dans la création automatisée de modèles de machine learning.

L’intelligence artificielle est un enjeu stratégique

Lors de Viva Technology 2017, Eric Schmidt (Président du conseil d’administration d’Alphabet) donnait sa vision du futur et déclarait que sommes à l’aune de L’âge de l’intelligence. Il faisait ainsi remarquer que des centaines de startups très prometteuses naissent aujourd’hui en s’appuyant sur des services et outils d’intelligence artificielle qui n’existaient même pas il y a encore un an.
Patrick Chen, associé du fonds en capital risque Andreessen Horowitz (Foursquare, Zynga, Skype, etc.) propose un angle différent pour un constat similaire. Selon lui, aucun investisseur ne cherchera à investisseur dans une startup en intelligence artificielle d’ici 2 ans. Non pas qu’il s’agira d’une mode dépassée ou une d’une technologie dont on n’aura fait le tour, mais plutôt parce qu’il deviendra impensable pour de se passer d’intelligence artificielle. En 2019, un nouveau business software qui ne s’appuierait sur l’état de l’art en matière d’intelligence artificielle serait comme ne pas avoir de base de données relationnelle en 1980, ne pas avoir de client riche pour Windows en 1987, ne pas être sur le web en 1995, ne pas s’appuyer sur le cloud en 2004 ou encore ne pas avoir d’application mobile en 2009.
Nous ne sommes donc qu’au tout début de cette ère qui va voir l’intelligence artificielle se propager dans tous les secteurs économiques. Des startups aux grands groupes établis, chacun aura de plus en plus d’outils à disposition pour construire des produits et des services plus « intelligents ». Si l’évolution paraît naturelle pour les jeunes pousses, elle sera plus complexe à mettre en œuvre pour les acteurs traditionnels, dont beaucoup sont encore en pleine transformation digitale. La question n’est pas de savoir si ces évolutions auront lieu, mais plutôt de savoir quand et comment. Partout où il y a du digital (c’est-à-dire pratiquement partout), il y aura de l’intelligence artificielle.
C’est pourquoi les entreprises de tous les secteurs doivent prendre le sujet à bras le corps. Doivent-elles prendre le lead en s’appuyant en interne sur les talents de l’intelligence artificielle pour de la recherche, doivent-elles s’appuyer plus pragmatiquement sur les services des géants du digital pour créer leurs propres solutions ? Doivent-elles incuber ou s’associer à des startups ? Autant de questions à ses poser dès maintenant. Car on peut déjà commencer à se dire que ne peut pas avoir de stratégie en matière d’intelligence artificielle, c’est ne pas avoir de stratégie du tout.

[1] Yann Le Cun, Les Enjeux de la Recherche en Intelligence Artificielle, Titulaire de la chaire Informatique et Sciences numériques du Collège de France Année académique 2015-2016