Retour au numéro
Vue 151 fois
juillet 2018

Risques et opportunités de l’intelligence artificielle

 


L’ intelligence artificielle (« IA ») sujet encore récemment cantonné à la sphère de la recherche scientifique et des NTIC, devient rapidement une grande cause nationale soutenue par des initiatives gouvernementales et un sujet de « buzz médiatique » apte à alimenter nombre d’espoirs ou de craintes plus ou moins fantasmatiques chez les citoyens utilisateurs (ou sujets ?) potentiels. S’il est vrai que nous voyons déjà l’émergence d’une IA, même « faible » c’està-dire qui peut émuler mais non surpasser certaines capacités d’apprentissage jusque-là réservées aux êtres humains (vision, reconnaissance d’invariants, voir même analyse et prédiction), la capacité des outils d’IA à traiter efficacement des masses de données ne peut faire oublier qu’ils relèvent d’une « intelligence » « numérique » et non « organique ».

Le présent dossier propose une large palette de témoignages sur la mise en pratique des outils de l’IA, mais aussi plusieurs réflexions éthiques et philosophiques sur la notion même d’IA et la délégation par l’homme à un automate de décisions potentiellement critiques pour son bien-être ou sa sécurité.

Tout en reconnaissant l’immense potentiel bénéfique de l’IA, tant pour les enjeux économiques que sociétaux, les différents contributeurs ont su s’attacher à rester au plus proche de la méthode scientifique, tant théorique que pratique, pour ne pas succomber à la tentation de discours séduisants mais sans fondements.

Ainsi, le mythe du remplacement de l’être humain par une machine dotée d’une intelligence artificielle mais devenue supérieure restera ici un mythe, car nombre d’applications actuelles dites « d’intelligence artificielle » relèvent en fait de l’optimisation mathématique d’algorithmes descriptifs de processus opérationnels connus. La véritable « intelligence » n’intervient réellement que lorsque, selon le mot d’un expert, l’homme ou la machine « apprend à exécuter des opérations pour lesquelles il/elle n’a pas été programmé.e (mais qu’il/elle est physiquement capable d’accomplir) ».

Ainsi les articles de ce dossier – quand ils ne sont pas didactiques en vue de vulgariser la théorie des intelligences artificielles – s’attacheront surtout à explorer les conséquences pratiques de l’emploi de tels algorithmes.

Deux témoignages de terrain proviennent d’entreprises industrielles développant et déployant des outils d’IA, respectivement dans le véhicule autonome et la logistique. Un troisième provient de deux ONG’s qui se donnent pour mission de mettre la puissance de l’IA au service d’un grand nombre de citoyens responsabilisés, par exemple pour leur recherche d’emploi… Ces exemples nous permettent de toucher du doigt la contribution concrète de l’IA à la transformation de nos activités quotidiennes, même les plus banales.

Deux autres contributions proviennent du berceau même de l’IA, c’est-à-dire la Silicon Valley : un groupe d’ingénieurs élèves du Corps des Mines a effectué là-bas un voyage d’études au début de 2018, ils nous rapportent les faits marquants de leurs visites et proposent des pistes pour permettre à la France de «rester dans la course » de ce nouveau champ d’innovation. Et l’un de nos camarades, résidant en Californie depuis de longues années, bien qu’ayant accompli une riche carrière dans la métallurgie, a relevé le défi de suivre à Stanford University un courssur le « Deep Learning » (Apprentissage Profond), l’une des trois disciplines fondatrices de l’IA : il partage avec nous l’essentiel de ses nouvelles connaissances.

Il faut enfin traiter la question en suspens concernant la sécurité de l’utilisateur si les leviers de commande d’un système d’IA par ailleurs efficace tombent en de « mauvaises mains », ou concernant la capacité d’un système d’IA à reconnaître la légitimité (et non pas seulement la conformité technique) des données d’entrée qu’il traite. Les deux derniers textes sont, dans cette optique, des réflexions éthiques et philosophiques sur la nature même de l’intelligence et ses rapports avec la sensibilité humaine, voire la morale. L’un nous est offert par un camarade dont la vocation apostolique l’a conduit à la prêtrise et qui dirige le Pôle Recherche au Collège des Bernardins, l’autre est une saynète théâtrale confrontant dans un bureau d’études des robots doués d’intelligence et d’autres doués de sensibilité. Cet intermède est l’œuvre de l’un de nos plus anciens camarades qui a lu et compris le maître de l’anticipation qu’était Ray Bradbury (Fahrenheit 451, Chroniques Martiennes) dont il reprend ici quelques idées-forces.

Nos contributeurs partagent ainsi une vision commune et réaliste du travail scientifique et social restant à entreprendre pour réussir pleinement la « transformation numérique », mantra omniprésent dans le discours des entreprises et des médias…

Et ils partagent aussi et surtout un même souci éthique et moral : permettre aux experts comme aux consommateurs, en gardant la maîtrise de ces outils, de ne pas verser dans un scientisme béat ni d’abdiquer leur esprit critique, leur éthique, voire leur humanité. Au-delà de la somme des développements technologiques nécessaires, c’est une réflexion épistémologique au niveau national qu’il serait bon d’engager. ■

Auteurs

Directeur associé, Winnotek, directeur scientifique de la Revue

Philippe est MBA d’University of Chicago, Booth School of Business. Après une carrière
double, industrielle (Aluminium Pechiney, SAFT, Faurecia, Thomson) et de Conseil (Bain & Cie, CSC Index, Braxton/Deloitte) il est cofondateur en 2009 du cabinet Winnotek spécialisé en valorisation de l’innovation, stratégies de Propriété Intellectuelle et montage de projets R&D collaboratifs. Voir les 11 autres publications de l'auteur
Cofondateur de Cardabel (détection de fraudes financières).

Étudiant-chercheur à la Harvard Kennedy School et au MIT Institute for Data, Systems and Society.
Membre de l’équipe coordinatrice de Data for Good France et Bayes Impact.

Articles du numéro

Commentaires

Commentaires

Vous devez être connecté pour laisser un commentaire. Connectez-vous.