"Nous devons mener une réflexion rapide sur l'éthique de l'intelligence artificielle" (Pascal Montagnon, Inseec)

 |   |  1014  mots
(Crédits : DR)
Disruptive, formidable propulseur pour les organisations, mais aussi source de questionnement, voire de défiance, l’intelligence artificielle suscite encore beaucoup de débats. C’est pour lever les tabous autour de la question, tout autant que s’interroger sur son devenir, que pour la deuxième année consécutive, l’Inseec, dont la Tribune est partenaire, organise, le 11 juin prochain, une journée dédiée aux grands enjeux. Entretien avec Pascal Montagnon, directeur de la Chaire de recherche innovation digitale, big data et Intelligence artificielle et porteur du projet.

La Tribune : Votre Chaire de recherche porte, notamment, l'organisation du deuxième Artificial Intelligence Summit. Quel en est le but ?

Pascal Montagnon : Nous étudions la maturité digitale des organisations et sur ses impacts : sociétal, social, financier et économique. Ce sommet s'inscrit dans la continuité de nos travaux. Il nous permet de partager notre expérience, mais aussi celle d'experts de renom, comme Luc Julia, le senior vice-président de Samsung Electronics ou Laurence Lafont, la directrice générale de Microsoft. Mais pas seulement : nous ouvrons également la thématique à d'autres univers. À l'image du dialogue entre Joël de Rosnay, président exécutif de Biotics International, et le philosophe Axel Kahn.

À qui s'adresse ce sommet ?

À Lyon, il y a beaucoup d'événements où l'on traite de l'intelligence artificielle, mais dont ce n'est pas le sujet central. Nous allons parler "d'IA pure" principalement à des chefs d'entreprises qui n'ont pas forcément une grande connaissance de l'intelligence artificielle, mais qui s'y intéressent. Le terme IA est beaucoup utilisé, mais peu savent vraiment de quoi il s'agit. Nous voulons faire prendre conscience aux intéressés qu'il y a urgence à s'emparer du sujet en leur expliquant ce que c'est et ce que ça peut leur apporter.

Il faut arrêter les discours qui diabolisent l'IA : la technologie nous permet simplement d'aller plus loin, cessons de penser qu'elle va tout détruire. Elle entraînera certainement une transformation nécessaire des entreprises, des emplois à redimensionner, des collaborateurs à repositionner. Luc Julia utilise le terme d'intelligence augmentée. Je m'inscris davantage dans cette définition.

Il s'agit là de mettre en place des techniques qui permettent aux collaborateurs de travailler autrement et mieux. Et ce grâce aux données, très nombreuses, dont on dispose. Une force qui doit nous conduire à être meilleurs dans les domaines prédictifs et les diagnostics. Par exemple, des études montrent que la fiabilité des prédictions médicales avancée par l'IA approche les 92 % alors qu'un médecin approche péniblement les 80 %. Normalement, avec l'IA, la marge d'erreur est plus faible. Mais la machine reste une aide à la décision et certainement pas un outil qui va remplacer l'individu. C'est toujours lui qui va prendre les décisions.

Nous n'en sommes pas encore à une "IA forte" où, par principe de singularité, les machines prennent le pouvoir sur l'homme. Nous sommes face à une "IA faible", soit l'amélioration technologique de ce qui existe déjà depuis de nombreuses années.

Justement, un des reproches régulièrement fait à l'IA, c'est que l'on pourrait aboutir à une emprise de la machine sur l'homme. Faut-il donc se poser la question de l'éthique ?

On n'en est pas là. Même s'il est certain que l'on ne sait pas où l'on en sera dans 50 ans. Mais il est vrai que les inquiétudes techniques, la question de la protection des données et l'opacité des systèmes doivent nous mener à une réflexion rapide sur l'éthique de l'intelligence artificielle.

Par exemple, dans le cas d'un accident avec une voiture autonome, qui sera responsable ? Le constructeur, le conducteur, le propriétaire du véhicule ou le piéton ? En matière de données, comment éviter de reproduire la pensée humaine dépossédée des biais humains (sexisme, discrimination, etc.) via la machine puisque c'est l'Homme qui programme des algorithmes ? Que va-t-on faire de toutes les données que nous laissons, partout, tout le temps ? On sait que des organismes vivent de l'exploitation de cette data.

Quelle est la position des acteurs français et européens à ce sujet ?

Technologiquement, l'Europe a pris un retard considérable malgré nos talents et nos kyrielles de startups, obligées de s'exporter. Nous sommes coincés entre la Chine et les États-Unis.

Aujourd'hui, nous devons trouver un moyen d'exister et cette question de l'éthique pourrait nous servir pour construire une troisième voie. Néanmoins, il nous faut trouver le juste milieu, car si on se polarise sur cet aspect, on se fera toujours distancer par les nations qui pensent d'abord au business.

Peut-on, de façon réaliste, faire émerger cette troisième voie qui serait européenne, compétitive et éthiquement acceptable ?

Si on veut développer une règle éthique, il faut que cela devienne un avantage concurrentiel. Jusqu'où peut-on la transcrire ? Là est la question.

Au-delà de la technique, comment l'intelligence artificielle pourrait-elle servir les activités commerciales ?

C'est très simple, cela s'appelle l'expérience client. Nous sommes des consommateurs et des produits en puissance. Cette expérience client peut représenter un énorme enjeu dans les stratégies futures des entreprises basées sur la gestion du Big data. Cela aura une répercussion directe sur l'ensemble des métiers. C'est l'avenir des entreprises dans toutes ses composantes. Par exemple, comment je recrute à partir de la data ? Qu'est-ce que les données que je récupère sur un candidat me disent sur sa personnalité, sa capacité d'intégration, ses valeurs ? Autre exemple : la blockchain, un outil super puissant qui va révolutionner la chaîne comptable et financière dont toutes les données seront digitalisées, automatisées et confidentielles. C'est un système inviolable qui utilise l'intelligence artificielle.

Au final, l'IA peut-elle être réellement éthique ? Ou n'est-ce qu'une question de curseur...

Par la volonté des hommes, j'en ai la certitude. C'est un formidable outil au service des êtres humains, c'est l'homme qui tiendra les manettes.

Par exemple, le RGPD est un dispositif qui va dans le bon sens, mais uniquement s'il est appliqué de façon uniforme. Une société américaine qui intervient en Europe, mais qui place son siège à Dubaï, n'a pas besoin de le respecter le RGPD. Des experts internationaux commencent à s'en inspirer, mais entre prise de conscience et réalité, un océan nous sépare !

Aujourd'hui, au-delà de ça, il faut faire attention aux développements et aux tentatives de transhumanismes. Toutes ces nanotechnologies, biotechnologies, technologies de l'information doivent nous amènent à renforcer les règles d'éthique.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :