Développer des innovations responsables et durables intégrant l’intelligence artificielle : l’approche Good in Tech

Partager sur facebook
Partager sur google
Partager sur twitter
Partager sur linkedin
Intelligence artificielle

Le rapport 2020 du Boston Consulting Group sur les 50 entreprises les plus innovantes dans le monde montre que neuf sur dix d’entre elles (i.e., Apple, Google, Amazon, Microsoft, Samsung, Huawei, Alibaba, IBM, Facebook) appartiennent au secteur du digital et développent massivement des technologies d’intelligence artificielle. En 2020, la plupart des secteurs économiques, que ce soit la santé, les transports, l’énergie, l’éducation, les banques et assurances, la publicité, la sécurité, le recrutement, et bien d’autres encore, se transforment en profondeur en intégrant des techniques de machine learning dans la plupart de leurs produits ou services.

En conséquence, l’un des enjeux majeurs de ces innovations est de savoir si elles apportent une réelle valeur ajoutée aux utilisateurs et si elles n’ont pas des effets potentiellement négatifs sur l’environnement et sur la société. Un nouveau défi se présente donc aux entreprises: comment développer une innovation numérique responsable et durable ? La réponse est au cœur des travaux menés par la chaire Good in Tech (www.goodintech.org). 

En effet, de nombreux travaux ont montré les effets négatifs de l’intelligence artificielle, tout d’abord sur l’environnement. Les chercheurs Strubell, Ganesh et McCallum de l’Université du Massachusetts Amherst, ont montré en 2019 que l’apprentissage de modèles d’intelligence artificielle de NLP (Natural Language Processing) a un impact carbone cinq fois plus élevé que les émissions d’une voiture américaine durant l’ensemble de son cycle de vie. Les serveurs d’hébergement et de traitement de données massives, indispensables aux algorithmes d’intelligence artificielle, sont également fortement consommateurs d’énergie. Enfin, certaines finalités d’usage de plateformes numériques utilisant des technologies d’intelligence artificielle, comme le partage de photos et de vidéos sur Instagram ou le visionnage de films sur Netflix ont une contribution très négative sur l’environnement. Selon le think tank Shift Project, le visionnage des vidéos en ligne a généré en 2018 autant de gaz à effet de serre que l’Espagne, à savoir 1% des émissions mondiales.

Les effets négatifs de l’intelligence artificielle sur la société sont également nombreux et aujourd’hui documentés. Tout d’abord, les données utilisées dans des algorithmes d’intelligence artificielle peuvent comporter des biais (données manquantes, mauvaise qualité, biais de sélection, par exemple) entraînant des effets de discrimination. Le chercheur Obermeyer et ses collègues ont publié un article en 2019 dans la revue Science, montrant que l’un des algorithmes largement utilisé aux Etats-Unis pour l’accès aux soins discrimine les populations noires versus blanches, et qu’une correction du problème entraînerait un pourcentage de patients noirs accédant aux soins médicaux qui passerait de 17,7% à 46,5%. La discrimination raciale avait déjà été précédemment montrée sur les algorithmes utilisés par la justice américaine. L’opacité des systèmes algorithmiques présente aussi des risques de manipulation, comme dans le cas des fake news ou des deep fakes, fausses informations qui circulent sur les réseaux sociaux souvent pour déstabiliser les démocraties, en particulier dans les périodes électorales. Les technologies d’intelligence artificielle sont aussi difficilement interprétables. Dans le secteur de la santé par exemple, certaines technologies d’IA prévoient la forte ou faible probabilité pour un patient en réanimation de sortir ou non du coma. Face à un tel enjeu éthique, les médecins souhaitent à juste titre comprendre comment fonctionne le modèle prédictif, quelles variables influencent le résultat, ce qui reste quasi impossible à faire aujourd’hui car les résultats de méthodes de deep learning sont difficilement explicables. Enfin, certains algorithmes peuvent encapsuler des opinions, comme par exemple celles du data scientist à l’origine du code, ou celles plus largement du système socio-technique dans lequel il se trouve (son entreprise, les valeurs de celle-ci, les écosystèmes plus larges de l’entreprise). Un exemple simple est la présence d’une voix féminine dans la plupart des agents conversationnels, suggérant que les femmes seraient plus au service des autres que les hommes.

Dans ce contexte, l’enjeu de l’innovation numérique responsable et éthique, au cœur du concept Good in Tech, devient majeur. L’objectif est de repenser l’innovation et la technologie comme moteurs d’un monde meilleur pour et par l’humain. Afin de répondre à ce défi, nous avons développé la Chaire Good in Tech, portée par Institut Mines-Télécom Business School et Sciences Po, en partenariat avec deux écoles d’ingénieur de l’Institut Mines-Télécom : Télécom Paris et Télécom SudParis. Cette chaire, financée par cinq entreprises mécènes (Afnor, AG2R, CGI, Danone, Sycomore) et hébergée par la Fondation du Risque, regroupe des chercheurs pluridisciplinaires (sociologie, management, droit, informatique, histoire, économie) travaillant sur quatre axes majeurs. Le premier porte sur l’innovation numérique responsable. L’idée de départ est simple : la plupart des entreprises mesurent des critères de RSE (Responsabilité Sociale d’Entreprise), mais paradoxalement, ces critères portent essentiellement sur le développement durable, l’équité homme femme ou le bien-être au travail, mais quasiment aucun critère ne porte sur la responsabilité des entreprises dans leur innovation technologique, alors que celle-ci bouleverse en profondeur les produits et services comme les métiers au sein de l’entreprise. Dans ce premier axe, nous travaillons donc à identifier les dimensions d’une innovation responsable, plus spécifiquement en mesurant l’impact environnemental et sociétal de chaque technologie, indicateurs pouvant être intégrés dans la RSE.

Le deuxième axe de la chaire porte sur l’éthique de l’intelligence artificielle. La mesure des différents impacts négatifs de l’intelligence artificielle a généré ces dernières années un courant international de recherche et de travaux autour du concept d’intelligence artificielle responsable. Plusieurs organisations internationales ont publié leur rapport sur le sujet (commission européenne, OCDE, UNESCO). A l’initiative de ce courant, une communauté internationale de chercheurs dans différentes disciplines (informatique, management, sociologie, philosophie, droit) est très active sur les enjeux éthiques de l’IA. Les travaux de la chaire Good in Tech s’inscrivent dans ce courant international, avec plusieurs travaux sur des sujets tels que : l’interprétabilité des algorithmes (dans le secteur bancaire ou en santé), la compréhension de la prise en compte de l’éthique de l’IA par des concepteurs de systèmes d’information, l’éthique dans les algorithmes de recrutement, les algorithmes de publicité responsables, la fairness des algorithmes, ou encore les enjeux de privacy. 

Le troisième axe Good in Tech vise à sensibiliser le grand public à l’innovation responsable, autour de conférences au format innovant.

Le quatrième axe de la chaire Good in Tech porte enfin sur les enjeux de gouvernance : l’innovation numérique responsable doit-elle être portée au sein même de la technologie, faut-il créer des chartes d’entreprises, ou bien réguler par la loi ? Cet axe donne lieu à la publication de policy papers comportant des recommandations.

Plusieurs futurs sont possibles, mais le contexte mondial actuel et les enjeux climatiques rendent plus que jamais indispensable la vision d’une innovation Good in Tech responsable et durable. En créant un écosystème d’interactions entre les institutions académiques, la recherche, les entreprises, les étudiants, la société civile et les décideurs politiques, la chaire Good in Tech (www.goodintech.org) contribue à porter cette vision.