Malakoff Humanis, pour une IA responsable

0
501

Au cœur des grandes innovations actuelles et à venir, l’Intelligence artificielle aussi porteuse de progrès qu’elle soit, interroge les citoyens et les pouvoirs publics et crée une exigence de transparence et d’éthique.

Pour y répondre et progresser sur ce sujet, BCG GAMMA, L’Oréal, Malakoff Humanis et Orange France, entreprises leaders de leur secteur, annoncent le lancement de Positive AI et de son label pour rendre concrète et accessible l’éthique dans l’Intelligence Artificielle pour toutes les entreprises. Ce label, qui vise à opérationnaliser les propositions des instances publiques, constitue la première étape de l’initiative Positive AI, qui a également pour vocation de devenir un espace d’échange et de dialogue.

Présente désormais dans tous les métiers et toutes les industries, l’IA n’est plus réservée aux innovations de rupture des industries de pointe. Elle interroge tous les processus économiques et l’organisation des entreprises.

Son omniprésence pose question aux citoyens, aux consommateurs, et aux collaborateurs qui voient en elle l’opportunité d’améliorer leur quotidien, mais aussi le risque de perdre leur activité ou le contrôle sur certaines de leurs libertés. Face à l’évidence de l’enjeu, les pouvoirs publics et les experts français et européens ont lancé un débat sur l’éthique du numérique.

Les entreprises, premier espace de développement et de déploiement de l’IA, ont un rôle majeur à jouer pour que cette dernière conjugue potentiel d’innovation et respect des droits humains. Cependant, selon une récente étude du BCG, si 84 % des entreprises affirment que l’IA Responsable devrait être une priorité, seules 16 % d’entre elles ont développé un programme mature, notamment par manque de solutions opérationnelles et d’outils pour les appliquer.

BCG GAMMA, L’Oréal, Malakoff Humanis et Orange France ont choisir d’unir leurs forces et leurs expertises pour lancer Positive AI. Constatant la difficulté pour les entreprises de rendre opérationnelles les recommandations sur l’IA Responsable, les quatre entreprises fondatrices de Positive AI tentent d’apporter leur pierre à l’édifice en développant un référentiel intégrant les principes clés de l’IA Responsable définis par la Commission européenne.

Justice, transparence et intervention humaine

Ce référentiel plus concret met l’accent sur trois dimensions prioritaires : la justice et l’équité, afin de prévenir les biais de discrimination et d’iniquité de traitement pouvant exister aussi bien dans les données que dans les algorithmes ; la transparence et l’explicabilité afin de faire en sorte que les données et algorithmes au cœur des systèmes d’IA soient accessibles, compréhensibles, explicables ou a minima interprétables et reproductibles ; enfin, l’intervention humaine visant à s’assurer de la capacité des organisations à superviser et corriger les décisions automatisées afin que les systèmes d’IA soient conçus pour une collaboration homme-machine au service de l’humain.

Un label, des ressources et une communauté d’experts

À compter de 2023, ce référentiel sera la base servant à l’obtention du label Positive AI, attribuable à l’issue d’un audit indépendant. Sur la base de ce premier travail collectif, Positive AI a pour ambition de s’ouvrir à toute entreprise qui gère et/ou développe des systèmes d’Intelligence Artificielle.

Positive AI sera à la fois une base de ressources et une véritable communauté d’experts en progrès constant pour faire avancer l’éthique dans l’IA, partager des expériences et rendre l’IA Responsable accessible à tous les dirigeants et data experts quelle que soit leur maturité, leur industrie ou leur métier.

Souhaitant s’ouvrir à la société civile autant que renforcer son expertise, Positive AI s’est dotée d’un comité indépendant d’experts en IA et éthique qui apportera son éclairage afin que le référentiel et les méthodes d’évaluation puissent être enrichis.

Il est composé de trois personnalités reconnues de la recherche sur l’IA et ses implications dans la société : Raja Chatila, professeur émérite de robotique, d’IA et d’éthique à Sorbonne Université ; Caroline Lequesne Roth, responsable du Master 2 Droit algorithmique et gouvernance des données à l’Université Côte d’Azur et Bertrand Braunschweig, coordonnateur scientifique du programme Confiance.ai.

« Positive AI ambitionne de créer un espace d’échange, de travail, et des outils concrets et partagés, dédiés aux entreprises qui souhaitent déployer une IA Responsable. Cette démarche opérationnelle s’inscrit dans les propositions des pouvoirs publics » explique Laetitia Orsini Sharps, présidente de l’association Positive AI. « À terme, notre ambition est que ce label devienne une référence, en France et en Europe pour tous ceux qui souhaitent développer une Intelligence Artificielle éthique et respectueuse de la société. Positive AI a vocation à accueillir d’autres entreprises de toutes tailles qui souhaiteraient s’engager dans cette démarche vers une IA Responsable et qui partagent notre conviction d’une vision positive de l’utilisation de cette innovation dans les entreprises. »

Selon CP

Laissez un commentaire

Saisissez votre commentaire ici!
Veuillez entrer votre nom S.V.P