Concevoir des IA éthiques, mission impossible ?
6000 mètres carrés de verdure au cœur de Marseille, ça fait rêver non ? C’est dans cet environnement, au LICA, que Rafaël Torres forme à l’IA éthique. Le LICA, le Laboratoire d’Intelligence Collective et Artificielle était anciennement une association organisant des Meet Up pour permettre les rencontres et échanges entre citoyens. Après avoir créé une société coopérative, l’équipe du LICA a récemment acheté un lieu, futur Tiers Lieu dédié aux thématiques de transition écologique, démocratique et numérique. Et forcément dans le numérique, l’IA tient une grande place. Si pour toi l’éthique x l’IA, ça semble un peu contradictoire, on a demandé à Rafaël de nous éclairer sur le sujet !
Rafaël, pourquoi as-tu eu envie de rendre l’IA plus éthique ?
Aujourd’hui, on a une explosion des cas d’usage grand public comme Spotify, Youtube ou encore ChatGPT, qui sont des outils qui nous influencent. Il faut donc que la manière dont on souhaite utiliser l’IA et faire de l’IA soit une réponse collective. Pour moi, si tu es utilisateur.ice, il faut être sensibilisé.e pour comprendre ce qu’est l’IA, prendre du recul sur son usage et avoir un regard critique. Si tu es concepteur.ice, il faut que tu puisses t’outiller pour concevoir les solutions que tu as envie de voir naître, qui te ressemblent, et pas des solutions qui ne vont pas correspondre à tes valeurs ou à l’impact que tu as envie d’avoir. J’étais dans le développement technique jusqu’ici et j’étais frustré de ne pas pouvoir apporter de réponses à ces problématiques. Il y a de supers choses à faire avec de l’IA, notamment des applications sociales, éducatives, écologiques, à condition qu’on les fasse bien et qu’on prenne le temps de la réflexion dans les phases de design, lors de la conception.
Quel est ton parcours Rafaël ?
Je suis ingénieur en intelligence artificielle. J’ai appris le machine learning au laboratoire d'intelligence de l’University of California à Los Angeles (UCLA). Quand je suis revenu en France, j’ai travaillé dans des boîtes qui faisaient de l’IA puis j’ai co-fondé une entreprise dans ce domaine. Après quelques années à travailler sur ces sujets, je me suis posé des questions sur l’éthique de cet outil et son impact à l’échelle individuelle et collective. Je ne voulais plus travailler sur l’aspect algorithmique sans avoir une vue globale, sans prendre du recul. Ce n’est pas seulement un outil technique mais un objet sociétal avec tout ce que ça comporte. Un soir, je me suis rendu à un Meet Up du LICA à Marseille, où j’ai rencontré les cofondateurs. Eux, avaient justement une vision très sociétale et éthique du numérique et de l’IA. Je leur ai donc partagé mon envie de former des gens qui ne sont pas dans la technique à se saisir de projets d’IA en prenant en compte les enjeux éthiques. Puis, quelques temps après, j’ai revendu les parts de la startup dans laquelle j'étais cofondateur pour les rejoindre. C’était il y a 3 ans.
Que s’est-il passé depuis ?
J’ai monté deux projets : la formation en IA éthique, accessible à tous, et l’accompagnement en IA pour concevoir des services numériques chez des clients. Au LICA, on considère que l’IA n’est pas un sujet technique mais socio-technique, c'est-à-dire qu’on a eu envie de le sortir des laboratoires, car ce sujet concerne tout le monde et pas seulement les experts. On a envie de sensibiliser toutes les parties prenantes allant concevoir et utiliser les outils de l’IA. Concernant le déroulé de la formation, elle dure 2 jours. La première journée consiste à comprendre ce qu’est l’IA concrètement, sans être dans l’aspect trop technique, en vulgarisant ce qui est essentiel à comprendre. La deuxième journée vise à comprendre ce qu’est l’éthique de l’IA et ses impacts et se saisir d’une boite à outil pour pouvoir concevoir des services d’IA éthiques.
Peux-tu me donner des exemples d’impacts sociaux négatifs de l’IA ?
Sur l’aspect social, si tu apprends à une IA à recruter des managers pour une boîte de la tech par exemple, via sa base de données, l’outil va apprendre à recruter sur une base de profils assez similaires. Aujourd’hui, il y a en effet une réalité dans la tech, on a par exemple 26% de femmes dans les entreprises et des profils qui viennent souvent des même écoles. Du coup, l’IA va aller recruter des personnes avec ces profils et va répéter cette forme de discrimination. Donc ça pose questions. Autre sujet : quand tu fais de l’IA, tu récupères des données à caractère personnel et tu créés des bulles qui te stéréotypent dans ce que tu es : par exemple, si tu es identifié comme CSP+ masculin, on te propose des pubs et des contenus qui t'enferment dans ta façon de voir le monde.
Comment sort-t-on de ces schémas grâce à l’IA ?
Justement, lors de cette deuxième journée de formation, on te présente des enjeux éthiques concrets de l’IA. On te demande les valeurs que tu as envie de promouvoir et on te donne des outils pour créer des projets permettant de concevoir des IA respectueuses de tes valeurs, tout en évitant de tomber dans les dérives de l’IA. Projet, modèle économique, aspects techniques : cette deuxième journée vise à se poser les bonnes questions sur tous ces paramètres, pour les rendre cohérents avec ton projet.
Dernièrement, un photographe a gagné un concours grâce à une photo réalisée par IA. Quel est ton regard là-dessus ?
On avait justement organisé un débat au LICA il y a quelques mois pour poser cette question : est-ce qu’une IA peut être créative ? Aujourd’hui avec cet exemple que tu donnes, il n’y a plus de débat : une IA peut être créative. Ça a un potentiel de fou pour les artistes, mais ça a aussi des limites si ce n’est pas encadré. L’enjeu ici est le scrapping : les IA vont chercher dans de nombreuses bases de données des dessins d’artistes qui ont déjà été faits. Dans quelle mesure ce que l’IA propose est sa propre propriété intellectuelle ? Dans quelle mesure peut-elle scrapper le travail d’artistes qui ne seront pas rémunérés pour ce travail ? Pour moi, il faut encadrer et poser des règles.
Concernant les impacts écologiques de l’IA, quels sont-ils ?
D’une part, c’est du numérique qui utilise beaucoup de données stockées par d’énormes data centers. Pour fonctionner, ceux-ci requièrent beaucoup d’énergie, tout comme les terminaux comme ton téléphone portable et ton ordinateur, sur lesquels tu vas faire des requêtes. Et en même temps, il y a plein de solutions d'éco-conception qui permettent de rendre ces services responsables, d’un point de vue environnemental. Par exemple, en fonction des data centers que tu choisis, il n’y aura pas les mêmes conséquences sociales et environnementales. L’impact écologique de l’IA dépend aussi de ce qu’on en fait : tu peux faire de l’IA pour faire de l’optimisation énergétique ou encore réduire ton empreinte carbone. Aussi, la meilleure façon d’être écologique, est de récupérer seulement la donnée dont tu as besoin. Aujourd’hui, malheureusement, le réflexe qu’on a, est de se ruer vers la donnée, par peur de manquer. Mais ça génère souvent des doublons et des données non exploitables. Tandis que si tu te poses les bonnes questions dès le début sur les données dont tu as vraiment besoin, tu économises énormément de stockage. La CNIL (Commission Nationale de l'Informatique et des Libertés) recommande d’ailleurs de minimiser la donnée en ne récupérant que celle qui est nécessaire.
As-tu des exemples de projets d'IA qui te font rêver ?
Il existe de l’IA pour préserver la faune et la flore via de l’analyse d’enregistrements audio ou d’images satellites pour voir s’il y a des intrusions dans certains espaces. Tu peux ainsi mieux intervenir lorsque c’est le cas pour protéger ces lieux.
Sur l’aspect social, Pôle Emploi, dans la région Occitanie a aussi mis en place de l’IA. Celle-ci matche les compétences de personnes qui cherchent du boulot avec des offres d’emploi ou des formations permettant de développer des compétences pour des métiers qui embauchent. Les employés de Pôle Emploi étant assez submergés sur ces sujets, l’IA est un super outil pour eux.
Un dernier exemple qui me vient, c’est celui de la Métropole de Nantes, qui utilise l’IA pour lutter contre le gaspillage alimentaire. Dans les cantines de la métropole, grâce à un ensemble de données récoltées sur la fréquentation de la cantine et ce qui est jeté, les quantités nécessaires et les stocks sont anticipés. Cela a permis de réduire, chaque jour, de 3% le gaspillage alimentaire.
La formation en IA dans un Tiers Lieu, ça donne quoi ?
On privilégie beaucoup de faire venir les personnes au Tiers Lieu pour les formations. On installe les tables dehors. On a tous fait beaucoup de formations où l’on était assis sur une table, à regarder des slides passer. On peut se l’avouer, c’est un peu imbuvable. En plus, aujourd’hui, tu as toute cette information sur internet. On prend donc le contre pied de pas mal de formations plus théoriques en formant de manière ludique et intéractive. Le lieu y est pour beaucoup. Le LICA, c’est aussi une expérience, car sont présentent des personnes œuvrant dans plein d’autres domaines dans le lieu : écologie, inclusion… Tant dans la manière dont tu apprends, que dans les intéractions que tu as, tu en ressors nourri et inspiré pour tes propres projets.
6 éléments à retenir pour créer des IA à impact
Ce qu’on retient de cet échange avec Rafaël, c’est que pour créer une IA éthique, il te faut :
📚Comprendre ce qu’est l’IA pour avoir un regard critique, prendre du recul sur son usage.
🌍 Savoir quels impacts tu veux avoir et ne pas avoir.
🧐 Prendre le temps de la réflexion dans les phases de design, lors de la conception.
⚡ Faire des choix techniques, mais aussi dans la façon de structurer le projet et de poser le modèle économique, pour améliorer l’éthique de l’IA.
🤏 Récupérer la donnée dont tu as besoin, seulement celle dont tu as besoin.
🧰 Et bien sûr s’outiller et se former, pour ne pas tomber dans les dérives de l’IA.