Les impacts d’un nouveau service d’intelligence artificielle (IA) doivent être pensés au plus tôt si l’on veut garantir une approche responsable
Si on veut éviter les effets de bord, les risques réputationnels, environnementaux ou sociaux, il faut intégrer ces enjeux dès le cadrage du projet. C’est là que tout se joue : dans la définition des cas d’usage, le choix des technologies, des partenaires, et dans la manière dont on mesure les impacts en continu. L’IA générative peut créer beaucoup de valeur, à condition qu’elle soit pensée avec lucidité et bon sens, en tenant compte du réel, pas juste de la performance technique. Décryptage avec Jean-Pascal Martin, Senior Consultant en Numérique Responsable chez Digital4Better x Furger.
Pourquoi adresser les enjeux de l’IA responsable dès le début d’un projet ?
Jean-Pascal Martin : Parce qu'après, il est trop tard. L’IA Générative est, par nature, non déterministe. On ne peut jamais être certain à 100 % de ce qu’elle va produire. Même si un système fonctionne correctement dans 99 % des cas, le 1 % restant peut poser problème, surtout au moment du passage à l’échelle. Ce risque marginal devient réel et concret lorsqu’on passe à une utilisation massive : à un million d’utilisations, ce 1 % représente 10 000 occurrences. Ce phénomène repose sur une règle simple : le principe de Murphy appliqué à la conception logicielle – « tout ce qui peut mal se passer finira par mal se passer », ou bout d’un certain nombre d’utilisation. Il faut donc anticiper très tôt dans le projet, avant d’atteindre cette échelle.
Quel est le rôle du cadrage et du cas d’usage dans cette démarche ?
J-P. M. : Le cadrage initial est essentiel. C’est souvent là que les erreurs se produisent, même chez les grands acteurs. Il faut challenger les cas d’usage dès le départ, avec une vision à 360° : intégrer les impacts sociaux, environnementaux, d’accessibilité, et se demander si l’usage est réellement pertinent.
Prenons un exemple : Microsoft a recréé Quake II, un jeu des années 90, en utilisant l’IA générative. Trois erreurs ont été commises :
- L’usage était inutile : le jeu existait déjà.
- Le public ciblé a mal réagi : développeurs, designers, graphistes ont vu dans ce projet une démonstration qu’ils pourraient devenir obsolètes.
- Le public a souligné l’impact environnemental négatif du projet
Cela montre que même une innovation technologique peut échouer si le besoin utilisateur n’est pas réel et le contexte social mal évalué.
Quels autres risques identifiez-vous pour les entreprises ?
J-P. M. : Un risque important est celui de la résistance au changement, en particulier sur le sujet de l’IA. Selon un sondage IFOP*, 87 % des Français se disent opposés à ce que des IA possèdent des capacités similaires aux humains. Si une entreprise déploie une IA très performante sans accompagnement ou pédagogie, elle peut rencontrer une résistance exprimée ou, pire, larvée et invisible. Autre enjeu : l’alignement stratégique. Une IA mal calibrée peut nuire à l’image de l’entreprise. Exemple avec Lucy, une IA française censée booster la productivité. Le problème : son niveau de réponse n'était pas à la hauteur. Résultat ? Une perte de crédibilité et d'adhésion. Enfin, il y a les choix technologiques, qui peuvent avoir un impact environnemental massif. L’IA générative explose les besoins en énergie et ressources. Les grands centres de données dédiés à l’IA, aujourd’hui, consomment plus d’1 GW – soit l’équivalent d’une centrale nucléaire. Et on ne construit pas une centrale en un claquement de doigts : cela a pris 17 années pour l’EPR de Flamanville.
Quels sont les impacts concrets de l’IA générative sur l’environnement ?
J-P. M. : Le développement de l’IA générative engendre une consommation énergétique très problématique. Les grands hébergeurs reviennent sur leurs trajectoires de décarbonation, certains cherchent même à acquérir des centrales nucléaires (comme Amazon en Pennsylvanie) pour alimenter leurs data centers. On parle désormais de risques géopolitiques liés à l’accès à l’énergie. Cette pression énergétique remet en cause les efforts pour limiter le réchauffement climatique, alors que pour nombre d’experts nous serions sur une trajectoire à +4°C, non assurable et globalement imprévisible. Il est donc crucial de réorienter les choix technologiques, d’aller vers des solutions plus sobres, locales et souveraines. En France, le mix électrique est particulièrement décarboné. Il est logique de rapatrier certaines solutions localement plutôt que de dépendre d’infrastructures énergivores et éloignées.
Que recommandez-vous pour cadrer efficacement un projet d’IA responsable ?
J-P. M. : Il faut mettre en place, dès le lancement du projet, un framework structurant. Ce cadre doit intégrer :
- Les enjeux d’achats responsables
- Les exigences de conformité
- Des grilles d’analyse multicritères (sociaux, environnementaux, RH…)
- Des simulations d’empreinte carbone du projet
Chez Digital4Better, en plus du conseil, nous avons développé une solution d’évaluation en temps réel, qui permet de suivre la consommation de ressources, notamment dans les projets IA. Pourquoi est-ce utile ? Parce qu’un même projet peut reposer sur une combinaison de cloud on-premise et SaaS. Il est essentiel d’avoir une vision consolidée, un “cockpit” qui affiche à la fois les impacts financiers et les émissions de gaz à effet de serre.
Quel est le rôle des outils et de la mesure dans cette approche ?
J-P. M. : La maîtrise passe par la mesure. Il faut des outils pour évaluer les projets tout au long de leur cycle de vie, avec des indicateurs précis : efficacité énergétique, émissions de CO₂, consommation serveur, etc. Ce suivi permet d’ajuster en continu. L’IA générative évolue vite, les usages aussi. Il est indispensable d’être outillé pour prévenir les dérives plutôt que de les corriger après coup – ce qui est souvent plus coûteux, voire irréversible.