Fouzil, pourriez-vous partager un moment décisif dans votre carrière qui a orienté votre intérêt pour l’IA et tout particulièrement l’IA éthique ?
Depuis toujours je m'intéresse aux grandes transitions qui transforment l’économie et les modes de travail. L’intelligence artificielle représente une avancée technologique majeure, porteuse d’opportunités mais aussi de risques, surtout si elle échappe à toute maîtrise humaine. Les risques associés aux biais algorithmiques et leurs impacts (comme la discrimination) ont renforcé ma conviction que le progrès lié à l’IA doit impérativement rester aligné avec l’intérêt général et le respect des droits fondamentaux.
C’est pourquoi chez Axys je m’investis dans l’intégration des exigences éthiques dans les projets IA que nous menons chez nos clients. Nous avons d’ailleurs co-organisé avec HEC un événement officiel du Sommet mondial pour l’IA, dédié spécifiquement à l’IA éthique qui était un des 5 grands thèmes du Sommet, afin de sensibiliser le plus grand nombre et partager des bonnes pratiques sur ce sujet clé.
Vous avez dirigé des études et événements liés à l’IA. Quelle tendance actuelle mérite selon vous plus d'attention de la part des entreprises du CAC 40 ?
La promulgation récente de l’AI Act constitue de mon point de vue une évolution majeure. Elle acte que la question n’est plus simplement technologique : elle est désormais éthique, sociale, juridique. Ce texte appelle les entreprises, notamment les grands groupes, à anticiper des exigences de transparence, de gouvernance des données, de supervision continue mais aussi à structurer leur démarche de responsabilité autour de l’IA.
Au-delà de la conformité réglementaire, c’est un changement de paradigme qui s’impose : construire une IA digne de confiance, contrôlable, alignée avec les valeurs de nos sociétés démocratiques et a fortiori des entreprises elles-mêmes (le risque réputationnel est prégnant pour les grandes entreprises comme on a pu le voir avec Apple ou Amazon).
Pour les entreprises du CAC 40, cela signifie donc s’emparer pleinement de ces enjeux dès aujourd’hui : non seulement pour maîtriser les risques mais pour faire de l’IA un levier stratégique durable.
En tant qu’expert des problématiques d’IA, pouvez-vous justement partager les risques liés à l’IA et comment les prévenir ?
Les risques liés à l’IA ne se réduisent pas à des problèmes techniques : ils questionnent notre capacité à en assurer une maîtrise éthique et démocratique. L’IA peut être utilisée pour manipuler l’information, orienter les opinions ou renforcer des dispositifs de surveillance au détriment des libertés fondamentales.
Pour prévenir ces dérives, il est essentiel de mettre en place une régulation exigeante, assortie d’un cadre clair de responsabilités. Le cadre européen récemment adopté envoie un signal fort en ce sens mais il doit s’accompagner d’une véritable culture partagée autour des usages de l’IA, dans les entreprises comme dans la société civile.
Trois leviers me paraissent essentiels :
• Une supervision continue : tester et auditer régulièrement les modèles pour identifier les biais, les effets inattendus et garantir leur robustesse dans la durée.
• La transparence et le contrôle humain : dans les domaines sensibles, certaines décisions ne peuvent être automatisées. L’intervention humaine reste indispensable pour garantir discernement et responsabilité. L’humain doit rester dans la boucle.
• L’amélioration continue : les modèles doivent être ajustés en fonction des retours d’usage et de l’évolution des contextes, afin de préserver leur pertinence et de maintenir la confiance des utilisateurs.
Quels conseils donneriez-vous à une entreprise souhaitant à investir dans des initiatives intégrant l'intelligence artificielle ?
Je donnerais 2 conseils en tout premier lieu.
Le premier est de clarifier les enjeux stratégiques. Avant d’adopter l’IA, il est essentiel de définir précisément pourquoi l’entreprise veut l'intégrer et quels problèmes spécifiques elle souhaite résoudre, qu’il s’agisse d’améliorer la productivité, l’expérience client ou de prendre des décisions plus éclairées. La question du pourquoi est fondamentale.
Le deuxième conseil est d’embarquer et d’acculturer les collaborateurs. Ce sont eux qui au quotidien sont les mieux placés pour identifier des cas d’usage pertinents. Une adoption réussie de l'IA dépend fortement de leur implication et de leur compréhension des opportunités liées à ces technologies.
Comment voyez-vous l'évolution des compétences requises au regard des transformations induites par l’IA ?
L’évolution des compétences face à l’IA va être marquée par une transformation rapide des métiers, notamment avec l’essor de l’IA générative. Des études indiquent que d’ici 2030 près de 30 % des tâches des salariés français pourraient être automatisées. Y compris les domaines créatifs et analytiques.
Les entreprises devront investir dans la formation et la requalification de leurs équipes pour répondre à ces défis. Cela inclut l’adoption de nouvelles compétences liées à la gestion des IA et l’adaptation des politiques de recrutement et de développement des compétences pour anticiper les besoins futurs en capital humain.
Fazil Boucherit est le Directeur de la Business Unit Conseil Finance chez Axys Consultants. Il se spécialise dans le pilotage de la performance, l'optimisation du cycle Order-to-Cash et la finance durable. Avec plus de 10 ans d'expérience dans le conseil, il a travaillé sur des missions de transformation et de digitalisation pour des grandes entreprises, notamment dans les secteurs de l'énergie, du retail et des médias. Il est également impliqué dans l'animation d'études et de baromètres sur la fonction finance et la RSE.