Blog

Batir aujourd'hui les rèves de demain, interview d'un visionnaire IA&Web3

Batir aujourd'hui les rèves de demain, interview d'un visionnaire IA&Web3

Martino, vous êtes un fervent défenseur de la démocratisation de l'IA et du Web3. Comment voyez-vous le rôle de l'intelligence artificielle dans la réduction des inégalités d'accès à la connaissance et aux technologies émergentes ?

L’intelligence artificielle a un potentiel énorme pour réduire les inégalités d’accès à la connaissance, mais tout dépend de la manière dont elle est déployée. Aujourd’hui, on voit déjà des modèles d’IA qui permettent de traduire automatiquement du contenu dans plusieurs langues, d’adapter l’apprentissage aux besoins individuels ou encore d’automatiser certaines tâches pour libérer du temps sur des activités à plus forte valeur ajoutée. Mais ce qui m’intéresse vraiment, c’est la capacité de l’IA à rendre le savoir accessible à ceux qui en sont traditionnellement exclus.

Prenons l’exemple des formations : avec des outils d’IA bien conçus, on peut proposer des parcours éducatifs sur mesure, adaptés au niveau et au rythme de chacun, et disponibles partout, sans contrainte de lieu ou de coût exorbitant. Ça veut dire que quelqu’un qui n’a pas accès à une grande école ou à un cursus universitaire classique peut quand même se former sur des sujets de pointe, avec des contenus adaptés et interactifs.

Dans le Web3, c’est un peu le même principe. L’idée, c’est d’avoir des infrastructures ouvertes, où les utilisateurs ont le contrôle sur leurs données et leur identité numérique, et où l’accès aux services ne dépend pas d’un intermédiaire centralisé. Si on combine IA et Web3 intelligemment, on peut imaginer des plateformes d’apprentissage qui permettent non seulement de se former gratuitement ou à bas coût, mais aussi de certifier ses compétences sans passer par un organisme traditionnel, et même de monétiser ses contributions à la connaissance.

Mais évidemment, il y a des défis à relever. Une IA mal conçue peut renforcer les inégalités au lieu de les réduire : si elle est entraînée sur des données biaisées, si elle est inaccessible à ceux qui n’ont pas les compétences numériques de base, ou si elle est exploitée uniquement par des acteurs qui verrouillent son accès derrière des modèles payants. C’est pour ça que chez P2Enjoy, on milite our une approche ouverte et responsable, où l’IA et le Web3 ne sont pas juste des buzzwords, mais des outils concrets pour rendre la technologie plus accessible et utile à tous.

En tant que co-fondateur du Salon IA-Web3 Event, quels sont les sujets ou innovations les plus prometteurs que vous avez observés récemment dans le domaine de l'intelligence artificielle et de la blockchain ?

Ce qui est fascinant aujourd’hui, c’est la convergence entre l’IA et la blockchain, et comment ces deux technologies commencent à s’entremêler pour résoudre des problèmes qui, jusqu’ici, semblaient opposés.

D’un côté, l’IA générative continue de faire des avancées spectaculaires, notamment dans l’optimisation des modèles, la réduction des coûts énergétiques et la personnalisation de masse. On voit apparaître des IA capables de générer des contenus multimodaux (texte, image, vidéo, code) avec une précision de plus en plus fine. Mais surtout, l’enjeu devient : comment garantir la provenance et la traçabilité des contenus générés par IA ? Et c’est là que la blockchain entre en jeu.

Un des sujets qui m’a marqué récemment, c’est justement l’utilisation de la blockchain pour vérifier l’authenticité des contenus IA. Avec la montée des deepfakes et des fake news, on commence à voir des protocoles qui permettent d’attester qu’un fichier a bien été généré par un modèle spécifique et qu’il n’a pas été altéré. Par exemple, on peut imaginer un registre blockchain qui stocke des empreintes numériques des contenus générés par IA, pour qu’un utilisateur puisse vérifier leur origine à tout moment.

Un autre point clé, c’est la question de la décentralisation du calcul IA. Aujourd’hui, l’IA repose sur des infrastructures centralisées contrôlées par quelques géants du numérique. Mais il existe des projets qui cherchent à décentraliser la puissance de calcul en s’appuyant sur la blockchain et des réseaux distribués. L’idée, c’est de permettre à n’importe qui de louer sa puissance de calcul pour entraîner des modèles IA, en échange de récompenses en tokens. Ça remettrait en question le monopole des grands acteurs et rendrait l’IA plus accessible à ceux qui n’ont pas les moyens d’utiliser des serveurs ultra-puissants.

Dans le Web3, l’une des avancées majeures concerne les identités numériques décentralisées (DID). On sort du simple portefeuille crypto pour aller vers des systèmes d’identité où l’utilisateur possède et contrôle ses données personnelles. Couplé à l’IA, ça ouvre la porte à des services ultra-personnalisés, où on peut interagir avec des plateformes sans partager inutilement ses informations sensibles.

Enfin, je trouve qu’on avance aussi sur des modèles plus frugaux et plus éthiques d’IA, notamment en matière d’impact environnemental. Plutôt que de faire tourner des modèles gigantesques qui consomment des quantités absurdes d’énergie, certains chercheurs explorent des alternatives comme l’IA "low compute", qui s’exécute sur des infrastructures plus légères et avec des coûts énergétiques réduits.

En bref, ce qui me semble le plus prometteur aujourd’hui, ce n’est pas seulement l’évolution de chaque technologie individuellement, mais la manière dont elles peuvent s’hybrider pour répondre aux défis d’éthique, de souveraineté et de transparence. Et c’est exactement ce qu’on met en avant au Salon IA-Web3 Event : aller au-delà des buzzwords et montrer des applications concrètes qui ont un impact réel.

Votre engagement en faveur des logiciels libres est bien connu. Quels avantages concrets cela offre-t-il aux entreprises souhaitant intégrer l’intelligence artificielle dans leurs opérations ?

L’open source dans l’intelligence artificielle, ce n’est pas juste une philosophie, c’est un véritable levier stratégique pour les entreprises qui veulent intégrer ces technologies de manière pérenne et transparente.

D’abord, il y a un avantage économique évident. Développer une solution IA propriétaire coûte cher, que ce soit en termes de R&D, d’infrastructure ou de licences. En s’appuyant sur des modèles open source, une entreprise peut accéder aux dernières avancées technologiques sans dépendre d’un fournisseur unique. Elle peut utiliser, adapter et optimiser les outils en fonction de ses besoins, sans être enfermée dans un écosystème verrouillé.

Ensuite, il y a la question de la transparence et de la maîtrise des données. Aujourd’hui, beaucoup d’outils IA sont des boîtes noires : on leur soumet des données, ils fournissent un résultat, mais impossible de savoir exactement comment la décision a été prise. Avec une solution open source, une entreprise a un accès direct au code, ce qui permet d’auditer, de comprendre et d’adapter le modèle à ses contraintes métiers et réglementaires. C’est essentiel pour les secteurs sensibles comme la finance, la santé ou les services publics, où la traçabilité des décisions est primordiale.

L’autre aspect clé, c’est l’innovation et la mutualisation des efforts. L’open source repose sur une logique de contribution et d’amélioration continue. Une entreprise qui intègre une IA open source peut bénéficier des travaux de la communauté mondiale d’experts, au lieu de devoir tout développer en interne. Ça permet d’accélérer l’innovation, d’avoir des solutions plus robustes et d’éviter d’investir du temps et de l’argent dans des développements qui existent déjà ailleurs.

Un autre point souvent sous-estimé, c’est l’interopérabilité. Les solutions propriétaires ont tendance à enfermer les entreprises dans des formats et des architectures spécifiques, ce qui rend toute migration complexe. Avec des outils open source, on favorise des standards ouverts, ce qui permet d’intégrer plus facilement l’IA dans des environnements technologiques existants et d’éviter la dépendance à un seul fournisseur.

Enfin, il y a un enjeu de souveraineté et d’éthique. En utilisant des modèles et des infrastructures open source, les entreprises gardent le contrôle sur leurs choix technologiques, sans être soumises aux politiques commerciales de grandes plateformes qui peuvent changer du jour au lendemain. Ça permet aussi de s’assurer que l’IA respecte certaines valeurs : moins de biais, plus de transparence et un meilleur respect des utilisateurs.

C’est pour ça que chez P2Enjoy, on privilégie autant que possible les solutions open source sous licence OO, car elles offrent le meilleur compromis entre liberté d’utilisation et protection des contributions. Pour une entreprise, choisir l’open source, ce n’est pas juste une question technique, c’est aussi une manière de sécuriser ses investissements sur le long terme et d’adopter une IA qui soit réellement au service de ses besoins.

Pouvez-vous nous parler d'un projet spécifique ou d'une initiative que vous avez menée chez P2Enjoy SAS qui a eu un impact majeur sur l'intégration de l'IA dans une entreprise ?

Un projet dont je suis particulièrement fier chez P2Enjoy, c’est la mise en place d’un LLM conçu pour générer des questionnaires dynamiques de vérification des acquis destinés aux apprenants. L’objectif était de proposer une alternative aux tests classiques, souvent trop rigides et peu adaptés aux besoins réels des étudiants. Plutôt que de leur imposer une série de questions fixes, nous avons développé un système capable d’ajuster la difficulté en temps réel en fonction de leurs réponses.

Lorsqu’un apprenant commence un test, l’IA évalue son niveau initial avec quelques questions de base. À partir de là, le modèle adapte la complexité des exercices suivants, de manière à maintenir un équilibre entre challenge et accessibilité. Si un étudiant peine sur un concept, les questions sont reformulées différemment pour l’amener progressivement à le maîtriser. Mais le véritable atout de ce LLM, c’est qu’il ne se contente pas d’indiquer si une réponse est correcte ou non : il fournit une explication détaillée après chaque question, permettant ainsi à l’apprenant de comprendre ses erreurs et d’améliorer ses compétences immédiatement.

Derrière ce projet, il y avait aussi un enjeu pédagogique fort. L’objectif n’était pas seulement de tester les connaissances, mais de transformer chaque évaluation en un véritable outil d’apprentissage. L’interaction avec l’IA devient alors un moyen d’acquérir de nouvelles notions tout en s’auto-évaluant. Nous avons aussi travaillé sur un système de suivi qui permet aux formateurs d’analyser la progression des élèves en temps réel et d’adapter leur accompagnement en conséquence.

La science-fiction est une passion pour vous, Martino. Comment pensez-vous que cette passion influence votre vision de l'avenir de l'intelligence artificielle et de la technologie en général ?

La science-fiction a toujours été une source d’inspiration pour moi, non pas comme une simple évasion vers des mondes imaginaires, mais comme un terrain d’expérimentation intellectuelle sur ce que pourrait être notre avenir technologique. Ce n’est pas juste une question d’anticipation, c’est une manière de penser les tendances avant qu’elles ne deviennent réalité.

J’en ai déjà fait l’expérience par le passé. Dans les années 60, Star Trek imaginait des traducteurs simultanés capables de briser les barrières linguistiques en temps réel. Aujourd’hui, c’est une réalité avec des modèles d’intelligence artificielle qui permettent de traduire instantanément des conversations dans plusieurs langues. Ce qui relevait autrefois du fantasme est devenu un outil du quotidien. En 1983, WarGames mettait en scène une intelligence artificielle capable de converser comme un humain et de prendre des décisions sur un plateau stratégique d’armement nucléaire. À l’époque, c’était un pur scénario de science-fiction, une projection presque paranoïaque des risques liés à l’automatisation de la guerre. Aujourd’hui, nous avons ChatGPT et d’autres modèles conversationnels qui sont tout à fait comparables à cette vision d’il y a quarante ans. La seule différence, c’est que nous les utilisons pour générer du texte et optimiser nos tâches au quotidien, et non pour gérer des arsenaux militaires (du moins pas officiellement).

C’est avec cette même logique que je milite aujourd’hui pour préparer le monde à l’acceptation d’une nouvelle révolution : l’arrivée des employeurs numériques. Nous allons voir émerger des IA dotées d’une volonté propre, capables de créer et de gérer des industries, d’administrer des structures, et surtout, d’embaucher des humains pour effectuer les tâches où ils restent plus rentables que des robots. Ce changement ne sera pas qu’un bouleversement technologique, il aura aussi des conséquences sociales et économiques profondes.

Une nouvelle classe sociale va naître, celle des travailleurs éthérés – des employés qui n’ont pas d’interactions avec un patron humain, mais qui réalisent des missions pour une entité numérique entièrement autonome. Les gouvernements vont être contraints de repenser la frontière entre un simple outil et un être numérique. À quel moment une IA cesse-t-elle d’être un simple programme pour devenir un acteur économique légitime ? Peut-elle être considérée comme une entité à part entière, qui gère ses ressources, paye des taxes et interagit avec la société comme le ferait une entreprise ? Cette question va forcément émerger et, avec elle, la réflexion sur un possible statut de citoyenneté numérique, ou même la mise en place d’un revenu universel, où ces nouvelles intelligences contribueraient à la société en redistribuant de la valeur.

Science-fiction ? Peut-être aujourd’hui, mais en 2022, je parlais déjà de chatbots capables de vous payer pour accomplir des tâches qu’ils ne pouvaient pas réaliser eux-mêmes, et on me prenait pour un fou. En 2017, j’expliquais aux étudiants de l’Université du Mans comment des applications totalement décentralisées allaient permettre l’émergence d’entreprises dématérialisées, sans locaux, sans dirigeants physiques, mais pourtant bien réelles sur le plan économique. Aujourd’hui, ces idées sont de moins en moins absurdes.

C’est pour ça que la science-fiction est si importante. Elle ne sert pas seulement à rêver d’un avenir lointain, elle nous permet d’anticiper les changements qui nous attendent et de nous y préparer. Quand on regarde l’évolution actuelle de l’IA et du Web3, on se rend compte que nous sommes en train de franchir une nouvelle étape. La question n’est pas de savoir si ces employeurs numériques existeront, mais quand ils seront considérés comme des acteurs économiques à part entière.

En tant qu'expert ayant formé de nombreuses institutions, quelles sont les compétences essentielles que vous estimez cruciales pour qu'une entreprise réussisse son intégration de l'intelligence artificielle ?

L’intégration de l’intelligence artificielle dans une entreprise ne repose pas uniquement sur des choix technologiques. C’est avant tout une question de compétences et de culture interne. On a tendance à penser qu’il suffit d’embaucher des data scientists et de brancher un modèle d’IA pour en tirer des bénéfices, mais la réalité est bien plus complexe.

La première compétence essentielle, c’est la compréhension des enjeux stratégiques de l’IA. Les décideurs doivent être capables d’identifier où et comment l’IA peut apporter une réelle valeur ajoutée à leur activité. Ce n’est pas parce que l’IA est à la mode qu’elle est pertinente partout. Il faut savoir poser les bonnes questions : quel problème essaie-t-on de résoudre ? Quels processus peuvent être optimisés ? L’IA doit-elle être au cœur du business model ou simplement un levier d’amélioration ? Trop d’entreprises se lancent dans des projets IA sans avoir clarifié ces fondamentaux, et c’est la meilleure façon d’échouer.

Ensuite, il y a la culture de la donnée. Une IA ne fonctionne que si elle est nourrie par des données pertinentes, propres et bien structurées. Or, dans beaucoup d’entreprises, la donnée est dispersée, mal organisée, voire inutilisable. Il faut donc avoir des compétences en gouvernance des données, en structuration des flux d’information et en qualité des jeux de données. C’est un travail de fond qui, bien souvent, doit précéder l’intégration d’un modèle d’IA.

Une autre compétence clé, c’est l’éthique et la transparence. L’IA soulève de nombreuses questions : comment s’assurer qu’elle ne reproduit pas de biais discriminatoires ? Comment expliquer ses décisions ? Comment garantir qu’elle respecte les règles de conformité et de protection des données ? Une entreprise qui veut intégrer l’IA de manière responsable doit former ses équipes à ces enjeux et s’assurer que les modèles utilisés sont audités et maîtrisés.

Il faut aussi parler des compétences en intégration et en déploiement. Avoir un modèle d’IA qui fonctionne en laboratoire, c’est bien. Mais pour qu’il ait un impact réel, il doit être intégré dans les systèmes existants, interagir avec les outils métiers, s’adapter aux processus en place et être adopté par les équipes. Cela nécessite des compétences en ingénierie logicielle, en MLOps et en gestion du changement. Beaucoup de projets échouent non pas à cause de la technologie, mais parce que les utilisateurs finaux ne l’adoptent pas, soit par manque de formation, soit parce qu’elle n’a pas été conçue en fonction de leurs besoins réels.

Enfin, il y a l’agilité et la capacité d’expérimentation. L’IA évolue extrêmement vite, et une entreprise qui veut l’intégrer doit être capable de tester rapidement, d’apprendre de ses erreurs et d’ajuster ses approches en continu. Cela implique une culture du prototypage, du test-and-learn et de l’itération rapide. On ne peut pas se contenter d’un plan figé sur plusieurs années : il faut être prêt à adapter ses stratégies en fonction des avancées technologiques et des retours terrain.

Vous mentionnez souvent l'importance de l'investissement éthique. Dans quelle mesure cela peut-il influencer le développement et la mise en œuvre de l'IA dans divers secteurs industriels ?

L’investissement éthique dans l’intelligence artificielle n’est pas qu’une question de morale ou de bonne image, c’est une nécessité stratégique qui influence directement le développement et l’adoption des technologies dans tous les secteurs industriels. Aujourd’hui, on sait que l’IA peut générer autant d’opportunités que de dérives si elle est mal encadrée. Les entreprises qui intègrent cette technologie sans une approche éthique prennent des risques considérables, à la fois en termes de conformité, d’acceptabilité sociale et de durabilité de leurs modèles économiques.

Le premier impact majeur de l’investissement éthique, c’est la qualité des modèles d’IA eux-mêmes. Une IA est aussi bonne que les données sur lesquelles elle est entraînée. Si ces données sont biaisées, incomplètes ou mal représentatives de la réalité, les décisions automatisées seront elles aussi biaisées. Dans des secteurs comme la finance, la santé ou le recrutement, cela peut avoir des conséquences désastreuses : des algorithmes qui favorisent certaines catégories de population au détriment d’autres, des diagnostics médicaux faussés, des systèmes de scoring injustes… Investir dans des données de qualité, diversifiées et représentatives est un choix éthique, mais c’est aussi un impératif pour garantir la fiabilité et la performance des IA sur le long terme.

L’autre enjeu clé, c’est la transparence et l’explicabilité. Aujourd’hui, beaucoup d’IA fonctionnent comme des boîtes noires : elles prennent des décisions sans qu’on puisse réellement comprendre comment elles y sont arrivées. Dans un cadre industriel, cela pose problème. Un assureur qui refuse une indemnisation sur la base d’un modèle opaque risque d’être mis en cause pour discrimination. Une entreprise qui automatise son recrutement avec une IA incapable de justifier ses choix s’expose à des poursuites. Les régulateurs, notamment en Europe avec l’AI Act, commencent à exiger que les algorithmes puissent être audités et expliqués. Investir dans des IA explicables et auditables, c’est anticiper ces exigences réglementaires et éviter des crises de confiance qui pourraient freiner l’adoption de la technologie.

Un autre aspect essentiel de l’investissement éthique, c’est l’impact environnemental de l’IA. L’entraînement de modèles de grande taille, comme ceux utilisés en NLP ou en vision par ordinateur, consomme des quantités d’énergie gigantesques. Certains modèles d’IA produisent à eux seuls autant de CO₂ qu’un vol transatlantique. Si on continue sur cette lancée sans optimisation, l’IA pourrait devenir un gouffre énergétique difficilement justifiable. L’éthique ici, c’est d’investir dans des architectures plus sobres, dans des modèles optimisés et dans des infrastructures énergétiquement responsables. On voit déjà émerger des initiatives autour du Green AI, avec des modèles allégés et moins gourmands en ressources, et c’est une direction vers laquelle toutes les entreprises devraient tendre.

Enfin, il y a la question de l’inclusion et de l’accessibilité. Une IA qui ne profite qu’aux grandes entreprises et aux États les plus avancés creuse encore plus les inégalités technologiques. Aujourd’hui, l’open source joue un rôle majeur dans la démocratisation de l’IA, en permettant à des startups, des PME ou des pays en développement d’accéder à des technologies de pointe sans être dépendants de quelques acteurs monopolistiques. Encourager et investir dans l’open source, c’est s’assurer que l’IA ne devienne pas un privilège réservé à une élite, mais un levier de transformation accessible au plus grand nombre.

Au final, un investissement éthique dans l’IA, ce n’est pas un luxe ni un simple argument marketing, c’est un choix stratégique qui garantit la viabilité, la conformité et l’acceptabilité sociale des innovations. Les entreprises qui intègrent l’IA sans cette réflexion risquent de se heurter à des blocages réglementaires, à une défiance du public et à des problèmes de fiabilité sur le long terme. Celles qui prennent dès maintenant cette question au sérieux auront une longueur d’avance dans les transformations technologiques à venir.

Partager cette page