Pour une utilisation responsable de l’IA dans la recherche
Si l’intelligence artificielle (IA) permet de gagner en efficacité dans la recherche comme dans son encouragement et révolutionne l’acquisition de connaissances, son évolution fulgurante n’est néanmoins pas exempte de risques.
Le développement et l’utilisation d’outils basés sur l’IA progressent rapidement. Ces technologies trouvent également application dans la recherche et son encouragement. Elles permettent de traiter et d’analyser des données (indexation de volumes difficiles à traiter avec d’autres méthodes ou recherche de relations non évidentes), mais aussi d’en générer de nouvelles grâce à des applications qui se prêtent notamment à des travaux de recherche, de rédaction ou de traduction. Dans le domaine scientifique, le caractère transformatif de l’IA est susceptible d’exercer une influence sur de nombreuses disciplines.
Conscient du potentiel que recèlent les systèmes basés sur l’IA, le FNS reste cependant attentif aux aspects non résolus et aux risques que comporte leur utilisation. À titre d’exemple, il convient de préserver l’intégrité scientifique et de s’assurer de la traçabilité et de la reproductibilité des résultats obtenus avec l’IA. Ces questionnements font eux-mêmes l’objet de recherches encouragées par le FNS.
Un concept générique
L’intelligence artificielle désigne un large éventail de technologies et de méthodes. Cette notion recouvre notamment des approches et processus qui ont intensément été étudiés durant des décennies tels que l’apprentissage automatique (méthodes statistiques qui identifient les relations entre ensembles de données afin d’établir des prévisions basées sur celles-ci), les réseaux de neurones (approches imitant le fonctionnement du cerveau humain), ou le traitement automatique des langues (interprétation et compréhension du langage humain). La simulation de l’intelligence humaine ne constitue qu’un objectif, ou qu’une application, parmi tant d’autres.
À l’heure actuelle, ce sont les technologies d’IA dites génératives, c’est-à-dire les applications permettant de créer automatiquement de nouveaux contenus tels que des textes, des images et des vidéos à l’aide d’instructions textuelles appelées prompts, qui font beaucoup parler d’elles. Les chercheuses et chercheurs ont également recours à ces méthodes dans diverses disciplines afin d’analyser et de traiter des données, d’identifier des modèles et des relations au sein d’ensembles de données, ou d’effectuer de nombreuses autres tâches.
Appel à la responsabilité personnelle des chercheuses et chercheurs
Le FNS est conscient et approuve que des chercheuses et chercheurs exploitent le potentiel de l’IA pour mener à bien leurs travaux. Dans le cadre des requêtes de recherche, le principe suivant continue néanmoins de prévaloir : les requérant·es assument l’entière responsabilité des résultats obtenus. Par ailleurs, l’utilisation de l’intelligence artificielle ne saurait déroger aux principes de base de l’intégrité scientifique. Afin de préserver la confidentialité des projets qui lui sont soumis, le FNS a mis à jour les directives établies à l’intention des expert·es et des rapporteur·es chargés de leur évaluation. La synthèse, ou la traduction, de requêtes entières ou de nouvelles idées au moyen d’outils d’IA générative peut constituer une violation de ce principe de confidentialité. Il est en effet interdit de transmettre les données concernées à des tiers non autorisés, dont font partie les fournisseurs d’applications d’IA.
L’IA au FNS
Le FNS utilise d’ores et déjà deux technologies basées sur de l’intelligence artificielle pour traiter les demandes d’encouragement : le traitement automatique des langues et l’apprentissage automatique. L’équipe Data a ainsi développé une approche spécifiquement conçue pour aider le personnel à attribuer les requêtes à des spécialistes disposant de l’expertise nécessaire. L’application pilote que nous utilisons dans nos activités quotidiennes analyse les similitudes existant entre les projets de recherche et les publications d’expert·es et le système propose sur cette base de recourir à telle ou tel spécialiste. Ces propositions sont ensuite examinées par des collaboratrices et collaborateurs du FNS qui les adaptent le cas échéant.
Le FNS dialogue également avec d’autres organisations internationales d’encouragement de la recherche pour déterminer quelles solutions d’intelligence artificielle permettraient d’améliorer le traitement des requêtes. Le projet GRAIL («Getting Responsible about AI and machine learning in research funding and evaluation») du Research on Research Institute (RoRI) – qui a débuté à la mi-2023 et se poursuivra jusqu’en 2025 – s’intéresse entre autres à des telles applications.
Régulation de l’IA
L’intelligence artificielle recelant un fort potentiel technologique, la question de son utilisation se pose de manière générale sur le plan sociétal : de nombreux aspects éthiques et juridiques font l’objet d’un débat public.
En adoptant l’«Artificial Intelligence Act», l’Union européenne a présenté un ensemble de dispositions détaillées qui réglementent l’utilisation de l’IA et pourraient également avoir des répercussions en Suisse. La loi interdit des applications spécifiques, dont celles susceptibles de menacer les droits civils. Et des exigences réglementaires strictes s’appliquent aux systèmes d’IA qui présentent un risque de violation des droits fondamentaux, par exemple dans le domaine de la santé. Les implications de l’«AI Act» et d’autres efforts de régulation pourraient également avoir une portée considérable pour la science.
Le débat suscité par l’utilisation de matériel protégé par le droit d’auteur en vue de perfectionner les modèles d’IA générative s’avère à ce titre particulièrement concret. En ce qui concerne les articles scientifiques issus de recherches encouragées par le FNS, ce dernier exige qu’ils soient publiés sous une licence CC-BY (Creative Commons Attribution). Ils peuvent par suite être diffusés librement et même réutilisés à des fins commerciales, à condition que les auteur·es soient correctement cités et que d’éventuelles modifications soient clairement indiquées. Il est donc possible que ces publications soient utilisées pour entraîner des modèles IA, mais les réponses ou les résultats ainsi obtenus doivent mentionner correctement les chercheuses et chercheurs assumant la paternité des contenus reproduits.
News