Éthique des données : défis, responsabilités, et progrès à réaliser
par Nicolas Sacchetti
En décembre dernier, une table ronde, animée par Davide Pulizzotto, spécialiste en science des données pour les sciences sociales, a été organisée pour se pencher sur les enjeux éthiques et sociaux de la gestion des données de recherche. Cette discussion s’inscrit dans le contexte de la formation Mégadonnées et techniques avancées démystifiées de 4POINT0.
Les panélistes
Martin Gibert
Agent de recherche en éthique de l’IA et des données massives, affilié au Centre de recherche en éthique (CRÉ) et à l’institut de valorisation des données (VADO)
Éric Rancourt
Président du C.A., Méthodologie d’enquête – Directeur général, Direction des méthodes statistiques modernes et de la science des données, Statistique Canada
Guillaume Paré
Conseiller au directeur de la recherche et de l’innovation, et responsable du comité d’éthique de la recherche, Polytechnique Montréal
Lina Harper
Agente de curation – Dataverse, Alliance de recherche numérique du Canada
Davide Pulizzotto
Si nous nous en tenons uniquement au discours médiatique concernant l’éthique de la gestion des données, nous pourrions principalement penser aux robots équipés d’IA. L’éthique des données se limite-t-elle uniquement aux algorithmes de l’IA ?
Guillaume Paré
Je distingue trois éléments : les attentes de la société vis-à-vis de la gestion des données, les règles encadrant cette gestion, et les diverses manières d’exploiter les données. Chaque utilisation a sa propre raison d’être.
En ce qui concerne les attentes sociétales, les universités ont une responsabilité envers les données que leur confient les citoyens et les partenaires de recherche.
Les aspects normatifs, quant à eux, présentent une certaine complexité : nous sommes à la croisée de nombreuses normes allant de l’éthique de la recherche avec des êtres humains à la sécurité informatique, en passant par les attentes juridiques en matière de protection des renseignements personnels sociétales et culturelles. Ces éléments peuvent parfois entrer en conflit, soulevant des défis inédits et complexes.
Sur le plan de l’application, l’IA est simplement un outil parmi d’autres en recherche. La gestion des données s’étend donc bien au-delà de ce seul domaine, touchant toutes les activités de recherche.
Finalement, sous l’angle réglementaire, des principes généraux tels que le respect de la dignité de la personne orientent nos pratiques, quels que soient les domaines et méthodes employés.
Éric Rancourt
On parle effectivement beaucoup d’éthique des données en évoquant principalement l’IA comme point d’entrée. Pourtant, les données existent depuis très longtemps. À titre illustratif, Statistique Canada célèbre son 104e anniversaire cette année, et les enjeux éthiques liés aux données ont toujours été présents.
Il est essentiel de voir l’éthique comme une dimension englobant les données, les algorithmes, mais aussi les comportements humains. Dans le cycle de vie des données, l’IA intervient principalement lors de leur traitement, à savoir, au moment où on en accroît la valeur.
Chez Statistique Canada, le cycle de vie des données est structuré en quatre étapes majeures : l’acquisition des données, leur protection, leur préparation et leur partage. C’est lors de la phase de préparation que les modèles entrent en jeu. Dès la phase d’acquisition, des questions éthiques se posent, notamment sur l’accès légal aux données et leur acceptabilité sociale. D’autres préoccupations émergent autour de la protection des données, de l’apprentissage automatique, de la confidentialité, et bien plus. Ainsi, l’éthique des données ne se résume pas uniquement à l’IA.
Martin Gibert
Certes, je ne suis pas le premier à souligner le lien étroit entre l’IA et les données. Toutefois, mes collègues ont raison d’affirmer que la question dépasse largement ce cadre. Un enjeu crucial réside dans les modèles d’entraînement de l’IA : il est essentiel qu’ils n’amplifient pas les biais cognitifs présents dans notre société. Notre objectif doit être de guider l’IA vers une représentation plus fidèle et équitable de nos sociétés, en plaçant l’équité, la diversité et l’inclusion au cœur de nos préoccupations.
Lina Harper
Je crois que l’influence des êtres humains ne sera jamais remplacée. À l’Alliance de recherche numérique du Canada, on fait de la curation de données de recherche, et on applique des métadonnées. Je crois que l’intervention humaine sera toujours nécessaire pour que le web soit compris et conceptualisé. Sur le sujet, je vous recommande la lecture d’Algorithms of Oppression par Safiya U. Noble. Elle parle des biais cognitifs présents dans les moteurs de recherche web comme Google, Facebook et autres.
Davide Pulizzotto
Quelles dimensions de l’éthique faut-il envisager dans un projet d’analyse de données en sciences sociales et humaines (ssh) ? Et quels enjeux éthiques sont les plus importants ?
Guillaume Paré
Pour moi, l’éthique se définit dans une démarche d’intégrité, où nos valeurs se reflètent dans nos actions, nos discours et nos choix. Dans le contexte de la recherche en SSH, cela signifie principalement le respect de la dignité des participants. Ce respect se manifeste dans toutes les mesures de précaution prises pour protéger leurs informations personnelles, comme dans tout autre projet.
Cependant, en SSH, il y a des éléments qui sont parfois négligés dans cette réflexion éthique. L’un d’entre eux est le lien de confiance établi avec les différents acteurs de la recherche, que ce soient des communautés, des milieux de recherche, des partenaires industriels, etc. Ce lien est fondamental car sans lui, la collecte et l’utilisation des données deviennent problématiques, entravant ainsi l’objectif principal des universités : le développement des connaissances.
Les activités liées à la recherche peuvent influencer cette relation de confiance avec les divers intervenants impliqués. Les risques sont palpables. Dans le domaine des SSH, se voir exclu d’un milieu peut signifier la fin d’une ligne de recherche entière pour une équipe ou un laboratoire.
De plus, il est essentiel de réfléchir non seulement à la collecte, mais aussi à l’utilisation secondaire des données après la recherche. La question se pose : Bien que nous détenions des données, est-il toujours nécessaire de les exploiter ? Je pense que c’est une interrogation pertinente. Par exemple, dans certaines situations, révéler des données pourrait accentuer la stigmatisation de groupes spécifiques, dévoiler l’existence de certaines situations qui peuvent accentuer la stigmatisation de population ou encore favoriser les activités criminelles comme le braconnage des espèces protégées. Il convient alors de déterminer comment les divulguer tout en préservant la confiance établie avec les parties concernées et ce, sans compromettre la mission de recherche des universités.
Martin Gibert
On parle souvent du principe de finalité. C’est l’idée qu’avant de collecter des données, on devrait savoir pourquoi on en a besoin et comment on va les utiliser. C’est important de s’assurer qu’on ne collecte pas de données qui n’ont rien à voir avec ce qu’on veut faire. C’est une question d’équilibre.
Il y a aussi la question de combien de temps on garde ces données, et l’idée d’un droit à l’oubli. En Europe, avec le Règlement général sur la protection des données (RGPD), les gens peuvent demander à ce que leurs données personnelles soient effacées dans certains cas, comme avec les moteurs de recherche par exemple. Et puis, bien sûr, il y a les questions de confidentialité, de respect de la vie privée et des droits de chacun.
Éric Rancourt
L’éthique des données repose sur la mise en place d’un cadre pour guider des choix judicieux. C’est dans cette optique que Statistique Canada a adopté le Cadre de nécessité et de proportionnalité.
Chaque étape, qu’il s’agisse de l’acquisition, de l’appariement ou de l’utilisation d’un modèle automatisé, est guidée par ce Cadre. Il s’agit de déterminer les objectifs d’intérêt public poursuivis : Est-il vraiment indispensable de collecter toutes ces données, de les utiliser ? Nous devons également réfléchir à l’impact de la collecte d’informations sur la vie privée des individus, que ce soit avec ou sans leur consentement, selon que les enquêtes soient obligatoires ou volontaires, et quelles sont les alternatives.
En posant ces questions, nous abordons les sujets de la vie privée, de la transparence et de la confidentialité. Tout cela dans le but d’informer de manière précise, qu’il s’agisse de chercheurs tirant des conclusions ou d’une institution comme Statistique Canada informant la population. Nous voulons éviter tout biais statistique qui pourrait mener à une injustice envers un groupe. Réduire ces biais nécessite des compromis, notamment en ce qui concerne la protection de la vie privée et la transparence. C’est ici que le cadre éthique intervient, en nous aidant à poser les bonnes questions. Il ne fournit pas toutes les réponses, mais il guide notre réflexion.
Lina Harper
L’un des défis majeurs de notre époque concerne l’impact environnemental des mégadonnées. Dans le cadre de mon travail avec le Dépôt fédéré de données de recherche (DFDR)* et Borealis**, il est clair que la gestion massive de données s’accompagne d’importants enjeux environnementaux. L’augmentation constante de la capacité de stockage peut avoir des répercussions sur notre environnement. Il est crucial de mener des recherches à ce sujet. La production et l’utilisation de câbles, les émissions de carbone, la chaleur dégagée par les disques durs, ainsi que la nécessité de refroidir ces systèmes représente des problématiques aux conséquences tangibles qui ne sont, malheureusement, pas suffisamment mises en lumière.
*DFDR : Le Dépôt fédéré de données de recherche est une plateforme nationale bilingue pour le partage et la préservation des données de recherche canadiennes.
**Borealis : Un dépôt canadien de données de recherche soutenu par des bibliothèques universitaires et des établissements de recherche à travers le Canada.
Davide Pulizzotto
Quelles sont les valeurs qu’il faut respecter à tout prix dans un projet de recherche en ssh ? Y en a-t-il qui sont négociables ? Certaines sont-elles prioritaires, d’autres secondaires ? Ces valeurs peuvent-elles varier selon les cultures ?
Guillaume Paré
Parmi les valeurs liées à la gestion des données de recherche, le respect de la dignité des individus est essentiel. Cette valeur préserve notre lien de confiance avec ceux et celles qui nous confient leurs données.
Marcia Angell, ancienne éditrice en chef du New England Journal of Medicine, a mis en lumière les risques de l’impérialisme éthique : imposer nos valeurs occidentales à d’autres cultures. Une démarche dite éthique implique donc que le respect de la dignité soit fondé sur une écoute des attentes des personnes concernées. Dans le contexte des communautés autochtones, par exemple, les principes PCAPⓇ,(propriété, contrôle, accès et possession) viennent placer les attentes de base qui définissent comment gérer les données issues de ces communautés.
Un autre exemple classique est celui, dans les années 90, où les participants aux recherches sur la fin de vie des patients séropositifs revendiquaient d’être nommés dans les publications pour donner un sens à leur mort. Ici, on comprend donc que le respect de la dignité ne passe pas par la confidentialité, mais par son contraire. Bref, dans ce cas précis, l’anonymat n’était pas la voie à suivre.
Martin Gibert
J’ai récemment élaboré un cours pour l’Université de Montréal accessible sur catalogue.edulib.org intitulé Introduction à l’éthique de l’IA. Bien que l’éthique des données n’y soit pas explicitement traitée, elle est abordée dans le module IA et surveillance (2.5), soulignant le conflit entre sécurité et préservation de l’autonomie. À titre d’illustration, je recommande Privacy is Power de Clarissa Véliz (2022).
Clearview AI, spécialisée en reconnaissance faciale, offre un cas d’étude pertinent pour les libertés au Canada. Une enquête interprovinciale a conclu à des violations de la protection de la vie privée par l’entreprise, notamment une collecte illégale d’images et une surveillance de masse sans consentement.
Lina Harper
Il y a l’équivalent à l’international des principes PCAPⓇ, sont les CARE Principles pour la gouvernance des données autochtones.
Éric Rancourt
L’éthique des données est une dimension complexe. Il est essentiel d’envisager les valeurs en termes d’addition (“et”) plutôt que d’exclusion (“ou »). Le mandat de Statistique Canada est d’informer, ce qui, dans une perspective extrême, pourrait encourager la collecte illimitée d’informations sur chaque individu. À l’opposé, nous avons le commissaire à la protection de la vie privée dont la vision extrême serait qu’aucune donnée ne soit collectée ni divulguée concernant quiconque.
Le défi réside dans la recherche d’un équilibre. Ces deux entités travaillent conjointement : l’une vise à fournir des informations pour respecter l’autonomie des individus dans leur prise de décision, tandis que l’autre cherche à protéger des intrusions injustifiées. Entre ces extrêmes, l’objectif est de privilégier la nécessité sur la simple utilité. Nombreuses sont les choses utiles, mais combien sont réellement nécessaires ? Avec un cadre approprié, il est possible d’harmoniser ces différentes valeurs.
Davide Pulizzotto
L’éthique est-elle uniquement une préoccupation humaine en matière de données ? Et dans les sciences dures, quels sont les dilemmes éthiques rencontrés ?
Guillaume Paré
Nous avons tendance à penser d’abord aux individus quand il s’agit de données. Cependant, en observant la recherche dans son ensemble, différents projets évoquent des problématiques propres à leur domaine. En ingénierie, par exemple, certaines données peuvent être soumises à des réglementations sur les marchandises contrôlées, car elles pourraient permettre la reproduction d’armement. Prenons le cas des recherches axées sur les technologies à double usage, conçues pour des applications civiles, mais qui peuvent aussi avoir un usage militaire. Il y a aussi des données sensibles qui peuvent révéler des vulnérabilités susceptibles de compromettre la sécurité nationale tant sur le plan économique que sociétal. Ces données nécessitent une protection spécifique, non pas du fait de leur lien avec des individus, mais en raison du risque qu’elle porte pour la sécurité de tout le monde.
Martin Gibert
Un domaine émergent concerne l’éthique de l’IA en relation avec les animaux. Bien qu’il y ait des données sur les animaux et une éthique animale distincte, les données utilisées dans l’agriculture de précision, entre autres, tendent à maximiser l’exploitation des animaux, soulevant ainsi des problématiques morales. Du point de vue juridique, les animaux sont considérés comme des biens privés, susceptibles d’être achetés et vendus. Par conséquent, leurs données semblent ne pas leur appartenir mais appartiennent plutôt à leur propriétaire. Une réflexion approfondie est nécessaire sur l’utilisation des données des animaux, qui n’ont pas donné leur consentement à une telle utilisation.
Davide Pulizzotto et questions du public
- Allons-nous un jour appliquer des principes éthiques aux productions de l’IA ?
- Pourquoi on ne peut pas utiliser les données des réseaux sociaux pour nos recherches ?
- Concernant la réutilisation des données et en se référant au principe de finalité que vous avez évoqué, lorsque de nouvelles questions de recherche émergent à partir de ces données, il est clair que les individus n’ont pas donné leur consentement pour ces nouvelles investigations. En ne réutilisant pas d’anciennes données, ne risque-t-on pas de freiner les avancées scientifiques et l’analyse des données ? Quels conseils auriez-vous à nous donner à ce niveau-là ?
Lina Harper
Concernant la question de l’utilisation des données des réseaux sociaux, je dirais que l’argent est un levier de pouvoir et que la propriété intellectuelle est essentielle dans cette entreprise de recherche. Ces plateformes ont tout intérêt à protéger qui partage et qui a accès aux données, et la possession de ces données est cruciale dans le secteur privé. C’est une question pertinente et actuelle à l’ère des médias sociaux.
Je réalise actuellement une maîtrise sur la réutilisation des données, avec une perspective de science ouverte (Open Science). Pour moi, il est évident qu’il existe des considérations éthiques, légales et commerciales concernant la propriété des données lors de leur réutilisation. Si nous adoptons une approche de science transparente, en rendant les données aussi accessibles que possible quand cela est faisable, et en les protégeant quand c’est nécessaire, je crois que nous sommes sur la bonne voie pour rendre les connaissances plus ouvertes au grand public.
Guillaume Paré
Il est toujours surprenant de constater que la donnée brute n’a aucun statut juridique et n’appartient à personne, ce qui engendre de nombreux enjeux. Dans certains contextes, des données organisées de manière cohérente peuvent bénéficier de la protection du droit d’auteur. Je vous suggère de vous référer à la page du Bureau du droit d’auteur de l’Université Laval sur ces enjeux qui teintent la latitude que nous avons quant à la protection des données.
Pour comprendre les raisons pour lesquelles j’insiste sur une forme de contrôle quant à l’accès aux données détenues par les universités, il faut considérer leur mission fondamentale et leur histoire. Avec près de 1000 ans d’existence, la confiance sociétale est au cœur de la pérennité universitaire, reflétant leur adaptabilité aux enjeux contemporains, mais aussi sa capacité à défendre son autonomie et la gestion de ce qui lui est confié.
L’utilisation secondaire des données est permise, souvent même sans que les individus concernés en soient informés, grâce à un cadre juridique préalablement établi. D’un point de vue éthique, cette pratique est non seulement acceptée, mais également encouragée dans certains domaines car elle évite de solliciter d’autres individus. En visant la maximisation des bénéfices découlant de la recherche et la minimisation des risques pour les personnes, l’utilisation secondaire des données est une option intéressante. Néanmoins, il faut rester prudent et éviter d’exploiter excessivement ces données. Le cadre normatif, loin de nous restreindre, nous offre la liberté d’opérer dans le respect des engagements pris envers celles et ceux qui fournissent les données, parfois très sensibles et personnelles.
Martin Gibert
Concernant l’éthique des productions de l’IA, le critère essentiel pourrait se situer au moment où une entité – qu’elle soit machine, animal ou végétal – est reconnue comme un patient moral. Autrement dit, une entité envers laquelle nous avons des obligations morales. La conception dominante en éthique de l’IA suggère qu’une entité devient un patient moral lorsqu’elle est sentiente, capable d’éprouver des sentiments et de posséder une conscience. Actuellement, aucun robot ne présente ces caractéristiques.
Néanmoins, si un jour nous sommes convaincus de la sentience d’un système robotique, la question de ses droits, dont celui à la vie privée, se poserait. Un robot qui serait capable de souffrir, et bien on a de bonnes raisons morales de ne pas le faire souffrir.
Éric Rancourt
La philosophie et la morale alimentent le débat public, et ce dernier conduit souvent à une codification, qu’elle soit positive ou négative, dans la loi. Souvent, l’éthique dépasse la portée de la loi. Concernant l’éthique animale, c’est un appel à ce que nos cadres éthiques précèdent ce que les lois autorisent ou interdisent.
La Loi sur la statistique au Canada nous autorise à accéder à des données de tout type, qu’elles soient privées ou publiques, partout au Canada. Cependant, le simple fait de pouvoir le faire ne signifie pas que nous devrions le faire. Il existe des enjeux liés à la perception, à l’acceptabilité et à l’éthique. Nous prenons ces aspects en compte dans notre utilisation des données.
Concernant la réutilisation des données, elle est perçue comme une nouvelle forme de collecte. Si nous avons collecté des données pour l’objectif A et que l’objectif B apparaît plus tard, nous nous posons à nouveau la question et procédons à une nouvelle évaluation éthique.
Sur la facilité apparente avec laquelle les informations circulent au sein des entreprises privées par rapport aux entités publiques – que ce soit le gouvernement, le milieu académique ou autres – c’est un défi sociétal complexe à résoudre. Les citoyens voient un retour immédiat lorsqu’ils fournissent des informations à des entreprises privées, bien que le consentement ne soit pas toujours pleinement éclairé. Les gens achètent une voiture et remplissent rapidement, dans un bureau de concessionnaire, six formulaires totalisants peut-être 15 000 mots. On leur indique où signer, envoyant ainsi une multitude de données à divers endroits pour diverses utilisations. Ils le font parce qu’ils désirent cette voiture.
Lorsqu’ils fournissent des données à des entités de recherche, comme des universités ou Statistique Canada, il n’y a pas de bénéfice immédiat et tangible. Le retour est plutôt un bienfait collectif : déterminer le meilleur emplacement pour un hôpital ou une école, par exemple. C’est une question sociale liée à la perception de l’utilité des enquêtes. Idéalement, le public devrait avoir accès aux données, mais beaucoup pensent que les données sont moins sécurisées dans le secteur public, notamment le gouvernement, car ce dernier peut modifier les lois. À l’inverse, le secteur privé est soumis aux lois et doit les respecter.
Catherine Beaudry
Lors de la dernière intervention de M. Rancourt, il a mentionné que dans le secteur public, il n’y a pas de retour direct vers la personne à partir de laquelle les données ont été collectées, contrairement au privé. Les chercheurs et les gouvernements n’ont-ils pas également un devoir de retour envers les entreprises? Et ce, pas uniquement du point de vue de la collecte de données ou du bien public. Il s’agirait d’un retour précis à l’entreprise, lui indiquant où elle se situe, lui fournissant des recommandations. Il serait alors libre à elle de suivre ou non ces recommandations. Toutefois, cela lui donnerait une vision claire. Ainsi, elle pourrait être incitée à répondre à des enquêtes.
Éric Rancourt
Je suis d’accord avec vous. Dans le contexte de Statistique Canada, le nombre total de nos enquêtes mensuelles concerne environ 300 000 personnes. Il est donc plus complexe de donner un retour individuellement, mais cela pourrait être réalisable par groupe. Effectivement, nous avons nos publications et nos chiffres qui sont utilisés par d’autres ministères et influencent les politiques publiques. Nous tentons d’améliorer notre interaction avec les répondants, en allant au-delà d’une simple communication. Nous souhaitons établir un véritable engagement et offrir un retour plus tangible. Cependant, c’est une tâche ardue. Nous vivons dans une société individualiste et il est probable que nous ne pourrons pas satisfaire les attentes de chaque individu. Mais ce défi explique, en partie, pourquoi de nombreuses personnes jugent acceptable de fournir leurs informations aux entreprises privées plutôt qu’aux institutions publiques. Nous avons un rôle à jouer et il ne s’agit pas simplement d’espérer un changement dans l’individualisme ambiant de la société. Nous devons être proactifs et nous orientons nos efforts dans cette direction.
Guillaume Paré
Il ne faut pas se leurrer : la majeure partie des recherches menées en milieu universitaire, surtout lorsqu’elles sont dirigées par des étudiants, n’offre généralement pas d’avantages directs aux participants. C’est en contraste avec les essais cliniques, où les participants peuvent parfois, dans certaines recherches, bénéficier des retombées. Ainsi, dans le secteur de la santé, les individus sont souvent enclins à partager leurs données, car ils perçoivent que cela contribue au bien commun.
Une raison pour laquelle les comités d’éthique recommandent souvent un retour d’information aux participants est qu’il aide à établir une fidélité des participants à la recherche en plus de rehausser les bénéfices qu’ils en tirent. Il est essentiel d’adopter et de promouvoir ces bonnes pratiques. Il n’y a actuellement pas de suivi systématique de cette recommandation au sein des comités d’éthique. Je suis convaincu que nous aurions toutes et tous à gagner en adoptant cette approche, pour aider les participants à mieux comprendre notre travail et comment la recherche avance. Après tout, entre le moment de la collecte des données et la publication des résultats dans les médias, il peut s’écouler plusieurs années ce qui rend difficile de comprendre l’apport que peut avoir la participation à une recherche et l’utilité des données partagées par les participants à la recherche.
Davide Pulizzotto
Le partage ouvert des données, cet Open Access, est-il toujours bénéfique pour la société ? La liberté académique et l’avancement technologique, tels que l’IA, sont-ils des valeurs qui doivent constamment prévaloir ? Y a-t-il des moments où nous devrions retenir certains résultats de recherche ou éviter de commercialiser certaines innovations technologiques, comme des robots équipés d’IA, pour des raisons éthiques?
Guillaume Paré
Il importe de distinguer l’open science qui favorise le partage et l’accès aux articles scientifiques et l’open data qui favorise le partage et l’accès aux données. Pour ma part, bien que je sois favorable sans réserve à l’open science, j’ai plusieurs réserves quant à l’open data.
Il existe un postulat de base sous-jacent à l’Open Data qui n’est pas souvent explicité, à savoir que le partage des données s’effectue entre chercheurs compétents qui ont une compréhension commune des mesures de protection et de ce qui peut être fait avec les données. Toutefois, en rendant les données totalement publiques, on s’expose à leur utilisation par des personnes qui feront “dire” n’importe quoi aux données, concourant ainsi à nourrir les phénomènes de pseudoscience. Il est préférable que les données soient manipulées par des personnes qualifiées pour garantir l’intégrité et la crédibilité de leur utilisation et ne pas miner le rôle de l’université quant à son rôle de recherche et de transmission des connaissances véridiques, vérifiées et vérifiables.
Lina Harper
La science ouverte est au cœur de mon travail et c’est une approche que je promeus activement. Adopter une démarche de science ouverte, c’est renforcer notre compétitivité à l’échelle mondiale. L’Europe, par exemple, est bien avancée dans l’intégration de cette philosophie à la recherche.
Quand je parle de science ouverte, je fais référence non seulement aux ressources éducatives libres et aux données ouvertes, mais aussi, comme je l’ai mentionné plus tôt, à l’accès ouvert. Cela signifie que les délais imposés par certains journaux sur la publication des résultats de recherche devraient être levés pour le grand public. C’est particulièrement pertinent lorsqu’on pense à des enjeux majeurs comme la COVID-19, où la science ouverte a accéléré la publication et le partage des découvertes.
Cette approche favorise également l’égalité dans l’accès aux connaissances. À mon avis, tout le monde devrait avoir la possibilité de se tenir informé des progrès scientifiques. Bien sûr, il y a des limites. Par données ouvertes, je veux dire pour les chercheurs.
Le défi actuel avec les données ouvertes est qu’il n’y a pas de mécanisme de suivi ; nous ne savons pas toujours qui réutilise nos données ni comment. Il serait donc pertinent d’établir une procédure technique pour retracer les publications basées sur des données initialement collectées par d’autres chercheurs.
Martin Gibert
En tant que chercheur, je vois toute l’absurdité de devoir payer pour accéder à des articles rédigés par des universitaires financés par des fonds publics, tout cela au profit de revues commerciales. Il est évident qu’en matière d’Open Access, nous avons encore beaucoup de progrès à faire.
Pour résumer notre discussion, ça vaut autant pour les données que pour beaucoup d’enjeux liés aux nouvelles technologies. L’idée de base est que ces nouvelles technologies nous apportent de nouveaux pouvoirs. Il y a des choses que l’on peut faire maintenant que l’on ne pouvait pas faire avant. Et qui dit nouveaux pouvoirs, dit nouvelles responsabilités. On peut aussi rester maître de notre destin en disant qu’on ne veut pas de cette technologie. La reconnaissance faciale est probablement un bon exemple. C’est une technologie qui semble avoir davantage d’aspects négatifs que positifs. Comme nous avons déjà interdit certaines technologies dans le passé, peut-être que cela vaudrait la peine d’envisager une interdiction pour la reconnaissance faciale.
Éric Rancourt
La société est en constante évolution. En tant qu’organisme public, notre ambition est de demeurer pertinent en menant des recherches pour offrir des informations sur la société telle qu’elle est et comment elle se transforme. Pour y parvenir, il est indispensable de disposer d’une vaste quantité d’informations. Cependant, doit-on tout entreprendre ? La précaution s’exprime sous diverses formes : éthique, intégrité scientifique, gestion des données et même bon sens. Ces principes sont au cœur de nos valeurs individuelles et collectives. Quand nous évoquons la nécessité et l’importance d’une action pour rester pertinents, tout en soulignant l’importance de la précaution, cet ensemble donne un cadre permettant d’expliquer aux Canadiens la raison de notre désir d’accéder à tant de données.
Ce contenu a été mis à jour le 2023-10-27 à 19 h 45 min.