Politique d’utilisation acceptable de l’IA générative : aperçu et liste de vérification

Introduction

Le présent modèle se veut un guide préliminaire pour élaborer une politique d’utilisation acceptable de l’intelligence artificielle (IA) générative pour votre organisme à but non lucratif (OBNL). Il comprend une liste de vérification pour chacune des étapes, des exemples et des questions à prendre en compte. 

Au moment d’élaborer votre politique d’utilisation acceptable de l’IA générative, n’hésitez pas à consulter Une intelligence artificielle bien réelle : les termes de l’IA pour passer en revue les termes les plus courants.

1. Principes d’IA éthique

Cette section de votre politique présentera des énoncés de valeurs qui décrivent les principes éthiques d’utilisation de l’IA de votre organisation. Ces principes orientent les décisions, les normes et les comportements liés à l’utilisation de l’IA générative. Par ailleurs, vos énoncés de valeurs doivent être en parfaite adéquation avec la mission, les convictions fondamentales, les normes et la culture de votre organisation, ainsi qu’avec les interactions avec vos parties prenantes. Ils sont fondés sur une compréhension des avantages et des défis liés à l’utilisation de l’IA au sein de votre OBNL. Pour des exemples d’énoncés de valeurs qui reflètent les principes éthiques d’une organisation en matière d’utilisation de l’IA, consultez Principes concernant l’IA de Google ou Principes directeurs pour l’utilisation de l’IA au gouvernement fédéral du Canada.

Lors de l’élaboration de cette section de votre politique, veillez à :

unchecked Exposer les valeurs fondamentales qui guident votre utilisation de l’IA;

unchecked Aborder le concept de « dividende en temps », c’est-à-dire la manière dont sera réinvesti le temps que l’IA permettra à votre organisation d’économiser;

unchecked Définir votre position sur l’utilisation de l’IA centrée sur l’humain.

Passez en revue les exemples de principes d’IA éthique ci-dessous et déterminez dans quelle mesure ils sont liés aux énoncés de valeurs de votre organisation :

  • Centré sur l’humain : Nous utilisons l’IA générative pour enrichir l’intelligence, l’expérience, l’expertise, la créativité et la prise de décision des humains. Nous réinvestissons le « dividende en temps » ou les gains de temps dans du travail axé sur l’humain, tels que le renforcement des relations et l’accomplissement de notre mission.
  • Co-intelligence : Nous nous engageons à maintenir une supervision et une prise de décision humaines lors de l’utilisation d’outils d’IA générative. Les humains sont toujours présents et responsables.
  • Préjugés : Nous nous efforcerons de limiter les préjugés dans les résultats de l’IA générative et de garantir des résultats équitables pour tous. Nous examinerons attentivement le contenu généré par l’IA dans une optique d’équité, en portant attention aux stéréotypes liés à la race, à l’expression de genre, à l’orientation sexuelle, à l’origine ethnique et au handicap.
  • Équité et accès : L’IA générative ne sera pas utilisée de manière à créer de nouvelles inégalités en interne ou en externe.  
  • Vie privée et confidentialité : Les renseignements personnels permettant d’identifier les parties prenantes sont protégés par les pratiques de l’organisation en matière de sécurité des données ainsi que par la compréhension des politiques de confidentialité des plateformes utilisées. En outre, la confidentialité des documents internes est préservée lors de l’utilisation d’outils d’IA générative.
  • Exactitude : Nous respectons les normes les plus élevées en matière d’exactitude, de véracité et de fiabilité dans notre travail grâce à un examen minutieux, par des humains, de tous les résultats de l’IA générative.
  • Transparence : Nous divulguons le recours à l’IA générative pour la création de contenus textuels, visuels ou multimédias destinés à des publics externes, afin de maintenir la confiance des parties prenantes.
  • Propriété intellectuelle : Nous veillerons à ne pas violer involontairement les droits de propriété intellectuelle.
  • Durabilité : Nous tenons compte de la durabilité et de l’impact environnemental à long terme de l’IA générative, en particulier les grands modèles de langage (GML ou LLM, de l’anglais large language models), et nous encouragerons les pratiques durables en matière d’utilisation de l’IA générative.
  • Travail équitable : Nous prenons en compte les conditions de travail des travailleur.euse.s à bas salaire dont l’emploi consiste à effectuer le travail essentiel sur les données qui sous-tend le développement des systèmes d’IA que nous utilisons, en encourageant le respect des principes de travail équitable de Fairwork (en anglais seulement).

Questions à prendre en compte :

unchecked Dans quelle mesure ces principes cadrent-ils avec la mission de votre organisation?

unchecked Quels sont les aspects éthiques particuliers, qui ne figurent peut-être pas dans la liste ci-dessus, qui découlent du travail effectué par votre organisation?

2. Normes organisationnelles

Les normes organisationnelles sont les attentes communes qui guident les actions et les interactions des membres du personnel. Ces normes ont une incidence sur la manière dont le travail est accompli et sur la façon dont le personnel communique et collabore, le tout à l’appui de la mission, de la culture et des activités globales de l’organisation. Votre politique d’utilisation acceptable de l’IA doit préciser les normes centrées sur l’humain, les cas d’utilisation ainsi que la sélection et la mise en place des outils.

Lors de l’élaboration de cette section de votre politique, veillez à :

unchecked Établir les critères de sélections des outils d’IA;

unchecked Définir la manière dont les outils d’IA seront intégrés aux flux de travail;

unchecked Préciser les outils approuvés et les outils interdits;

unchecked Décrire le processus de mise en place et de remboursement;

unchecked Définir les cas d’utilisation acceptables de l’IA, par exemple :

unchecked Création et révision de contenu,

unchecked Traduction,

unchecked Rédaction de synthèses,

unchecked Rédaction des notes de réunions,

unchecked Recherche,

unchecked Remue-méninges,

unchecked Analyse

Exemples de normes centrées sur l’humain :

  • Intégration aux flux de travail bien pensée : L’IA générative est intégrée aux flux de travail de manière stratégique afin d’éviter une trop grande dépendance envers cette technologie ou toute incidence sur les relations humaines sur le lieu de travail. Nous savons quelles tâches nous, en tant qu’humains, maîtrisons le mieux et celles que l’IA générative peut bien accomplir (sous supervision humaine).
  • Suivi de l’actualité technologique : L’IA générative étant un domaine en rapide évolution, nous encourageons le personnel à se tenir au courant des nouveaux développements, outils et principes éthiques en suivant des formations et en participant à des ateliers de façon régulière, de même que par l’apprentissage autonome.
  • Sélection des outils en phase avec les valeurs de l’organisation : Les critères de sélection des outils ne reposeront pas uniquement sur les caractéristiques ou le prix, mais également sur les valeurs et l’éthique du fournisseur.

Questions à prendre en compte :

unchecked Quelles tâches devraient toujours faire l’objet d’une supervision humaine?

unchecked Comment encouragerez-vous le personnel à cerner les cas d’utilisation avantageuse de l’IA?

unchecked Comment favoriserez-vous le partage des connaissances sur l’utilisation de l’IA parmi les membres du personnel?

3. Garde-fous

Les garde-fous sont des règles qui soutiennent les principes éthiques énoncés à la section 1 et permettent de réduire les risques. La présente section doit fournir des directives claires sur la manière dont les membres du personnel doivent utiliser l’IA générative. La question des garde-fous devrait également être abordée lors de l’intégration et de la présentation des outils, de même que dans le cadre de la formation continue.

Lors de l’élaboration de cette section de votre politique, veillez à établir des garde-fous clairs pour les éléments suivants :

unchecked Équité et accès dans l’utilisation de l’IA;

unchecked Détection et atténuation des préjugés;

unchecked Protection de la vie privée;

unchecked Préservation de la confidentialité;

unchecked Garantie de l’exactitude des résultats de l’IA;

unchecked Respect de la propriété intellectuelle;

unchecked Transparence dans l’utilisation de l’IA;

unchecked Promotion de la durabilité;

unchecked Soutien des pratiques de travail équitable (en anglais seulement);

unchecked Autres aspects découlant de vos discussions.

Voici quelques exemples de garde-fous les plus courants :

  • Équité et accès
    • Vérifier que le contenu généré par l’IA, notamment les descriptions de poste ou les outils d’évaluation des CV, ne filtre pas les personnes sur la base de leur race, de leur présentation de genre, de leur orientation sexuelle, de leur origine ethnique ou de leur handicap.
    • Veiller à ce que l’ensemble du personnel ait accès aux outils d’IA générative et obtienne du soutien.

  • Préjugés
    • Toujours examiner les résultats découlant des grands modèles de langage (GML ou LLM, de l’anglais Large Language Model) dans une optique d’équité.
    • Comprendre les préjugés qui pourraient découler d’un résultat d’un GML et affiner les messages-guides pour améliorer le résultat.
    • Veiller à ce que le contenu d’un GML soit revu par une équipe diversifiée.
    • Comprendre comment les GML (ChatGPT, Copilot, Claude, Gemini, etc.) sont affinés pour éviter les préjugés.

  • Vie privée
    • Caviarder tous les renseignements personnels permettant d’identifier une partie prenante, comme le nom, le courriel, le numéro de téléphone ou d’autres. données sensibles, de tous les messages-guides et de tous les documents partagés avec un GML.
    • Créer un système de signalisation relativement à l’utilisation des données dans les messages-guides et inclure des exemples :
      • Vert : Utilisation en toute sécurité avec l’IA;
      • Jaune : Utilisation avec prudence; du caviardage pourrait être nécessaire;
      • Rouge : Utilisation interdite avec l’IA.
    • Refuser que vos documents ou messages-guides servent à entraîner le GML (ChatGPT est bloqué; Claude est activé).
    • Utiliser uniquement des applications de conversion de la voix en texte conformes à la Loi sur la protection des renseignements personnels et les documents électroniques si vous gérez des données de santé personnelles permettant d’identifier une personne. Si votre organisation mène des activités à l’international ou aux États-Unis, veillez à ce que les applications que vous utilisez soient conformes aux lois sur la protection des renseignements personnels applicables dans les pays concernés, notamment la Health Insurance Portability and Accountability Act (HIPAA) et la Violence Against Women Act. (Remarque : au moment de la publication, ChatGPT n’est pas conforme à la HIPAA.)
    • Divulguer le fait que vous utilisez des paramètres de participation aux réunions générées par des applications de conversion de la voix en texte à des fins d’examen du rendement du personnel.
    • Obtenir le consentement des personnes présentes aux réunions pour enregistrer les discussions si vous souhaitez utiliser des applications d’IA générative pour la prise des notes de réunion.
      • Déterminer si par défaut l’application est activée ou désactivée, et former le personnel sur la manière de démarrer ou d’arrêter l’application.
  • Confidentialité
    • Ne pas partager de documents confidentiels avec les GML et indiquer clairement quels documents sont confidentiels.
    • Définir une politique de « caviardage » si des documents confidentiels peuvent être utilisés avec des GML.
    • Si des applications de prise de notes par conversion de la voix en texte propulsées par l’IA générative sont utilisées pour des réunions confidentielles, désactiver les paramètres de partage de la transcription et du résumé.

  • Exactitude
    • Ne pas partager les résultats d’un GML ou d’applications de conversion de la voix en texte avant d’avoir procédé à un examen humain complet et approfondi.
    • Utiliser des techniques de guidage avec un GML pour atténuer les hallucinations, par exemple en demandant au GML de fournir la procédure étape par étape d’exécution de la tâche, en incluant les sources, ou de placer entre parenthèses ou crochets l’information dont il n’est pas sûr de l’exactitude à 100 %. 
    • Établir des procédures pour la vérification régulière des résultats de l’IA générative par cas d’utilisation. Par exemple, si les résultats servent à la traduction, le texte doit être révisé par une personne qui comprend la langue.
  • Propriété intellectuelle
    • Ne pas partager des documents protégés par des droits d’auteur qui n’appartiennent pas à votre organisation avec les GML.
    • Éviter d’utiliser des textes protégés par des droits d’auteur mot pour mot dans vos messages-guides – paraphraser ou résumer plutôt les concepts.
    • Éviter d’utiliser des messages-guides qui nécessitent le recours à un style d’artiste en particulier par son nom. 
    • Examiner le contenu généré par des GML et le modifier au besoin selon vos propres expressions avant de l’utiliser afin d’éviter de reproduire du texte protégé par des droits d’auteur.
    • Dans le cas de sujets sensibles, songer à utiliser des sources ouvertes ou des modèles avec des ensembles de données sans droits de propriété intellectuelle.
    • Étant donné que le contexte juridique entourant l’IA et la propriété intellectuelle évolue constamment, se tenir au courant des plus récents règlements et des dernières pratiques exemplaires dans le domaine.
  • Durabilité
    • Favoriser les pratiques d’IA générative durables en recourant avec parcimonie aux messages-guides.
    • Plaider pour l’adoption d’approches durables en matière d’IA générative dans votre domaine.

  • Travail équitable

Questions à prendre en compte  :

unchecked En quoi ces garde-fous soutiennent-ils les principes éthiques de votre organisation?

unchecked Quels sont les risques auxquels votre organisation est exposée et qui nécessitent des garde-fous particuliers?

4. Mise en œuvre et évolution

Cette section de votre politique définit la stratégie de votre organisation concernant l’adoption de cette technologie, incluant la manière dont vous déploierez l’utilisation de l’IA au sein de votre organisation. Elle traitera également des possibilités d’apprentissage par les pairs, de formation, d’expérimentation et d’apprentissage ouvert. Enfin, cette section exposera les directives concernant la mise à jour et la révision de votre politique à intervalles réguliers, au fur et à mesure de l’adoption de nouveaux cas d’utilisation, de nouvelles plateformes et de nouveaux systèmes.

Voici un exemple de plan de déploiement d’une politique d’utilisation acceptable de l’IA générative : 

unchecked Identifier un groupe pilote.

unchecked Concevoir une formation de base aux compétences en matière de messages-guides de l’IA.

unchecked Créer des possibilités d’apprentissage par les pairs.

unchecked Créer un guide ou un pôle interne sur l’IA :

unchecked Inclure des exemples de flux de travail;

unchecked Fournir des conseils en matière de messages-guides;

unchecked Créer des aide-mémoire et d’autres ressources.

unchecked Établir le calendrier de révision de la politique.

unchecked Créer des mécanismes pour recueillir les commentaires du personnel.

unchecked Définir les paramètres d’évaluation de l’efficacité de la politique d’utilisation acceptable de l’IA générative.

unchecked Planifier en vue de vous tenir au courant des aspects juridiques et de conformité.

unchecked Affecter des ressources (budget, temps, formation) en vue de l’adoption continue de nouveaux produits d’IA.

Questions à prendre en compte :

unchecked Comment encouragerez-vous l’expérimentation en restant dans des limites sûres?

unchecked Quelles ressources affecterez-vous à l’adoption continue de l’IA et à la formation dans ce domaine?

unchecked Comment adapterez-vous la politique au fil de l’évolution des technologies de l’IA?

Ressources

Vous trouverez dans ce document des articles, des ressources et du matériel de formation, issus d’une sélection rigoureuse et annotée, qui vous permettront d’étoffer votre politique d’utilisation acceptable de l’IA générative.

Cet article vous a-t-il été utile?
Utilisateurs qui ont trouvé cela utile : 0 sur 0