Si vous êtes une personne à la tête d’un organisme à but non lucratif (OBNL), l’utilisation de l’intelligence artificielle (IA) peut vous sembler une considération lointaine. Pourtant, de récentes études (en anglais) font un constat frappant : l’IA générative, dont l’outil ChatGPT, s’est déjà frayé un chemin dans les milieux de travail, souvent en l’absence d’une politique officielle d’utilisation acceptable.
Selon le rapport 2024 Work Trend Index publié par Microsoft et LinkedIn, 75 % des employé.e.s, dans un intérêt sincère d’augmenter leur productivité, utilisent l’IA au travail et 78 % de ces personnes apportent leurs propres outils d’IA au bureau. En même temps, selon une étude d’Asana et d’Anthropic publiée en 2024, 82 % des employé.e.s affirment que leur organisation n’a pas encore fourni de directives concernant l’utilisation acceptable de l’IA ou de la formation.
Qu’est-ce que cela veut dire pour votre OBNL? Que vos employé.e.s utilisent peut-être déjà ChatGPT sans que vous le sachiez. Et bien que cette utilisation ait le potentiel d’améliorer la productivité, elle représente aussi un risque important en l’absence d’une surveillance adéquate.
Imaginez : sans lignes directrices, du contenu généré par l’IA peut être utilisé par des tiers sans vérification véritable, mettant à risque votre réputation. Aussi, l’utilisation non encadrée de l’IA peut-elle produire des préjugés non intentionnels ou des faux pas éthiques contraires à votre mission.
D’où la nécessité d’adopter une politique d’utilisation acceptable provisoire pour le recours à l’IA. Une telle politique permet de canaliser l’enthousiasme pour l’IA vers des pratiques sécuritaires, efficaces et centrées sur l’humain pour l’exécution de tâches au travail. Elle établit des limites d’ordre éthique tout en favorisant des expériences sûres et la formation.
Le terme « politique provisoire » signifie qu’à mesure que vous ajoutez des systèmes alimentés par l’IA à la gamme des usages acceptés de l’IA dans votre organisation (p. ex. systèmes internes, bases de données, prestation de programmes), vous pourrez ajouter des politiques plus élaborées sur la gouvernance des données, la surveillance de principes éthiques et des lignes directrices sur les agents conversationnels. En partant de cet article, nous vous recommandons de considérer votre politique d’utilisation acceptable de l’IA générative comme un « document vivant » et de le mettre à jour régulièrement à mesure que la technologie évolue et que de nouveaux cas d’utilisation émergent.
Cet article vous présente les premières étapes pour créer une politique d’utilisation acceptable pour les OBNL de petite et de moyenne taille, et pour intégrer l’IA générative dans vos processus de travail.
1. Principes éthiques de l’IA
Commencez par esquisser les valeurs qui orienteront l’utilisation de l’IA dans votre organisation et qui reflètent votre mission et votre culture. Votre ébauche devrait comprendre les avantages et les défis éthiques relatifs à l’utilisation de l’IA pour votre organisation.
L’un des principaux avantages de l’utilisation de l’IA générative est le « dividende de temps » (en anglais). C’est-à-dire qu’elle permet de réduire des tâches onéreuses pour que les employé.e.s puissent se concentrer sur le travail au cœur de la mission organisationnelle, qui requiert des compétences humaines.
L’IA générative ne remplace pas l’humain. Votre politique devrait inclure un principe éthique reflétant la perspective de votre organisation. Ainsi, le Coastal Watershed Council (en anglais), un petit OBNL en Californie dédié à l’éducation environnementale, a intégré l’énoncé suivant sur l’IA centrée sur l’humain dans sa politique : « Nous utilisons l’IA afin de réduire notre temps devant l’écran et d’accroître notre temps passé à l’extérieur pour éduquer toutes les parties prenantes relativement à la protection de la rivière San Lorenzo. » [traduction libre]
Les outils d’IA générative comportent des risques éthiques. Par exemple, c’est l’information tirée d’Internet qui sert de base pour leur entraînement, les rendant susceptibles d’amplifier des préjugés, surtout dans le cas d’OBNL qui travaillent auprès de communautés marginalisées. L’utilisation arbitraire de ces outils pourrait vous amener à perpétuer des stéréotypes ou à relayer de l’information biaisée qui contrevient à votre mission, et ce, sans que vous le sachiez. Votre politique devrait donc comprendre un énoncé sur l’atténuation des risques d’épandre des préjugés, p. ex :
« Nous travaillons pour réduire le plus possible les biais dans tout contenu produit par l’IA générative et pour offrir du contenu équitable. Nous prenons soin de réviser tout contenu généré par l’IA sous l’angle de l’équité afin d’éviter tout stéréotype lié à l’origine ethnique, à l’expression de genre, à l’orientation sexuelle, à l’ethnie et au handicap. »
Cela dit, les préjugés ne représentent pas le seul enjeu éthique. Votre politique devrait aussi aborder la protection de la vie privée, la confidentialité, la vérité et la divulgation d'informations, entre autres sujets, tous inclus dans le modèle. Encouragez votre équipe à participer à l’adaptation de ces principes aux besoins et à la mission uniques de votre organisation.
2. Normes : des attentes communes
Les normes établies en milieu de travail peuvent vous aider à intégrer l’IA générative au tissu culturel de votre OBNL. Considérez cette étape comme la préparation à une nouvelle collaboration, dans ce cas, entre votre équipe dévouée et des assistants numériques très impressionnants. Votre rôle consiste à orienter ce partenariat pour faire en sorte qu’il reste toujours centré sur l’humain.
Demandez-vous d’abord comment l’IA peut s’intégrer dans vos processus. L’objectif n’est pas de remplacer l’aspect humain dans votre travail, mais de libérer du temps de votre équipe pour qu’elle puisse se concentrer sur ce qu’elle sait faire le mieux. Encouragez une réflexion critique sur les tâches : lesquelles bénéficieraient d’une assistance par l’IA, et pour lesquelles l’expertise humaine est-elle indispensable?
Ensuite, au moment de choisir un outil d’IA, rappelez-vous que le fonds doit l’emporter sur la forme. Les fonctions et le prix sont importants, tout comme les aspects éthiques et les valeurs. Posez-vous la question suivante : « l’entreprise créatrice de cet outil travaille-t-elle, comme nous, pour rendre notre monde meilleur? »
Enfin, votre politique devrait mentionner des outils particuliers et la manière de les alimenter, en plus d’usages précis. Pour voir un ensemble de questions détaillées qui pourraient vous aider à faire ce travail en équipe, consultez la liste de contrôle pour une politique d’utilisation acceptable de l’IA générative, disponible sur Intervalles RH.
3. Garde-fous : limites de l’utilisation responsable de l’IA
Les garde-fous, ce sont les règles et les pratiques qui donnent vie à vos principes éthiques définis pour orienter l’utilisation de l’IA. Pensez-y comme des mesures de sécurité qui gardent votre organisation sur la bonne voie et permettent à votre équipe d’utiliser les outils d’IA de manière responsable.
Prenons l’exemple de la protection de la vie privée. Les OBNL traitent souvent de l’information sensible relative aux donateurs.trices, aux bénéficiaires et à leur travail. Un garde-fou à ce sujet pourrait se lire comme suit : « N’utilisez jamais des renseignements personnels dans vos requêtes lorsque vous utilisez des outils d’IA générative. Les renseignements personnels incluent les noms, adresses courriel, numéros de téléphone et toute autre information sensible liée à une personne. »
Ce garde-fou établit une limite claire, soit l’exclusion des renseignements personnels des outils d’IA, tout en encourageant l’utilisation de l’IA pour les tâches ne touchant à aucune donnée sensible. Vous pouvez y ajouter un système de « feu de circulation » pour votre contenu et vos données : les données « vertes » peuvent être utilisées avec l’IA, les donnes « jaunes » imposent la prudence et, possiblement, du caviardage. Enfin, les données « rouges » ne peuvent jamais être utilisées en lien avec l’IA.
En définissant des garde-fous, vous protégez l’information sensible et donnez à votre équipe la confiance nécessaire pour explorer le potentiel de l’IA générative sans craindre de causer accidentellement des torts. Les employé.e.s connaissent les limites, ce qui leur permet de travailler librement à l’intérieur de celles-ci.
Rappelez-vous que les garde-fous ne représentent pas un refus de l’utilisation de l’IA. Ils fournissent plutôt des balises pour une utilisation sécuritaire et éthique de cette technologie. Si vous les communiquez clairement et les intégrez dans vos processus de formation et d’accueil, vous jetterez les bases d’une adoption responsable de l’IA qui permettra d’amplifier le travail de votre organisation tout en respectant vos valeurs. La liste de contrôle pour une politique d’utilisation acceptable de l’IA générative, disponible sur Intervalles RH, comprend des exemples de garde-fou. Toutefois, faites appel à votre équipe afin de les adapter aux besoins particuliers de votre organisation.
4. Mise en place et évolution
Le moment est venu de préparer la mise en pratique de votre politique sur l’IA générative. Vous devez alors réfléchir au déploiement.
Vous pouvez commencer par un groupe pilote, soit une petite équipe d’employé.e.s enthousiastes à l’idée de tâter le terrain de l’IA, de tester vos nouveaux garde-fous et de développer les premiers cas d’utilisation. Autrement dit, cette étape consiste à entourer un terrain de jeux d’une clôture haute afin de créer un espace sûr pour expérimenter et apprendre. À mesure qu’ils.elles acquièrent de l’expérience, les membres de ce groupe deviendront les champion.ne.s de l’IA qui vous aideront à inspirer le reste de l’équipe.
Apprendre à utiliser l’IA générative peut s’avérer plus facile que d’apprendre à utiliser d’autres technologies, et de loin. Formez vos équipes aux compétences de base pour formuler des requêtes efficaces et créez des occasions d’apprentissage entre pairs où les membres de vos équipes peuvent échanger des conseils et des histoires à succès.
Retenez ceci : pour apprendre à bien utiliser l’IA générative, il faut l’utiliser régulièrement. Plus votre équipe prendra ses aises avec les outils d’IA, mieux elle saura l’utiliser avec efficacité.
Pour soutenir ce processus d’apprentissage, vous pourrez créer un manuel de l’IA interne ou un carrefour de l’IA. Ne vous compliquez pas la vie : un dossier Google partagé comprenant des exemples de processus de travail, des conseils pour la rédaction de requêtes, des fiches-mémoires et d’autres ressources. Et nul besoin de réinventer la roue : de nombreuses ressources gratuites sont disponibles en ligne et proposent des exemples de requête, des cas d’utilisation de l’IA, des conseils et des occasions d’apprentissage adaptées aux OBNL.
Compte tenu de l’évolution rapide de l’IA, votre politique doit emboîter le pas. Prévoyez une mise à jour régulière de vos lignes directrices. Créez des canaux pour recevoir la rétroaction de vos équipes et évaluez dans quelle mesure votre organisation utilise l’IA de manière efficace. Enfin, renseignez-vous des questions légales et de conformité concernant l’utilisation de l’IA dans votre secteur.
En considérant l’adoption de l’IA avec ouverture et dans une perspective d’apprentissage continu et de collaboration, vous donnez à votre OBNL les moyens de réussir à l’ère de l’IA. Cette technologie peut vous aider à accroître considérablement votre impact. En vous dotant d’une politique provisoire bien ficelée et mise en œuvre, vous serez en bonne position pour exploiter son potentiel de manière responsable.