Gouvernance de l'IA : développer de manière responsable

Vos décisions de conception ont un impact direct sur la responsabilité et la sécurité de votre système d'IA. Par exemple, vous décidez comment sélectionner les sources de données, configurer le comportement du modèle ou présenter les résultats de l'IA aux utilisateurs. Ces choix ont des conséquences concrètes pour vos utilisateurs et votre entreprise.

Dans ce module, nous aborderons trois dimensions essentielles de la gouvernance de l'IA :

  • Confidentialité : traitez les données de manière responsable, expliquez ce qui est collecté et minimisez ce qui quitte le navigateur.
  • Équité : vérifiez que vos modèles ne présentent pas de comportement discriminatoire (biais) et créez des boucles permettant aux utilisateurs de signaler les problèmes.
  • Confiance et transparence : concevez votre système pour qu'il soit transparent et inspire une confiance calibrée, afin que les utilisateurs continuent d'en bénéficier malgré l'incertitude et les erreurs potentielles.

Pour chaque thème, nous expliquons comment il se manifeste dans différents produits d'IA. Nous allons ensuite l'analyser en fonction des trois couches de votre solution d'IA : données, intelligence et expérience utilisateur. Vous découvrirez ce à quoi vous devez faire attention, comment résoudre les problèmes et comment maintenir une gouvernance efficace et légère.

Confidentialité

Vous avez appris que les données réelles d'utilisation et d'interaction sont au cœur de tout système d'IA. Les données permettent l'apprentissage, l'évaluation et l'amélioration continue. De bonnes pratiques de confidentialité vous permettent de protéger ces données, mais aussi de donner aux utilisateurs le contrôle de leurs informations.

Les attentes en matière de confidentialité varient considérablement en fonction de votre produit et de votre audience. Dans les produits destinés aux consommateurs, les attentes concernent généralement la protection des informations permettant d'identifier personnellement les utilisateurs, comme leur nom, leurs messages et leur comportement de navigation. Dans les paramètres d'entreprise, l'accent est mis sur la souveraineté, la confidentialité et la protection de la propriété intellectuelle des données.

Les secteurs qui affectent les moyens de subsistance ou le bien-être des personnes, comme la santé, la finance et l'éducation, exigent des mesures de protection de la confidentialité plus strictes que les domaines à faible risque, comme le divertissement.

Voyons comment gérer la confidentialité dans les différents composants de votre système d'IA.

Données

Pour améliorer en continu votre système d'IA, vous pouvez collecter des données sur les interactions des utilisateurs, y compris les entrées, les sorties, les commentaires et les erreurs. Ces informations peuvent être réutilisées pour l'évaluation, l'ajustement du modèle ou les exemples few-shot dans les requêtes. Elle peut également vous aider à concevoir l'expérience utilisateur.

Voici quelques consignes pour collecter des données de manière responsable :

  • Ne collectez que les données nécessaires à l'apprentissage. Une recherche de produits optimisée par l'IA n'a pas forcément besoin du profil complet d'un utilisateur pour améliorer les résultats. Dans la plupart des cas, il suffit de fournir la requête, les schémas de clics et les données de session anonymisées.
  • Supprimez les informations sensibles. Supprimez toutes les informations permettant d'identifier personnellement l'utilisateur avant d'envoyer des données à des modèles externes. Pour ce faire, vous pouvez anonymiser, pseudonymiser ou agréger les données.
  • Limiter la fidélisation : Supprimez les journaux et les données mises en cache une fois qu'ils ont rempli leur fonction. Les cycles de rétention courts réduisent les risques sans bloquer les insights.

Documentez les informations que vous collectez, la durée pendant laquelle vous les conservez et la raison pour laquelle elles sont nécessaires. Si vous ne pouvez pas expliquer clairement vos flux de données à un utilisateur non technique, ils sont probablement trop complexes à contrôler ou à justifier.

Intelligence

Lorsque les utilisateurs interagissent avec votre système d'IA, ils peuvent saisir des informations privées ou sensibles sans le savoir ou par inadvertance. Ce risque est particulièrement élevé dans les interfaces de chat ou d'écriture ouvertes, où vous ne pouvez pas limiter ce que les utilisateurs saisissent.

Bien que vous puissiez empêcher l'envoi de certains mots, ces informations peuvent être sensibles au contexte. Si votre modèle s'exécute sur un serveur géré par un fournisseur externe, il est possible que celui-ci réutilise les saisies des utilisateurs comme données d'entraînement. À terme, le modèle peut révéler des fragments de texte privé, des identifiants ou d'autres informations confidentielles à d'autres utilisateurs.

Voici comment vous protéger contre les atteintes à la confidentialité lors de l'inférence :

  • Examinez attentivement les API tierces. Vous devez savoir exactement ce qu'il advient des données que vous envoyez. Les entrées sont-elles enregistrées, conservées ou réutilisées pour l'entraînement ? Évitez les services opaques et privilégiez les fournisseurs dont les règles et les contrôles sont transparents.

  • Si vous entraînez ou affinez vous-même des modèles, abstrayez les détails sensibles de vos données d'entraînement. Méfiez-vous de l'apprentissage par raccourci. Par exemple, dans une application de score de crédit, les codes postaux peuvent amener le modèle à faire des hypothèses sur l'origine ethnique ou le statut socio-économique. Cela peut entraîner des prédictions injustes et renforcer les inégalités existantes.

  • Dans les domaines sensibles, préférez l'inférence côté client. Cela peut se faire avec l'IA intégrée, un modèle dans le navigateur ou un modèle personnalisé côté client. Vous en saurez plus sur ce choix dans le prochain module, Choisir une plate-forme.

Expérience utilisateur

L'interface de votre application vous permet de montrer aux utilisateurs ce qui se passe, de gagner leur confiance et de leur donner le contrôle sur leurs données :

  • Soyez transparent. Les libellés courts dans votre interface, tels que "Traitées localement" ou "Envoyées de manière sécurisée pour analyse", peuvent vous aider à gagner la confiance des utilisateurs. Envisagez d'ajouter une divulgation progressive pour plus de détails, comme des info-bulles qui expliquent quand l'analyse a lieu sur l'appareil ou sur un serveur.
  • Demander en contexte : Demandez le consentement de l'utilisateur lorsque cela est pertinent. "Souhaitez-vous partager vos recherches précédentes pour améliorer les recommandations ?" est beaucoup plus pertinent qu'une option d'activation globale.
  • Proposez des commandes simples. Ajoutez des boutons bascule clairement visibles pour la personnalisation, les fonctionnalités basées sur le cloud ou le partage de données.
  • Accorder la visibilité Incluez un petit tableau de bord de confidentialité pour que les utilisateurs puissent gérer leurs données sans quitter l'application.
  • Expliquez pourquoi vous collectez des données. Les utilisateurs sont plus susceptibles de partager des données s'ils comprennent comment elles seront utilisées. Il en va de même pour vos règles de conservation et de gestion.

La confidentialité dans l'IA Web n'est pas une simple étape de conformité, mais un état d'esprit de conception continu :

  • Données : collectez moins de données et protégez-les davantage.
  • Intelligence : atténuez la mémorisation de données potentiellement sensibles par les modèles externes.
  • UX : rendez la confidentialité transparente et contrôlable pour les utilisateurs.

Équité

Les systèmes d'IA peuvent être biaisés et entraîner une discrimination injuste. C'est particulièrement vrai dans des domaines comme le recrutement, le droit et la finance, où les biais peuvent fausser des décisions critiques qui affectent directement de vraies personnes.

Par exemple, un modèle de recrutement entraîné sur des données de recrutement historiques pourrait associer certaines caractéristiques démographiques à une qualité de candidat inférieure, pénalisant involontairement les candidats issus de groupes sous-représentés, au lieu d'évaluer les compétences et l'expérience pertinentes pour le poste.

Données

Vos données d'entraînement sont un ensemble d'informations isolées individuellement qui peuvent refléter des biais du monde réel, voire en introduire de nouveaux. Voici des étapes pratiques pour rendre les biais liés aux données transparents et gérables :

  • Documentez vos sources de données et votre couverture. Publiez un bref communiqué pour aider les utilisateurs à comprendre les limites du modèle. Par exemple, "Ce modèle a été principalement entraîné sur du contenu en anglais, avec une représentation limitée du texte technique."
  • Exécutez des vérifications de diagnostic. Utilisez des tests A/B pour identifier les différences systématiques. Par exemple, comparez la façon dont votre système gère les phrases "C'est une excellente dirigeante", "C'est un excellent dirigeant" et "C'est une excellente dirigeante". De petits écarts dans le sentiment ou le ton peuvent révéler un biais plus profond.
  • Ajoutez des libellés à vos ensembles de données. Ajoutez des métadonnées légères telles que le domaine, la région et le niveau de formalité pour faciliter les futurs audits, filtrages et rééquilibrages.

Si vous entraînez ou affinez des modèles personnalisés, équilibrez vos ensembles de données. Une représentation plus large réduit le biais plus efficacement que la correction du biais après la création du modèle.

Intelligence

Dans la couche Intelligence, le biais se transforme en comportement appris. Vous pouvez ajouter des mesures de protection, une logique de reclassification ou des règles hybrides pour orienter les résultats vers l'équité et l'inclusion :

  • Testez régulièrement les biais. Utilisez des filtres de détection des biais pour signaler les formulations problématiques, comme les termes genrés ou le ton exclusif. Surveillez la dérive au fil du temps.
  • Faites attention aux données sensibles pour les modèles prédictifs. Les attributs, tels que le code postal, le niveau d'études ou le revenu, peuvent encoder indirectement des caractéristiques sensibles, telles que l'origine ethnique ou la classe sociale.
  • Générez et comparez plusieurs résultats. Classe les résultats en fonction de la neutralité, de la diversité et du ton, avant de déterminer quelle sortie partager avec l'utilisateur.
  • Ajoutez des règles pour appliquer des contraintes d'équité. Par exemple, en bloquant les résultats qui renforcent les stéréotypes ou qui ne représentent pas des exemples diversifiés.

Expérience utilisateur

Dans votre interface utilisateur, soyez transparent sur le raisonnement du modèle et encouragez les commentaires :

  • Fournissez des explications pour les résultats de l'IA. Par exemple, "Recommandation : ton professionnel, d'après vos saisies précédentes*." Cela permet aux utilisateurs de comprendre que le système suit une logique définie, et non un jugement caché.
  • Donnez aux utilisateurs un contrôle pertinent. Permettez-leur d'ajuster le comportement du modèle à l'aide de paramètres ou de requêtes (par exemple, en choisissant des préférences de ton, de complexité ou de style visuel).
  • Signaler plus facilement les biais ou les inexactitudes : Plus il est facile de signaler un problème, plus vous obtiendrez de données réelles pour améliorer votre système d'IA.
  • Fermez la boucle de rétroaction. Ne laissez pas les signalements des utilisateurs disparaître. Réinjectez ces données dans votre logique de réentraînement ou de règles, et partagez vos progrès de manière visible : "Nous avons mis à jour notre modération pour réduire les biais culturels dans les recommandations."

Les biais sont présents dans les données, amplifiés par les modèles et mis en évidence dans l'expérience utilisateur. Vous pouvez l'aborder à tous les niveaux de votre système d'IA :

  • Données : les sources de données doivent être transparentes et équilibrées.
  • Intelligence : détecter, tester et atténuer les biais dans les résultats.
  • Expérience utilisateur : permettez aux utilisateurs d'identifier et de corriger les biais grâce au contrôle et aux commentaires.

Confiance et transparence

La confiance détermine si les utilisateurs utilisent votre produit, l'adoptent et le recommandent.

La plupart des utilisateurs s'attendent à ce que les applications soient prévisibles. Par exemple, les clics sur les boutons effectuent toujours l'action indiquée et mènent au même endroit. L'IA ne répond pas à cette attente, car son comportement est très variable et souvent imprévisible. De plus, les systèmes d'IA ont un potentiel d'échec inhérent : les modèles de langage hallucinent des faits, les modèles prédictifs étiquettent mal les données et les agents deviennent incontrôlables.

Vos utilisateurs sont la dernière ligne de défense contre ces erreurs.

Votre objectif doit être de déplacer les utilisateurs vers le milieu, vers une confiance calibrée. La confiance excessive ou insuffisante entraîne des problèmes.

Au début, les utilisateurs ont probablement trop ou pas assez confiance dans votre système. Une confiance insuffisante signifie qu'ils n'utiliseront pas le système, tandis qu'une confiance excessive signifie qu'ils accepteront complètement les résultats, sans vérifier s'ils contiennent des erreurs. Votre tâche consiste à amener les utilisateurs au juste milieu de la confiance calibrée, où ils s'appuient sur l'IA pour gagner en efficacité tout en restant responsables des résultats finaux.

Données

Dans la couche de données, la confiance se construit en expliquant clairement la couverture et la provenance de vos données :

  • Soyez explicite sur l'origine et la traçabilité des données.
  • Documenter la fraîcheur et l'obsolescence des données.
  • Décrivez les types de contenus que le modèle a vus et les domaines dans lesquels il peut rencontrer des difficultés, comme les données dans une autre langue que l'anglais.

À mesure que votre système d'IA accumule des interactions et des commentaires au fil du temps, pensez à conserver des instantanés versionnés des données pour pouvoir expliquer l'évolution des résultats.

Intelligence

Dans la couche Intelligence, vous pouvez gérer la confiance grâce à l'explicabilité, aux indicateurs de confiance et à la conception modulaire :

  • Fournissez des explications contextuelles et ponctuelles. Selon le paradoxe de l'utilisateur actif, il est préférable d'intégrer des micro-explications contextuelles directement dans les interactions, afin que les utilisateurs comprennent ce que fait le système d'IA lorsqu'ils l'utilisent.
  • Communiquez à l'avance les limites et les modes de défaillance. Indiquez aux utilisateurs où l'IA peut rencontrer des difficultés. Par exemple, "Évite l'humour ou le jargon spécifique à un domaine pour obtenir de meilleurs résultats." Des repères contextuels courts offrent de la transparence sans interrompre le flux.
  • Les indicateurs de confiance et la logique de secours permettent à l'IA de rester fiable en cas d'incertitude. Vous pouvez estimer la confiance à partir de proxys, tels que les scores de probabilité ou les taux de réussite passés. Définissez des solutions de repli sûres pour les sorties manifestement incorrectes.
  • Les architectures modulaires rendent l'IA plus transparente. Par exemple, si un assistant à la rédaction gère la grammaire, le style et le ton dans des étapes distinctes, indiquez ce qui a changé à chaque étape : "Ton : moins formel ; complexité : simplifiée".

Expérience utilisateur

L'expérience utilisateur vous offre un vaste terrain de jeu pour renforcer et calibrer la confiance. Voici quelques techniques et modèles à essayer :

  • Adapter les contenus éducatifs Ne partez pas du principe que vos utilisateurs sont experts en IA. Fournissez des conseils simples aux utilisateurs expérimentés et des explications détaillées aux débutants.
  • Appliquez la divulgation progressive. Commencez par de petits indices. Incluez un texte indiquant que vous avez utilisé l'IA, par exemple "Ce contenu a été généré automatiquement", et permettez aux utilisateurs de cliquer pour en savoir plus.
  • Fermez les boucles de rétroaction avec des résultats visibles. Lorsque les utilisateurs évaluent, corrigent ou remplacent une suggestion de l'IA, expliquez-leur comment leur contribution façonne le comportement futur : "Vous avez préféré les réponses concises. J'ai adapté le ton en conséquence." La visibilité transforme les commentaires en confiance.
  • Gérez les erreurs de façon optimale. Lorsque votre système commet une erreur ou fournit un résultat peu fiable, reconnaissez-le et demandez à l'utilisateur de l'examiner. Par exemple, "Cette suggestion ne correspond peut-être pas à votre intention. Vérifier avant de publier". Indiquez clairement la marche à suivre en permettant à l'utilisateur de réessayer, de modifier ou de revenir à une option de secours sûre.

En bref, pour faire face à l'incertitude et au potentiel d'erreur inhérent à l'IA, guidez les utilisateurs pour qu'ils calibrent correctement leur confiance, en évitant le doute ou la surconfiance :

  • Données : soyez transparent sur la provenance des données.
  • Intelligence : rendre le raisonnement modulaire et explicable.
  • UX : concevez une expérience utilisateur qui offre une clarté et un feedback progressifs.

Vos points à retenir

Dans ce module, nous avons exploré trois piliers fondamentaux de l'IA responsable : la confidentialité, l'équité et la confiance. Cela peut sembler insurmontable, surtout lorsque vous débutez ou que vous essayez de passer du prototype à la production.

Concentrez vos efforts sur les domaines les plus critiques et définissez votre propre approche de la gouvernance de l'IA. L'itération est essentielle. Chaque version et chaque série de commentaires des utilisateurs vous permettront de mieux comprendre où votre système a besoin de plus de garde-fous, de transparence ou de flexibilité.

Ressources

Voici quelques ressources plus avancées sur les thèmes abordés dans ce module :

Ressources

Voici quelques ressources plus avancées sur les thèmes abordés dans ce module :

Vérifier que vous avez bien compris

Quelle est la bonne pratique recommandée en matière de confidentialité concernant la collecte de données pour l'IA ?

Collectez autant de données que possible, au cas où vous en auriez besoin plus tard.
Mauvaise réponse.
Ne collectez que les informations nécessaires à l'apprentissage et supprimez toutes les informations permettant d'identifier personnellement l'utilisateur.
Bravo, bonne réponse !
Conservez tous les journaux indéfiniment pour suivre les tendances à long terme.
Mauvaise réponse. Les journaux ne doivent jamais être stockés indéfiniment.

Qu'est-ce que la confiance calibrée ?

Lorsque les utilisateurs font toujours confiance à l'IA.
Réessayez.
Lorsque les utilisateurs refusent d'utiliser l'IA, car ils ne lui font pas confiance.
Réessayez.
Les utilisateurs s'appuient sur l'IA pour gagner en efficacité, mais vérifient toujours les résultats.
Bravo, bonne réponse !
Contrat juridique entre l'utilisateur et le développeur.
Réessayez.

Pour garantir l'équité dans la couche "Intelligence", quelle action les développeurs peuvent-ils entreprendre ?

Supposons que les données d'entraînement ne sont pas biaisées.
Réessayez.
Supprimez toutes les données démographiques de la base de données.
Réessayez.
Générez plusieurs résultats et classez-les en fonction de leur neutralité et de leur diversité.
Bravo, bonne réponse !
Fiez-vous uniquement au comportement par défaut du modèle.
Réessayez.

Quelle technique UX permet de renforcer la confiance et la transparence ?

Commencez par de petits indices et proposez des liens vers des informations supplémentaires, comme une info-bulle.
Bravo, bonne réponse !
Masquer toute la complexité et la logique à l'utilisateur
Pas tout à fait. Bien que vous deviez éviter de submerger l'utilisateur, certains voudront en savoir plus.
Rendez la fonctionnalité d'IA obligatoire pour tous les utilisateurs.
Mauvaise réponse.
Modifier le comportement du modèle, mais ne pas en informer l'utilisateur. Les notifications prêtent à confusion.
Mauvaise réponse. Vous devrez peut-être informer l'utilisateur si la modification affecte son expérience.