IA responsable
Si l’IA est utilisée dans nos produits, elle est destinée à soutenir la réflexion de l’utilisateur. Elle n’est pas destinée à diagnostiquer, à déclarer quelqu’un coupable ou dangereux, ni à remplacer un jugement professionnel dans des situations à fort enjeu.
À quoi l’IA est destinée
L’IA peut aider l’utilisateur à structurer ses pensées, à réfléchir à des schémas et à trouver des mots pour les émotions, limites et décisions.
L’IA est destinée à être guidée par l’utilisateur : l’utilisateur reste le décideur, et le produit ne doit pas présenter la sortie de l’IA comme une vérité autoritaire sur une autre personne.
Ce que l’IA n’est pas destinée à faire
L’IA n’est pas destinée à poser des diagnostics, à prédire la violence, à décider qui est coupable, dangereux ou abusif, ni à prendre des décisions juridiques, cliniques ou d’emploi.
L’IA n’est pas destinée à transformer une autre personne en ennemi, en preuve ou en cible de représailles. Si un design s’en approche, la fonctionnalité doit être restreinte, modifiée ou retirée.
Limites de sécurité et orientation vers l’aide
En cas de danger immédiat, le produit doit orienter l’utilisateur vers une aide appropriée plutôt que vers l’application.
Si une fonctionnalité s’approche de la thérapie, des soins de santé, du conseil juridique, de l’urgence ou de décisions à haut risque, elle est évaluée séparément au regard des exigences de compétence et de responsabilité.
Les sorties IA doivent rendre l’incertitude visible au lieu de présenter une seule interprétation comme vérité complète.
Principes complets
Voir Valeurs et principes de produit responsable (version 1.0) pour la politique complète, incluant sécurité utilisateur, limites de l’IA et gouvernance.