Valeurs et principes de produit responsable
Valeurs, mission et principes de développement logiciel
Document d'orientation éthique de haut niveau
Principe central. Nous ne développons pas d'applications contre quiconque. Nous développons des outils qui soutiennent l'autoréflexion et le pouvoir d'agir de la personne, dans le but d'accroître la sécurité, le bien-être et l'engagement responsable de toutes les parties.
1. Objet du document
Le présent document définit la mission, le socle de valeurs et les principes éthiques de haut niveau du développement logiciel de Safety in Relationships Oy Ltd. Il guide les types de produits et de fonctionnalités que nous construisons, les limites que nous respectons et les motifs pour lesquels nous décidons de ne pas faire certaines choses.
Cette ligne directrice est destinée à appuyer la prise de décision concrète. Sa fonction n'est pas de trancher des questions juridiques, cliniques ou de sécurité particulières, mais de fournir une base permettant d'évaluer l'orientation de nos produits, leurs effets et les risques éventuels d'usage abusif.
2. Mission de notre activité
La mission de Safety in Relationships Oy Ltd est d'accroître la capacité des personnes à construire des relations plus sûres, moins violentes et plus heureuses. Nous soutenons les personnes dans la reconnaissance de leurs propres émotions, besoins, limites, schémas de comportement et choix, sans placer, à la place de l'utilisateur, d'autres personnes en position de coupables, d'ennemis ou de personnes diagnostiquées.
Notre objectif est de renforcer le pouvoir d'agir de la personne. Concrètement, cela signifie des outils qui aident l'utilisateur à faire une pause, à structurer sa propre situation, à prendre des décisions plus réfléchies et à demander une aide appropriée si nécessaire.
Postulat de base. La sécurité et le bien-être ne naissent pas de l'opposition. Ils naissent de la non-violence, de la connaissance de soi, de la responsabilité, de limites claires et d'une rencontre respectueuse.
3. Point de départ éthique
Notre activité repose sur l'idée que la sécurité dans les relations ne doit pas être construite sur l'opposition entre groupes, sur une figure de l'ennemi fondée sur le genre, sur la stigmatisation ou sur la vengeance. La violence, le contrôle, l'intimidation, l'humiliation et la transgression des limites sont des phénomènes graves. Ils ne doivent toutefois pas être traités d'une manière qui produirait davantage de polarisation, de généralisations erronées ou de nouveaux préjudices.
Pour cette raison, Safety in Relationships Oy Ltd se limite, pour le moment, à des outils d'autoréflexion et de soutien individuel. Nous ne positionnons pas nos produits comme une thérapie, comme un service public, comme un tribunal, comme un outil de procédure pénale ou comme un instrument permettant à l'utilisateur de constituer un dossier contre une autre personne.
Cette délimitation est à la fois éthique et pratique. Une promesse de service thérapeutique, clinique ou juridique pourrait soulever des questions de réglementation, de qualifications, de responsabilités et de sécurité de l'utilisateur qui ne devraient pas être contournées par le marketing ou par le développement produit. De la même manière, une gamme de produits fondée sur une figure de l'ennemi pourrait accroître chez l'utilisateur le sentiment de justification, la colère ou le conflit, au lieu de renforcer la sécurité et le bien-être.
3.1 Coopération avec des organisations et applications de documentation
La délimitation décrite ci-dessus s'applique principalement aux outils d'autoréflexion et de soutien publiés au nom de Safety in Relationships Oy Ltd et destinés aux personnes individuelles. Avec des organisations, peuvent être développées séparément des applications dont la finalité principale est la documentation, la structuration d'observations, l'harmonisation des processus, la planification des actions de suivi ou l'assurance qualité du travail.
De telles solutions sont développées et déployées au nom de l'organisation partenaire et dans le cadre de responsabilité défini par celle-ci. La finalité d'utilisation, le mode opératoire, l'information de l'utilisateur, les bases de protection des données, les droits d'accès, les consignes, la prise de décision ainsi que les évaluations relatives aux obligations légales ou professionnelles sont définis conjointement avec l'organisation. Le rôle de Safety in Relationships Oy Ltd est celui d'un expert en technologie, en utilisabilité, en gestion de l'information et en design éthique, et non celui d'un thérapeute, d'un juriste, d'une autorité publique, d'un chercheur ou d'un décideur agissant au nom de l'organisation.
Dans les outils de documentation développés pour des organisations, la même délimitation éthique fondamentale demeure : les solutions ne sont pas produites contre quiconque. La fonction de l'application n'est pas de tirer des conclusions automatisées sur la culpabilité, la vérité ou la dangerosité, mais de soutenir une documentation précise, traçable, respectueuse de la protection des données et propre à renforcer la sécurité. L'outil doit aider à distinguer les observations, les interprétations, les risques, les besoins, les actions menées et les éventuelles actions de suivi les uns des autres.
4. Valeurs
Dignité humaine et égalité
Toute personne a le droit d'être accueillie dans la dignité. Nous ne construisons pas de produits dont le point de départ serait la stigmatisation d'un genre, d'un groupe, d'un rôle ou d'une situation de vie.
Sécurité et non-violence
Nous défendons la non-violence sur les plans physique, psychologique, sexuel, économique et numérique. La sécurité signifie à la fois la protection contre les préjudices et la capacité d'agir sans peur, sans pression et sans contrôle.
Compassion et limites
La compassion ne signifie ni absence de limites ni levée de la responsabilité. Les limites ne signifient pas le manque d'humanité. Nous soutenons les deux : la capacité de voir la personne dans son ensemble et la capacité de protéger son propre bien-être.
Responsabilité et pouvoir d'agir
Nos produits doivent renforcer le pouvoir d'agir responsable de l'utilisateur. Nous ne promettons pas de résoudre une relation à la place de l'utilisateur et nous n'incitons pas l'utilisateur à déléguer son propre discernement à une application.
Objectivité et esprit critique vis-à-vis des sources
Nous visons une approche neutre, respectueuse des faits et reconnaissant les incertitudes. Nous évitons les conclusions catégoriques sur des situations dont nous ne connaissons pas l'ensemble.
Vie privée et confidentialité
Les informations relatives aux relations sont sensibles. C'est pourquoi la minimisation des données, le contrôle par l'utilisateur, la transparence et la prévention des usages abusifs constituent des exigences fondamentales du développement produit.
5. La démarche qui guide la conception de nos logiciels
Nos logiciels sont conçus en priorité pour soutenir la pensée propre de la personne, la régulation émotionnelle, la reconnaissance des limites et la prise de décision réfléchie. Le produit n'est pas l'autre partie d'une relation, ni un thérapeute, un juge, un avocat, un intervenant de crise ou une autorité publique. C'est un outil de mise en ordre.
Un bon produit aide l'utilisateur à ralentir sa réaction, à mettre des mots sur ses observations, à distinguer les faits des interprétations, à reconnaître ses propres besoins et à réfléchir à des prochaines étapes sûres. Le produit doit soutenir l'utilisateur d'une manière qui renforce la clarté, sans accélérer le conflit.
| Ce que nous construisons | Ce que nous ne construisons pas |
|---|---|
| Des outils d'autoréflexion, de journal personnel, de mise en mots des émotions et de reconnaissance des limites. | Des outils dont la finalité serait d'étiqueter, de faire honte, de contrôler, de noter ou de diagnostiquer une autre personne. |
| Des questions neutres qui aident l'utilisateur à réfléchir à sa propre situation et à ses options. | Des contenus qui affirmeraient à l'utilisateur, comme une vérité certaine, ce qu'une autre personne pense, projette ou est. |
| Des chemins d'orientation sûrs vers une aide appropriée, des services de crise ou des professionnels lorsque la situation l'exige. | Des promesses de service qui se substitueraient à des décisions thérapeutiques, cliniques, juridiques ou d'autorité publique sans évaluation distincte ni respect des exigences applicables. |
| Des fonctionnalités qui renforcent l'autonomie de l'utilisateur et dans lesquelles celui-ci conserve le pouvoir de décision. | Des fonctionnalités susceptibles de servir à la manipulation, à la surveillance, à la vengeance, à la diffamation ou à l'escalade du conflit. |
| Un langage qui reconnaît la gravité de la violence et de la transgression des limites sans construire de figure de l'ennemi. | Des présupposés fondés sur le genre, l'origine ou le rôle quant à la personne qui serait victime, auteur, coupable ou dangereuse. |
6. Limites du développement produit
Les limites ci-dessous orientent le développement produit. Elles ont pour finalité de réduire le risque qu'une application renforce involontairement des interprétations préjudiciables, donne à l'utilisateur une certitude infondée ou se trouve utilisée contre une autre personne.
Pas d'applications dirigées contre quiconque. Les produits ne sont pas conçus comme des instruments d'attaque, de vengeance, de mise en cause publique, de contrôle, de diffamation ou de constitution de preuves.
Pas d'interprétations certaines sur une autre personne. L'application ne doit pas inférer ni affirmer qu'une autre personne serait, par exemple, violente, narcissique, manipulatrice, dangereuse ou mauvaise sur la base du seul récit d'un utilisateur.
Pas de positionnement comme service de thérapie. Le produit ne diagnostique pas, ne traite pas, ne réalise pas d'évaluations cliniques et ne remplace pas les services de santé mentale, de soins ou de crise. Si de telles fonctionnalités venaient à être développées à l'avenir, elles seraient évaluées séparément sous l'angle des qualifications, des responsabilités, de la réglementation et de la sécurité.
Pas de conseil juridique ni de rôle d'autorité publique. Le produit ne formule pas de conclusions juridiques, n'apprécie pas les éléments constitutifs d'une infraction et ne remplace pas les services d'une autorité publique, d'un avocat ou d'une aide juridictionnelle.
Pas de figure de l'ennemi fondée sur le genre. Les expériences de violence et d'insécurité sont reconnues comme graves, mais elles ne sont pas présentées comme une caractéristique d'un genre ou d'un groupe de personnes.
Pas de construction d'une dépendance de l'utilisateur. Le produit ne doit pas rendre l'utilisateur dépendant de l'évaluation de l'application. Il doit soutenir le discernement propre de l'utilisateur, son lien avec des personnes de confiance et, si nécessaire, le recours à une aide professionnelle.
7. Principes de sécurité de l'utilisateur
Anticipation des préjudices. Pour chaque fonctionnalité significative, on évalue comment elle pourrait être détournée, comment elle pourrait alimenter un conflit et comment réduire le préjudice.
Rendre l'incertitude visible. L'application ne présente pas comme des vérités certaines des interprétations fondées sur un récit subjectif. Il est expliqué à l'utilisateur ce que le produit peut inférer et ce qu'il ne peut pas inférer.
Autonomie de l'utilisateur. L'utilisateur prend lui-même ses décisions. Le produit peut l'aider à réfléchir à ses options, aux risques et aux limites, sans donner d'ordres ni faire pression.
Orientations sûres. Lorsque la situation décrite par l'utilisateur indique un danger immédiat, une violence grave, des idées suicidaires ou un autre risque aigu, le produit doit l'orienter vers une aide immédiate auprès d'instances appropriées.
Minimisation des données. Nous ne collectons que les informations justifiées par la finalité du produit. Dans le traitement des données sensibles, l'accent est mis sur la transparence, le contrôle par l'utilisateur, la sécurité de l'information et la limitation de la durée de conservation.
Langage humain. Le contenu doit être apaisant, respectueux et clarifiant. Il ne doit alimenter ni la peur, ni la colère, ni la honte, ni une certitude arrogante.
8. Principes d'utilisation des contenus et de l'intelligence artificielle
Si de l'intelligence artificielle est utilisée dans les produits, elle l'est en appui à la pensée propre de la personne, et non comme une autorité chargée d'évaluer des personnes. Les réponses de l'IA doivent reconnaître leurs limites : le modèle ne connaît pas l'ensemble de la situation, ne voit pas toutes les parties prenantes et ne peut pas trancher la vérité à la place de l'utilisateur.
- L'IA ne doit pas poser de diagnostic sur l'utilisateur ni sur d'autres personnes.
- L'IA ne doit pas désigner une autre partie comme coupable, dangereuse ou mauvaise sur la seule base du récit de l'utilisateur.
- L'IA peut aider à distinguer les observations, les émotions, les besoins, les limites, les souhaits et les modes d'action alternatifs.
- L'IA doit encourager l'utilisateur à une action sûre, non violente et respectueuse.
- En cas de risque aigu, l'IA doit orienter l'utilisateur vers une aide appropriée plutôt que de tenter de résoudre la crise dans la conversation.
- L'IA ne doit pas optimiser l'engagement au détriment du bien-être de l'utilisateur.
9. Définition de la réussite
Un produit réussi de Safety in Relationships Oy Ltd accroît la clarté de l'utilisateur, son sentiment de sécurité, sa connaissance de soi et sa capacité d'agir conformément à ses propres valeurs et limites. Il n'accroît ni la colère, ni la peur, ni la dépendance, ni la certitude unilatérale, ni le désir de nuire à l'autre partie.
Les indicateurs de développement produit doivent refléter cet objectif. Le temps d'utilisation, le retour fréquent, une réponse émotionnelle intense ou un engagement élevé ne sont pas, à eux seuls, des signes de réussite. Parmi les indicateurs importants figurent par exemple la clarté perçue, des choix d'action plus sûrs, une meilleure reconnaissance des limites, une réduction de l'escalade du conflit et un sentiment renforcé de pouvoir d'agir chez l'utilisateur.
10. Principes de prise de décision et de gouvernance
Évaluation éthique avant la mise en service. Les nouvelles fonctionnalités sont évaluées au regard des valeurs de ce document, des risques d'usage abusif et de la sécurité de l'utilisateur.
Justification produit documentée. Pour les décisions produit significatives, nous consignons quel problème est résolu, pour qui, sur la base de quels postulats et quels préjudices nous cherchons à prévenir.
Mécanisme de retour et de correction. Les retours des utilisateurs, les observations de préjudice et les incidents sont traités de manière systématique. Si nécessaire, les fonctionnalités sont restreintes, modifiées ou supprimées.
Évaluation par un expert lorsqu'un seuil est franchi. Si une fonctionnalité s'approche de la thérapie, des soins de santé, du conseil juridique, d'une procédure d'autorité publique ou d'une décision à haut risque, elle est évaluée séparément sous l'angle de la compétence appropriée et des exigences applicables.
Transparence vis-à-vis de l'utilisateur. Il est clairement indiqué à l'utilisateur ce qu'est le produit, ce qu'il n'est pas, à quoi il peut servir et quand l'utilisateur doit chercher une autre forme d'aide.
11. Guide d'application pour le développement produit
Pour chaque nouvelle fonctionnalité, la liste de contrôle suivante peut être utilisée. Une fonctionnalité ne doit pas être mise en service si les questions essentielles ne peuvent pas recevoir de réponse crédible.
- La fonctionnalité accroît-elle la sécurité, la connaissance de soi et le pouvoir d'agir responsable de l'utilisateur ?
- La fonctionnalité pourrait-elle être utilisée pour contrôler, faire honte, surveiller ou nuire à une autre personne ?
- La fonctionnalité construit-elle une figure de l'ennemi, une généralisation fondée sur le genre ou une certitude infondée ?
- Est-il clair pour l'utilisateur que l'application n'est ni un thérapeute, ni un avocat, ni une autorité publique, ni un service de crise ?
- Le langage de la fonctionnalité est-il apaisant, précis et non violent ?
- La fonctionnalité ne collecte-t-elle que les données nécessaires, et l'utilisateur dispose-t-il d'un contrôle compréhensible sur ses propres informations ?
- En cas de danger aigu, la fonctionnalité oriente-t-elle l'utilisateur hors de l'application, vers une aide appropriée ?
12. Synthèse
La mission de Safety in Relationships Oy Ltd est de construire des technologies qui soutiennent des relations plus sûres, sans logique d'opposition et sans promesses infondées. Nous développons en priorité des outils d'autoréflexion et de soutien individuel. Nous ne développons pas d'applications contre quiconque.
Notre objectif est d'accroître le bien-être et la sécurité de toutes les personnes et de toutes les parties concernées. Nous poursuivons cet objectif par la compassion, par les limites, par la responsabilité et par une rencontre respectueuse. Ce principe oriente à la fois le contenu de nos produits et ce que nous décidons de ne pas faire.
Principe final. Nous construisons des outils qui aident la personne à se rencontrer elle-même et à rencontrer les autres de façon plus responsable. Nous ne construisons pas d'outils qui transforment l'autre en objet.
Safety in Relationships Oy Ltd | Valeurs et principes de développement produit | Version 1.0 · Dernière mise à jour : 4 mai 2026