IA responsable
Si se utiliza IA en nuestros productos, su finalidad es apoyar el pensamiento y la autorreflexión de la persona usuaria. No está pensada para diagnosticar personas, declarar a alguien culpable o peligroso, ni sustituir el juicio profesional en situaciones de alto riesgo.
Para qué está pensada la IA
La IA puede ayudar a estructurar pensamientos, reflexionar sobre patrones y encontrar lenguaje para emociones, límites y decisiones.
La IA está pensada para ser guiada por la persona usuaria: la decisión final siempre es suya y el producto no debe presentar la salida de IA como verdad autoritativa sobre otra persona.
Qué no debe hacer la IA
La IA no está pensada para diagnosticar condiciones de salud mental, predecir violencia, decidir quién es culpable, peligroso o abusivo, ni tomar decisiones legales, clínicas o laborales.
La IA no debe convertir a otra persona en una imagen enemiga, en evidencia o en objetivo de represalia. Si un diseño se acerca a ese uso, la funcionalidad debe restringirse, modificarse o retirarse.
Límites de seguridad y derivación
En caso de peligro inmediato, el producto debe orientar a la persona fuera de la aplicación hacia ayuda adecuada.
Si una funcionalidad se acerca a terapia, atención sanitaria, asesoramiento legal, apoyo en crisis o decisiones de alto riesgo, se evalúa por separado según requisitos de competencia y responsabilidad.
Las salidas de IA deben mostrar incertidumbre y límites, en lugar de presentar una única interpretación como verdad completa.
Principios completos
Consulta Valores y principios de producto responsable (Versión 1.0) para la política completa, incluyendo seguridad de las personas usuarias, límites de IA y gobernanza.