IA responsável
Se a IA for utilizada nos nossos produtos, destina-se a apoiar o pensamento e a autorreflexão do utilizador. Não se destina a diagnosticar pessoas, a declarar alguém culpado ou perigoso, nem a substituir julgamento profissional em situações de alto risco.
Para que a IA se destina
A IA pode ajudar o utilizador a estruturar pensamentos, refletir sobre padrões e encontrar linguagem para emoções, limites e decisões.
A IA destina-se a ser guiada pelo utilizador: o utilizador continua a ser o decisor, e o produto não deve apresentar saídas de IA como verdade autoritária sobre outra pessoa.
O que a IA não se destina a fazer
A IA não se destina a diagnóstico de saúde mental, previsão de violência, decisão sobre quem é culpado, perigoso ou abusivo, nem a decisões legais, clínicas ou de emprego.
A IA não se destina a transformar outra pessoa em inimigo, prova ou alvo de retaliação. Se o desenho se aproximar disso, a funcionalidade deve ser restringida, modificada ou removida.
Limites de segurança e encaminhamento
Em perigo imediato, o produto deve encaminhar o utilizador para ajuda apropriada fora da aplicação.
Quando uma funcionalidade se aproxima de terapia, cuidados de saúde, assessoria jurídica, crise ou decisões de alto risco, é avaliada separadamente face a requisitos de competência e responsabilidade.
As saídas de IA devem tornar a incerteza visível, em vez de apresentar uma única interpretação como verdade completa.
Princípios completos
Veja Valores e princípios de produto responsável (versão 1.0) para a política completa, incluindo segurança do utilizador, limites de IA e governação.