Ir para o conteúdo principal

IA responsável

Se a IA for utilizada nos nossos produtos, destina-se a apoiar o pensamento e a autorreflexão do utilizador. Não se destina a diagnosticar pessoas, a declarar alguém culpado ou perigoso, nem a substituir julgamento profissional em situações de alto risco.

Para que a IA se destina

A IA pode ajudar o utilizador a estruturar pensamentos, refletir sobre padrões e encontrar linguagem para emoções, limites e decisões.

A IA destina-se a ser guiada pelo utilizador: o utilizador continua a ser o decisor, e o produto não deve apresentar saídas de IA como verdade autoritária sobre outra pessoa.

O que a IA não se destina a fazer

A IA não se destina a diagnóstico de saúde mental, previsão de violência, decisão sobre quem é culpado, perigoso ou abusivo, nem a decisões legais, clínicas ou de emprego.

A IA não se destina a transformar outra pessoa em inimigo, prova ou alvo de retaliação. Se o desenho se aproximar disso, a funcionalidade deve ser restringida, modificada ou removida.

Limites de segurança e encaminhamento

Em perigo imediato, o produto deve encaminhar o utilizador para ajuda apropriada fora da aplicação.

Quando uma funcionalidade se aproxima de terapia, cuidados de saúde, assessoria jurídica, crise ou decisões de alto risco, é avaliada separadamente face a requisitos de competência e responsabilidade.

As saídas de IA devem tornar a incerteza visível, em vez de apresentar uma única interpretação como verdade completa.

Princípios completos

Veja Valores e princípios de produto responsável (versão 1.0) para a política completa, incluindo segurança do utilizador, limites de IA e governação.