Compromisso do Notion com a segurança da IA

Leia sobre a abordagem do Notion à segurança da IA 🛡️
O Notion desenvolve a IA do Notion de maneira responsável e segura, com o objetivo de criar ferramentas incríveis para o trabalho da sua vida. O Notion avalia continuamente suas práticas de segurança de IA à medida que o setor evolui, para garantir que estamos fazendo o melhor que podemos para proteger os espaços de trabalho do Notion de nossos clientes e os dados relacionados aos clientes.
A IA do Notion vive no seu espaço de trabalho e ajuda você a pesquisar, conversar e escrever, permitindo que você faça o seu melhor trabalho com mais rapidez. Consulte este artigo para obter mais informações.
Transparência
O Notion tem um compromisso com a transparência, mantendo os usuários informados sobre como a IA do Notion é desenvolvida, implantada e usada. Atualizamos regularmente os clientes sobre quais modelos de IA estão em uso (como os da OpenAI e da Anthropic) e nos esforçamos para fornecer divulgações acessíveis sobre o Notion e nossos subprocessadores que ajudam a fornecer recursos de IA do Notion.
Desenvolvimento e uso de modelos
O Notion aproveita os modelos desenvolvidos por seus subprocessadores, organizações como OpenAI e Anthropic, para fornecer a IA do Notion aos nossos clientes.
Nossos modelos e ferramentas de IA não são projetados para tomar decisões automatizadas sobre indivíduos; eles são projetados para ajudar nossos clientes a fazer seu trabalho com mais rapidez.
Privacidade e segurança do usuário final
Por padrão, não usamos os dados do seu espaço de trabalho ou informações pessoais para treinar nossos modelos.
Para clientes interessados, o Notion oferece o Programa AI LEAP, que permite o compartilhamento de dados do espaço de trabalho para melhorar os modelos subjacentes em troca de acesso prioritário a futuras melhorias e recursos de IA.
Qualquer informação usada para alimentar a IA do Notion será Compartilhada com subprocessadores de IA com o único propósito de fornecer a você a IA do Notion como recurso. Exigimos que todos os subprocessadores concordem com obrigações contratuais que proíbem qualquer uso de dados de clientes para treinar seus modelos. Saiba mais sobre as práticas de segurança e privacidade da IA do Notion aqui →
Implementamos controles de segurança para o usuário final para garantir que as interações com os modelos e as saídas dos modelos sejam seguras, como o endpoint de moderação da OpenAI.
Fizemos uma parceria com organizações como a ROOST (Robust Open Online Safety Tools) para aproveitar e apoiar as ferramentas de confiança de IA de código aberto para tornar nossa plataforma mais segura para nossos clientes.
Testes e controles internos
Testamos rigorosamente nossos modelos internamente antes da implantação para nossos clientes para promover precisão e confiabilidade para nossos usuários.
O Notion mantém um programa abrangente de segurança e privacidade, incluindo inúmeras certificações para proteger o processamento dos seus dados (por exemplo, SOC 2 Tipo 2, ISO).
Realizamos análises completas de fornecedores como a OpenAI, que processam dados de clientes, para garantir que atendam aos nossos padrões e às expectativas de nossos clientes sobre como tratamos seus dados.
Melhoria contínua
O Notion está constantemente atualizando e implantando novos modelos para atender melhor aos nossos clientes, revisando a eficácia do modelo e do produto e fazendo iterações para melhorar.
O Notion avalia e seleciona regularmente modelos de terceiros com base em quão bem eles atendem às necessidades do usuário e revisa continuamente o desempenho do modelo existente e do novo, para que os usuários nunca fiquem presos a tecnologias de baixo desempenho.