O uso legal, ético e responsável da inteligência artificial (IA) é uma prioridade fundamental para a Anthology; portanto, desenvolvemos e implementamos um programa de IA confiável. Você pode encontrar informações sobre nosso programa e nossa abordagem geral para IA confiável na Central de confiabilidade.

Como parte de nossos princípios de IA confiável, nós nos comprometemos com transparência, explicabilidade e responsabilidade. Esta página tem como objetivo possibilitar a transparência e a explicabilidade necessárias para ajudar nossos clientes com a implementação do AI Design Assistant. Recomendamos que os administradores examinem cuidadosamente esta página e garantam que os instrutores estejam cientes das considerações e recomendações abaixo antes da ativação das funcionalidades do AI Design Assistant para sua instituição.

Como entrar em contato conosco:

  • Para perguntas ou comentários sobre nossa abordagem geral de IA confiável ou como podemos tornar esta página mais útil para os clientes, envie um e-mail para [email protected].
  • Para perguntas ou comentários sobre a funcionalidade ou resultados do AI Design Assistant, envie um ticket de suporte ao cliente.

Funcionalidades facilitadas por IA

O AI Design Assistant auxilia os instrutores na criação e no desenvolvimento de novos cursos. A intenção é inspirar os instrutores e tornar a criação de cursos mais eficienteA Anthology fez parceria com a Microsoft para oferecer essa funcionalidade, pois a Microsoft tem um compromisso de longa data com o uso ético da IA.

O AI Design Assistant oferece as seguintes funcionalidades facilitadas por IA generativa no Learn Ultra:

  • Gerar palavras-chave para o serviço de imagem isenta de direitos autorais no Learn desenvolvido pelo Unsplash: sugere palavras-chave para a busca do Unsplash por eficiência.
  • Gerar módulos de aprendizagem: ajuda os instrutores ao sugerir uma estrutura de curso.
  • Gerar imagens do módulo de aprendizagem: cria e sugere imagens para cada módulo de aprendizagem.
  • Gerar exercícios autênticos – Dá sugestões para exercícios usando o contexto do curso
  • Gerar perguntas de testes e bancos de perguntas: inspira os instrutores ao sugerir uma série de perguntas em um teste ou criar um banco de perguntas a partir de um documento do Learn.
  • Gerar discussões e diários – Dá aos instrutores avisos para incentivar a interação da aula 
  • Seletor de contexto – Usa o contexto do curso que você escolhe gerar conteúdo para muitos dos nossos recursos de IA
  • Gerar um critério de avaliação: sugere um critério de avaliação com estrutura e critérios em relação a uma determinada avaliação, gerando eficiência para o instrutor e transparência de avaliação para os alunos.
  • Gerar imagens de documentos do Learn: gera imagens para usar em um documento do Learn, tornando os documentos do Learn mais atraentes visualmente para os alunos.

Visite nossa página do AI Design Assistant para instrutores e saiba mais sobre todos os recursos.

Essas funcionalidades estão sujeitas às limitações e à disponibilidade do serviço OpenAI do Azure, bem como estão sujeitas a alterações. Verifique as notas de lançamento relevantes para saber mais.

Principais fatos

Perguntas e respostas sobre o AI Design Assistant
PerguntaResposta
Quais funcionalidades usam sistemas de IA?Todas as funcionalidades do AI Design Assistant descritas acima (geração de palavras-chave para Unsplash, geração de módulos de aprendizagem, perguntas de teste e bancos de perguntas, critérios de avaliação, imagens para documentos do Learn).
Este sistema de IA é compatível com terceiros?Sim — o AI Design Assistant foi desenvolvido pelo serviço OpenAI do Azure da Microsoft.
Como o sistema de IA funciona?

O AI Design Assistant aproveita o serviço OpenAI do Azure da Microsoft para gerar resultados automaticamente. Isso é feito usando informações limitadas do curso (por exemplo, título do curso, descrição do curso) como base para solicitações no serviço OpenAI do Azure, por meio da API de serviço OpenAI do Azure. Os instrutores podem incluir mais contexto nas solicitações para a geração de resultados mais personalizados. O serviço OpenAI do Azure gera a saída com base na solicitação, e o conteúdo é exibido na interface do usuário do Learn.

Para obter uma explicação detalhada sobre como o serviço OpenAI do Azure e os grandes modelos de linguagem OpenAI GPT subjacente funcionam, consulte a seção Introdução da Nota de transparência da Microsoft e os links contidos nela.

Onde o sistema de IA é hospedado?A Anthology atualmente usa várias instâncias globais do serviço OpenAI do Azure. A instância principal está hospedada nos Estados Unidos. Mas, às vezes, podemos utilizar recursos em outros locais, como Canadá, Reino Unido ou França, para oferecer aos clientes a melhor opção de disponibilidade do serviço OpenAI do Azure.

Todos os dados de curso do cliente usados para entrada e toda a saída gerada pelo AI Design Assistant são armazenados no banco de dados do Learn existente do cliente pela Anthology.
Esta funcionalidade é opcional?Sim. Os administradores precisam ativar o AI Design Assistant no console do administrador do Learn. As configurações do AI Design Assistant estão na categoria Building Blocks. Selecione AI Design Assistant e Unsplash. Os administradores podem ativar ou desativar cada funcionalidade separadamente. Os administradores também precisam atribuir privilégios do AI Design Assistant às funções do curso, como a função Instrutor, conforme necessário. Os privilégios que precisam ser atribuídos são "Pesquisar imagens usando o Unsplash" e "Usar AI Design Assistant".
Como o sistema de IA é treinado?

A Anthology não está envolvida no treinamento dos grandes modelos de linguagem que alimentam as funcionalidades do AI Design Assistant. Esses modelos são treinados pela Microsoft como parte do serviço OpenAI do Azure, que alimenta as funcionalidades do AI Design Assistant. A Microsoft fornece informações sobre como os grandes modelos de linguagem são treinados na seção Introdução da Nota de transparência da Microsoft e nos links contidos nela.

A Anthology não faz ajustes no serviço OpenAI do Azure usando nossos próprios dados ou os de nossos clientes.

Os dados do cliente são usados para treinar o sistema de IA?Não. A Microsoft se compromete contratualmente nos termos do OpenAI do Azure com a Anthology a não usar nenhuma entrada ou saída do OpenAI do Azure para treinamento do grande modelo de linguagem. O mesmo compromisso é assumido na documentação da Microsoft sobre Dados, privacidade e segurança do serviço OpenAI do Azure
Como a Anthology usa informações pessoais em relação ao sistema de IA?A Anthology só usa as informações coletadas em conexão com o AI Design Assistant para disponibilizar, manter e dar suporte ao AI Design Assistant em que temos a permissão contratual para fazer isso conforme a lei aplicável. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade de dados na Central de confiabilidade.
No caso de um sistema de IA compatível com terceiros, como o terceiro usará as informações pessoais?

Apenas informações limitadas do curso são disponibilizadas à Microsoft para o serviço OpenAI do Azure. Isso geralmente não deve incluir informações pessoais (exceto nos casos em que informações pessoais são incluídas em títulos do curso, descrições e informações semelhantes do curso). Além disso, qualquer informação que os instrutores decidirem incluir no lembrete estará acessível. 

A Microsoft não usa nenhum dado da Anthology, nem dados dos clientes da Anthology aos quais tem acesso (como parte do serviço OpenAI do Azure), para melhorar os modelos do OpenAI, para melhorar serviços de produtos próprios ou de terceiros ou para melhorar automaticamente os modelos do OpenAI do Azure para o uso da Anthology no recurso da Anthology (os modelos são sem estado). A Microsoft analisa as solicitações e as saídas para filtragem de conteúdo para evitar abusos e geração de conteúdo prejudicial. As solicitações e as saídas são armazenadas por até 30 dias.

 

Você pode encontrar mais informações sobre as práticas de privacidade de dados relacionadas ao serviço OpenAI do Azure na documentação da Microsoft sobre Dados, privacidade e segurança para o serviço OpenAI do Azure.

A acessibilidade foi considerada no desenvolvimento do sistema de IA?Sim, nossos engenheiros de acessibilidade colaboraram com as equipes de produtos para avaliar os desenvolvimentos, comunicar considerações importantes sobre acessibilidade e testar os novos recursos especificamente em termos de acessibilidade. Continuaremos a considerar a acessibilidade como parte integrante da nossa abordagem de IA confiável.

·

Considerações e recomendações para as instituições

Casos de uso pretendidos

O AI Design Assistant destina-se apenas a oferecer suporte às funcionalidades listadas acima (geração de palavras-chave para Unsplash, geração de módulos de aprendizagem, perguntas de testes e bancos de perguntas, critérios de avaliação, imagens para documentos do Learn). Essas funcionalidades são disponibilizadas e destinadas aos instrutores de nossos clientes para auxiliá-los com a criação e o desenvolvimento de cursos dentro do Learn.

Casos de uso fora do escopo

Como o AI Design Assistant do Learn foi desenvolvido pelo serviço OpenAI do Azure da Microsoft com uma ampla gama de casos de usos, pode ser possível usar a funcionalidade de solicitação no AI Design Assistant para resultados além das funcionalidades desejadas. Desencorajamos fortemente o uso do AI Design Assistant para qualquer finalidade além do escopo das funcionalidades planejadas. Esse uso poderá resultar na geração de resultados que não são adequados ou compatíveis com o ambiente do Learn e com as medidas que implementamos para minimizar resultados imprecisos.

Em especial, os pontos abaixo devem ser seguidos ao solicitar:

  • Use apenas solicitações de saídas mais relevantes do AI Design Assistant (por exemplo, fornecer mais detalhes sobre a estrutura pretendida do curso)
  • Não use solicitações de saídas além da funcionalidade pretendida. Por exemplo, você não deve usar solicitações de fontes ou referências para a saída. Em nossos testes, determinamos que há problemas de precisão com esse tipo de saída.
  • Tenha em mente que solicitações de saída no estilo de uma pessoa específica ou solicitações de uma saída semelhante a itens protegidos por direitos autorais ou marcas registradas podem resultar em uma saída que acarreta o risco de violação de direito de propriedade intelectual.
  • A saída sugerida para tópicos sensíveis pode ser limitada. O serviço OpenAI do Azure foi treinado e implementado de maneira a minimizar o conteúdo ilegal e prejudicial. Isso inclui uma funcionalidade de filtro de conteúdo. Isso poderá resultar em resultados limitados ou mensagens de erro quando o AI Design Assistant for usado para cursos relacionados a tópicos sensíveis (por exemplo, automutilação, violência, ódio, sexo).
  • Não use solicitações que violem os termos do contrato da sua instituição com a Anthology ou que violem o Código de Conduta da Microsoft para o serviço OpenAI do Azure e a Política de uso aceitável nos Termos de serviços on-line da Microsoft.

Princípios de IA confiável na prática

A Anthology e a Microsoft acreditam que o uso legal, ético e responsável da IA é uma prioridade fundamental. Esta seção explica como a Anthology e a Microsoft trabalharam para lidar com o risco aplicável ao uso legal, ético e responsável da IA e implementar os princípios de IA confiável da Anthology. Também sugere medidas que nossos clientes podem considerar ao realizar suas próprias análises legais e de IA dos riscos éticos de IA em sua implementação.

Transparência e explicabilidade

  • Deixamos claro no console do administrador do Learn que esta é uma funcionalidade facilitada por IA
  • Na interface de usuário dos instrutores, as funcionalidades do AI Design Assistant estão claramente marcadas como funcionalidades "Gerar". Os instrutores também devem avaliar a saída de texto antes de usá-lo. Os metadados da saída criada pelas funcionalidades do AI Design Assistant têm um campo que mostra o conteúdo gerado automaticamente e se o conteúdo foi editado posteriormente pelo instrutor.
  • Além das informações apresentadas neste documento sobre como funcionam os modelos do AI Design Assistant e do serviço OpenAI do Azure, a Microsoft disponibiliza informações adicionais sobre o serviço OpenAI do Azure em sua Nota de transparência.
  • Incentivamos os clientes a serem transparentes sobre o uso de IA no AI Design Assistant e oferecemos aos instrutores e outras partes interessadas, conforme apropriado, as informações relevantes deste documento e a documentação vinculada aqui.

Confiabilidade e precisão

  • Deixamos claro no console do administrador do Learn que esta é uma funcionalidade facilitada por IA que pode produzir saídas imprecisas ou indesejadas e que esta saída deve sempre ser analisada.
  • Na interface do usuário, é solicitado que os instrutores analisem a saída do texto quanto à precisão.
  • Conforme detalhado na seção Limitações da Nota de transparência do serviço OpenAI do Azure, há o risco de resultados imprecisos (inclusive “alucinações”). Embora a natureza específica do AI Design Assistant e nossa implementação tenham como objetivo minimizar a imprecisão, é responsabilidade de nosso cliente analisar os resultados quanto a precisão, parcialidade e outros problemas potenciais.
  • Conforme mencionado acima, os clientes não devem usar solicitações de saídas além dos casos de uso pretendidos, principalmente porque isso poderá resultar em resultados imprecisos (por exemplo, quando referências ou fontes são solicitadas).
  • Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
  • Os instrutores podem usar solicitações e configurações adicionais nos fluxos de trabalho generativos para dar mais contexto ao AI Design Assistant e melhorar o alinhamento e a precisão.
  • Os instrutores podem usar fluxos de trabalho existentes no Learn para editar manualmente as saídas do AI Design Assistant antes de publicá-las aos alunos.
  • Os clientes podem reportar qualquer saída imprecisa para nós usando os canais listados na introdução.

Justiça

  • Os grandes modelos de linguagem apresentam inerentemente riscos relacionados com estereótipos, sobrerrepresentação/sub-representação e outras formas de viés prejudicial. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
  • Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Design Assistant para evitar casos de uso que possam ser mais propensos a viés prejudicial ou em que o impacto de tais ocorrências de viés poderia ser mais significativo.
  • No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser afetada por viés prejudicial. Conforme mencionado acima em "Precisão", solicitamos aos instrutores que avaliem a saída, o que poderá ajudar a reduzir qualquer viés prejudicial.
  • Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
  • Os clientes podem relatar qualquer viés potencialmente prejudicial para nós usando os canais de contato listados na introdução.

Privacidade e segurança

  • Conforme descrito na seção "Principais fatos" acima, apenas informações pessoais limitadas são usadas para o AI Design Assistant e acessíveis à Microsoft. A seção também descreve o nosso comprometimento e o da Microsoft em relação ao uso de quaisquer informações pessoais. Dada a natureza do AI Design Assistant, espera-se que as informações pessoais na saída gerada também sejam limitadas.
  • Nosso produto de Software como serviço Learn é certificado pela ISO 27001/27017/27018, e atualmente estamos trabalhando para obter a certificação ISO 27701. Essas certificações incluirão as informações pessoais relacionadas ao AI Design Assistant gerenciadas pela Anthology. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade e à segurança de dados na Central de confiabilidade.
  • A Microsoft descreve suas práticas e compromissos de privacidade e segurança de dados na documentação sobre Dados, privacidade e segurança para o serviço OpenAI do Azure.
  • Independentemente do compromisso da Anthology e da Microsoft em relação à privacidade de dados e ao não uso de informações para treinar os modelos, os clientes poderão aconselhar os instrutores a não incluir nenhuma informação pessoal ou outras informações confidenciais nas solicitações.

Segurança

  • Os grandes modelos de linguagem apresentam inerentemente um risco de saídas que podem ser inadequadas, ofensivas ou de outra forma não seguras. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
  • Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Design Assistant para evitar casos de uso que possam ser mais propensos a resultados inseguros ou onde o impacto de tais resultados poderia ser mais significativo.
  • No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser insegura. Conforme mencionado acima, em "Precisão", solicitamos aos instrutores que avaliem a saída, o que pode ajudar a reduzir o risco de saída insegura.
  • Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
  • Os clientes devem relatar qualquer saída potencialmente insegura para nós usando os canais listados na introdução.

Humanos no controle

  • Para minimizar o risco relacionado ao uso de IA generativa para os clientes e os usuários, colocamos os clientes intencionalmente no controle das funcionalidades do AI Design Assistant. O AI Design Assistant é, portanto, um recurso de opcional. Os administradores devem ativar o AI Design Assistant e podem ativar cada funcionalidade separadamente. Eles também podem desativar o AI Design Assistant no todo ou cada uma das funcionalidades individuais.
  • Além disso, os instrutores estão no controle da saída. Eles devem avaliar a saída de texto e podem editá-la.
  • O AI Design Assistant não inclui nenhuma tomada de decisão automatizada que possa ter um efeito legal ou significativo sobre os alunos ou outros indivíduos.
  • Incentivamos os clientes a analisarem cuidadosamente este documento, inclusive os links de informações disponíveis, para garantir que compreendam as capacidades e limitações do AI Design Assistant e do serviço OpenAI do Azure subjacente antes de ativarem o AI Design Assistant no ambiente de produção.

Alinhamento de valor

  • Os grandes modelos de linguagem apresentam inerentemente riscos em relação a saídas tendenciosas, inapropriadas ou de outra forma não alinhadas aos valores da Anthology ou aos valores dos clientes e alunos. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
  • Além disso, os grandes modelos de linguagem (como todas as tecnologias que servem a propósitos amplos), apresentam o risco de serem mal utilizados para casos de uso que não se alinhem aos valores de Anthology, dos clientes ou dos usuários finais e da sociedade em geral (por exemplo, para atividades criminosas, para criar saída prejudicial ou de outra forma inadequada).
  • Devido a esses riscos, desenvolvemos e implementamos cuidadosamente nossas funcionalidades do AI Design Assistant para minimizar o risco de resultados desalinhados. Por exemplo, nos concentramos em funcionalidades para instrutores e não para alunos. Também omitimos intencionalmente funcionalidades potencialmente de alto risco.
  • A Microsoft também avalia as solicitações e saídas como parte de sua funcionalidade de filtragem de conteúdo, para evitar abusos e geração de conteúdo prejudicial.

Propriedade intelectual

  • Os grandes modelos de linguagem apresentam inerentemente riscos relacionados a possíveis violações dos direitos de propriedade intelectual. A maioria das leis mundiais de propriedade intelectual não antecipou nem se adaptou totalmente ao surgimento dos grandes modelos de linguagem e à complexidade das questões que surgem da utilização deles. Como resultado, atualmente não há orientação nem parâmetros jurídicos claros que abordem as questões de propriedade intelectual e os riscos que surgem do uso desses modelos.
  • Em última análise, é responsabilidade do cliente avaliar os resultados gerados pelo AI Design Assistant em busca de qualquer possível violação de direito de propriedade intelectual. Tenha em mente que solicitações de saída no estilo de uma pessoa específica ou solicitações de uma saída semelhante a itens protegidos por direitos autorais ou marcas registradas podem resultar em uma saída que acarreta um risco aumentado de infrações.

Acessibilidade

Projetamos e desenvolvemos o AI Design System tendo em mente a acessibilidade, assim como fazemos no Learn e em nossos outros produtos. Antes do lançamento do AI Design System, melhoramos deliberadamente a acessibilidade da estrutura semântica, navegação, controle de teclado, rótulos, componentes personalizados e fluxos de trabalho de imagem, para citar algumas áreas. Continuaremos a priorizar a acessibilidade à medida que aproveitarmos a IA no futuro.

Responsabilidade

  • A Anthology tem um programa de IA confiável, projetado para garantir o uso legal, ético e responsável da IA. A responsabilidade interna clara e a análise ética sistemática da IA ou de suas funcionalidades, como as oferecidas pelo AI Design Assistant, são pilares fundamentais do programa.
  • Para fornecer o AI Design Assistant, fizemos uma parceria com a Microsoft para aproveitar o serviço OpenAI do Azure, que alimenta o AI Design Assistant. A Microsoft tinha um compromisso de longa data com o uso ético da IA.
  • Os clientes devem considerar a implementação de políticas e procedimentos internos, além da análise de aplicações de IA de terceiros para garantir seu próprio uso legal, ético e responsável da IA. Estas informações são disponibilizadas para dar suporte à avaliação dos nossos clientes sobre o AI Design Assistant.

Outras informações