O uso legal, ético e responsável da inteligência artificial (IA) é uma prioridade fundamental para a Anthology. Portanto, desenvolvemos e implementamos um programa de IA confiável. Você pode encontrar informações sobre nosso programa e nossa abordagem geral para IA confiável em nosso Trust Center e mais informações sobre recursos de IA generativa em Listar recursos de IA generativa.
Como parte de nossos princípios de IA confiável, nós nos comprometemos com transparência, explicabilidade e responsabilidade. Esta página tem como objetivo possibilitar a transparência e explicações necessárias para ajudar nossos clientes com a implementação do AI Design Assistant. Recomendamos que os administradores examinem cuidadosamente esta página e garantam que os instrutores estejam cientes das considerações e recomendações abaixo antes da ativação das funcionalidades do AI Alt Text Assistant para sua instituição.
Como entrar em contato conosco:
- Para perguntas ou comentários sobre nossa abordagem geral de IA confiável ou como podemos tornar esta página mais útil para os clientes, envie um e-mail para [email protected].
- Para perguntas ou comentários sobre a funcionalidade ou resultados do AI Alt Text Assistant, envie um ticket de suporte ao cliente através do Behind the Blackboard.
Funcionalidades facilitadas por IA
O AI Alt Text Assistant oferece aos instrutores sugestões de texto alternativo para imagens usadas nos cursos on-line por meio do fluxo de trabalho Comentários do instrutor do Ally. A intenção é inspirar os instrutores e tornar as correções de acessibilidade mais eficientes. A Anthology fez parceria com a Microsoft para oferecer essa funcionalidade, pois a Microsoft tem um compromisso de longa data com o uso ético da IA.
O AI Alt Text Assistant oferece as seguintes funcionalidades facilitadas por IA generativa:
- Gerar um texto alternativo para imagens. Sugere um texto alternativo em Comentários do instrutor do Ally quando os instrutores estiverem corrigindo imagens sem texto alternativo.
Essas funcionalidades estão sujeitas às limitações e à disponibilidade do serviço AI Vision do Azure, bem como estão sujeitas a alterações. Verifique as notas de lançamento relevantes para saber mais.
Principais fatos
Questão | Resposta |
---|---|
Quais funcionalidades do Ally usam sistemas de IA? | Sugestão de texto alternativo via IA no painel do Ally Instructor Feedback, quando uma imagem foi marcada pelo Ally por não ter texto alternativo. |
Este sistema de IA é compatível com terceiros? | Sim — o AI Alt Text Assistant foi desenvolvido pelo serviço Vision do Azure da Microsoft. |
Como o sistema de IA funciona? | O AI Alt Text Assistant aproveita o serviço Vision do Azure da Microsoft para gerar resultados automaticamente. Isso é feito usando a imagem para gerar um texto alternativo que é enviado por meio da API Vision do Azure. Nenhuma informação adicional é usada (por exemplo, título do curso, descrição do curso). As imagens não são usadas para treinar os modelos Vision do Azure da Microsoft e o serviço Vision do Azure gera a saída com base em cada imagem que é carregada para o AI Alt Text Assistant. Nenhum aviso é usado. Observe que, para usuários finais que têm as instâncias LMS configuradas em outros idiomas além do inglês, a saída do AI Alt Text será traduzida usando o AWS Translate. Para obter uma explicação detalhada sobre como os modelos de linguagem do Azure AI Vision funcionam com detalhes, consulte a seção Introdução da Nota de transparência da Microsofte os links contidos nela. |
Onde o sistema de IA é hospedado? | A Anthology atualmente usa várias instâncias globais do serviço Vision do Azure. A instância principal está hospedada nos Estados Unidos. Mas, às vezes, podemos utilizar recursos em outros locais, como França, APAC para oferecer aos clientes a melhor opção de disponibilidade do Azure AI Vision. Toda a saída do cliente gerada pelo AI Alt Text Assistant é armazenada no banco de dados Ally existente de cada cliente, gerenciado pelo Anthology. |
Esta funcionalidade é opcional? | Sim. Os administradores precisam ativar o AI Alt Text Assistant nas opções de configuração do LMS Ally. Selecione Geração de IA de descrições alternativas para imagens na guia Recursos. Os administradores podem ativar ou desativar esta funcionalidade quando quiserem. |
Como o sistema de IA é treinado? | A Anthology não está envolvida no treinamento dos modelos que alimentam as funcionalidades do AI Alt Text Assistant. Esses modelos são treinados pela Microsoft como parte do serviço Vision do Azure. A Microsoft fornece informações sobre como os grandes modelos de linguagem são treinados naseção Introdução da Nota de transparência da Microsofte nos links contidos nela. A Anthology não faz ajustes no serviço Vision do Azure usando nossos próprios dados ou os de nossos clientes. |
Os dados do cliente são usados para treinar o sistema de IA? | Não. A Microsoft se compromete contratualmente nos termos do Vision do Azure com a Anthology a não usar nenhuma entrada ou saída do Vision do Azure para treinamento do grande modelo de linguagem. O mesmo compromisso é assumido na documentação da Microsoft sobre Dados, privacidade e segurança do serviço Vision do Azure.São utilizados apenas modelos pré-criados. |
Como o Anthology Ally usa informações pessoais em relação ao sistema de AI Alt Text Assistant? | O Anthology Ally usa apenas as imagens coletadas em conexão com o AI Alt Text Assistant para fornecer, manter e dar suporte a esse assistente. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade de dados na Central de confiabilidade da Anthology. Apenas as imagens são usadas para ativar esse recurso. Nenhuma informação adicional é compartilhada com o serviço Vision do Azure da Microsoft. A Microsoft não usa nenhum dado da Anthology, nem dados dos clientes da Anthology aos quais tem acesso (como parte do serviço Vision do Azure), para melhorar os modelos do Vision, para melhorar serviços de produtos próprios ou de terceiros ou para melhorar automaticamente os modelos do Vision do Azure para o uso da Anthology no recurso da Anthology (os modelos são sem estado). Você pode encontrar mais informações sobre as práticas de privacidade de dados relacionadas ao serviço Azure Vision na documentação da Microsoft sobreDados, privacidade e segurança para o serviço Azure Vision. |
A acessibilidade foi considerada no desenvolvimento do sistema AI Alt Text? | Sim, nossos engenheiros de acessibilidade colaboraram com as equipes de produtos para avaliar os desenvolvimentos, comunicar considerações importantes sobre acessibilidade e testar os novos recursos especificamente em termos de acessibilidade. Continuaremos a considerar a acessibilidade como parte integrante da nossa abordagem de IA confiável. |
Considerações e recomendações para as instituições
Casos de uso pretendidos
O AI Alt Text Assistant destina-se apenas a oferecer suporte às funcionalidades listadas acima. Essas funcionalidades são fornecidas e destinadas aos instrutores de nossos clientes para dar suporte com a correção dos problemas de acessibilidade marcados pelo Ally.
Casos de uso fora do escopo
O AI Alt Text Assistant não tem a intenção de tornar todas as imagens acessíveis com o texto alternativo perfeito, pois ainda cabe ao instrutor ajustar ou aprovar o texto alternativo com base no contexto do conteúdo do curso.
Princípios de IA confiável na prática
A Anthology e a Microsoft acreditam que o uso legal, ético e responsável da IA é uma prioridade fundamental. Esta seção explica como a Anthology e a Microsoft trabalharam para lidar com o risco aplicável ao uso legal, ético e responsável da IA e implementar os princípios de IA confiável da Anthology. Também sugere medidas que nossos clientes podem considerar ao realizar as próprias análises jurídicas e de IA dos riscos éticos da IA na implementação.
Transparência e explicabilidade
- Deixamos claro nas opções de configuração de administração do Ally que esta é uma funcionalidade facilitada por IA
- Na interface de usuário dos instrutores, as funcionalidades do AI Alt Text Assistant estão claramente marcadas como funcionalidades "Generativas". Os instrutores também devem avaliar a saída de texto antes de usá-lo. Os metadados da saída criada pelas funcionalidades do AI Alt Text Assistant são expostos no relatório de uso do Ally de cada cliente com um campo para conteúdo gerado automaticamente. Ele também mostra se a saída foi posteriormente editada pelo instrutor.
- Além das informações apresentadas neste documento sobre como funcionam os modelos do AI Alt Text Assistant e do serviço Vision do Azure, a Microsoft disponibiliza informações adicionais sobre o serviço Vision do Azure na Nota de transparência.
- Incentivamos os clientes a serem transparentes sobre o uso de IA no AI Alt Text Assistant e oferecemos aos instrutores e outras partes interessadas, conforme apropriado, as informações relevantes deste documento e a documentação vinculada aqui.
Confiabilidade e precisão
- Deixamos claro nas opções de configuração de administração e nos termos de uso do Ally que esta é uma funcionalidade facilitada por IA que pode produzir saídas imprecisas ou indesejadas e que esta saída deve sempre ser analisada pelo instrutor.
- Na interface do usuário, é solicitado que os instrutores analisem a saída do texto quanto à precisão.
- Conforme detalhado na seção Limitações da Nota de transparência do serviço Vision do Azure, há o risco de resultados imprecisos. Embora a natureza específica do AI Alt Text Assistant e nossa implementação tenham como objetivo minimizar a imprecisão, é responsabilidade de nosso cliente analisar os resultados quanto a precisão, parcialidade e outros problemas potenciais.
- Como parte da comunicação sobre o AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
- Os instrutores podem a interface existente do Ally para editar manualmente as saídas do AI Alt Text Assistant antes de publicá-las aos alunos.
- Os clientes podem reportar qualquer saída imprecisa para nós usando os canais listados na introdução.
Justiça
- Os grandes modelos de linguagem apresentam inerentemente riscos relacionados com estereótipos, sobrerrepresentação/sub-representação e outras formas de viés prejudicial. A Microsoft descreve esses riscos naseção Limitaçõesda Nota de transparência do serviço Azure Vision.
- Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Alt Text Assistant para evitar casos de uso que possam ser mais propensos a viés prejudicial ou em que o impacto de tais ocorrências de viés poderia ser mais significativo.
- No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser afetada por viés prejudicial. Conforme mencionado acima em "Precisão", solicitamos aos instrutores que avaliem a saída, o que poderá ajudar a reduzir qualquer viés prejudicial.
- Como parte da comunicação sobre o AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
- Os clientes podem relatar qualquer viés potencialmente prejudicial para nós usando os canais de contato listados na introdução.
Privacidade e segurança
- Conforme descrito na seção "Principais fatos" acima, apenas a imagem é usada para o AI Alt Text Assistant e acessível à Microsoft. A seção também descreve o nosso comprometimento e o da Microsoft em relação ao uso de quaisquer informações pessoais.
- O Ally tem certificação ISO 27001/27017/27018/27701. Essas certificações incluirão as saídas relacionadas ao AI Alt Text Assistant gerenciadas pela Anthology. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade e à segurança de dados na Central de confiabilidade.
- A Microsoft descreve as próprias práticas e compromissos de privacidade e segurança de dados na documentação sobre Dados, privacidade e segurança para o serviço Vision do Azure.
- Independentemente do compromisso da Anthology e da Microsoft em relação à privacidade de dados e ao não uso de informações para treinar os modelos, os clientes poderão aconselhar os instrutores a não incluir nenhuma informação pessoal ou outras informações confidenciais nas imagens.
Segurança
- Os grandes modelos de linguagem apresentam inerentemente um risco de saídas que podem ser inadequadas, ofensivas ou de outra forma não seguras. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço Vision do Azure.
- Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Alt Text Assistant para evitar casos de uso que possam ser mais propensos a resultados inseguros ou onde o impacto de tais resultados poderia ser mais significativo.
- No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser insegura. Conforme mencionado acima, em "Precisão", solicitamos aos instrutores que avaliem a saída, o que pode ajudar a reduzir o risco de saída insegura.
- Como parte da comunicação sobre o AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
- Os clientes devem relatar qualquer saída potencialmente insegura para nós usando os canais listados na introdução.
Humanos no controle
- Para minimizar o risco relacionado ao uso de IA generativa para os clientes e os usuários, colocamos os clientes intencionalmente no controle das funcionalidades do AI Alt Text Assistant. O AI Alt Text Assistant é, portanto, um recurso de opcional. Os administradores podem ativar ou desativar o AI Alt Text Assistant quando quiserem.
- Além disso, os instrutores estão no controle da saída, o que significa que eles devem analisar a saída do texto e podem editá-la, conforme necessário.
- O AI Alt Text Assistant não inclui nenhuma tomada de decisão automatizada que possa ter um efeito legal ou significativo sobre os alunos ou outros indivíduos.
- Incentivamos os clientes a analisarem cuidadosamente este documento, inclusive os links de informações disponíveis, para garantir que compreendam as capacidades e limitações do AI Alt Text Assistant e do serviço Vision do Azure subjacente antes de ativarem o AI Alt Text Assistant.
Alinhamento de valor
- Os grandes modelos de linguagem apresentam inerentemente riscos em relação a saídas tendenciosas, inapropriadas ou de outra forma não alinhadas aos valores da Anthology ou aos valores dos clientes e alunos. A Microsoft descreve esses riscos naseção Limitaçõesda Nota de transparência do serviço Azure Vision.
- Além disso, os grandes modelos de linguagem (como todas as tecnologias que servem a propósitos amplos), apresentam o risco de serem mal utilizados para casos de uso que não se alinhem aos valores de Anthology, dos clientes ou dos usuários finais e da sociedade em geral (por exemplo, para atividades criminosas, para criar saída prejudicial ou de outra forma inadequada).
- Devido a esses riscos, desenvolvemos e implementamos cuidadosamente nossas funcionalidades do AI Alt Text Assistant para minimizar o risco de resultados desalinhados. Por exemplo, nos concentramos em funcionalidades para instrutores, e não para alunos. Também omitimos intencionalmente funcionalidades potencialmente de alto risco.
Propriedade intelectual
- Os grandes modelos de linguagem apresentam inerentemente riscos relacionados a possíveis violações dos direitos de propriedade intelectual. A maioria das leis mundiais de propriedade intelectual não antecipou nem se adaptou totalmente ao surgimento dos grandes modelos de linguagem e à complexidade das questões que surgem da utilização deles. Como resultado, atualmente não há orientação nem parâmetros jurídicos claros que abordem as questões de propriedade intelectual e os riscos que surgem do uso desses modelos.
- Em última análise, é responsabilidade do cliente avaliar os resultados gerados pelo AI Alt Text Assistant em busca de qualquer possível violação de direito de propriedade intelectual.
Acessibilidade
- Projetamos e desenvolvemos o AI Alt Text Assistant tendo em mente a acessibilidade, assim como fazemos no Learn e em nossos outros produtos. Antes do lançamento do AI Alt Text Assistant, melhoramos deliberadamente a acessibilidade da estrutura semântica, navegação, controle de teclado, rótulos, componentes personalizados e fluxos de trabalho de imagem, para citar algumas áreas. Continuaremos a priorizar a acessibilidade à medida que aproveitarmos a IA no futuro.
Responsabilidade
- A Anthology tem um programa de IA confiável, projetado para garantir o uso legal, ético e responsável da IA. A responsabilidade interna clara e a análise ética sistemática da IA ou de funcionalidades, como as oferecidas pelo AI Alt Text Assistant, são pilares fundamentais do programa.
- Para fornecer o AI Alt Text Assistant, fizemos uma parceria com a Microsoft para aproveitar o serviço Vision do Azure, que alimenta o AI Alt Text Assistant. A Microsoft tinha umcompromisso de longa data com o uso ético da IA.
- Os clientes devem considerar a implementação de políticas e procedimentos internos, além da análise de aplicações de IA de terceiros para garantir o próprio uso dentro da lei, ético e responsável da IA. Estas informações são disponibilizadas para dar suporte à avaliação dos nossos clientes sobre o AI Alt Text Assistant.
Outras informações
- Abordagem de IA confiávelda Anthology
- Lista de recursos de IA generativa da Anthology
- Página de IA responsávelda Microsoft
- Nota de transparência da Microsoft para o serviço Vision do Azure
- Página da Microsoft sobreDados, privacidade e segurança para o serviço Vision do Azure