L'utilisation légale, éthique et responsable de l'intelligence artificielle (IA) est une priorité pour Anthology. Pour cette raison, nous avons développé et mis en œuvre un programme d'IA éthique. Vous trouverez des informations sur notre programme et notre approche générale de l'IA éthique dans notre Trust Center et plus d'informations sur les fonctionnalités d'IA générative dans notre Liste des fonctionnalités d'IA générative.

Dans le cadre de nos principes d'utilisation éthique de l'IA, nous tenons à faire preuve de transparence et à nous montrer responsables. Cette page est destinée à fournir aux clients les explications nécessaires à la mise en œuvre de l'outil AI Alt Text Assistant. Nous recommandons aux administrateurs de l'examiner attentivement et de vérifier que les professeurs sont au courant des considérations et des recommandations qu'elle contient avant d'activer les fonctionnalités d'AI Alt Text Assistant pour leur établissement.

Comment nous contacter :

  • Pour toute question ou feed-back sur notre approche générale de l'IA éthique ou sur la façon dont nous pouvons rendre cette page plus utile pour nos clients, veuillez nous envoyer un e-mail à l'adresse suivante : [email protected].
  • Pour toute question ou feed-back sur les fonctionnalités ou les productions de l'outil AI Alt Text Assistant, veuillez soumettre un ticket de support client via Behind the Blackboard.

Fonctionnalités facilitées par l'IA

L'outil AI Alt Text Assistant fournit aux professeurs des suggestions de texte alternatif pour les images utilisées dans leur(s) cours(s) en ligne via le workflow de feed-back du professeur Ally. Il est destiné à inspirer les formateurs et à rendre les corrections d'accessibilité plus efficaces. Anthology s'est associée à Microsoft pour fournir cette fonctionnalité, notamment en raison de l'engagement de longue date de Microsoft pour une utilisation éthique de l'IA.

AI Alt Text Assistant fournit les fonctionnalités suivantes facilitées par l'IA générative :

  • Générer un texte alternatif pour les images. Suggère un texte alternatif dans le feed-back du professeur Ally lorsque les professeurs corrigent des images sans texte alternatif.

Ces fonctionnalités sont soumises aux limites et à la disponibilité du service Azure AI Vision et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.

Points clés

Tableau d'exemple
QuestionRéponse
Quelles fonctionnalités Ally utilisent des systèmes d'IA ?Suggestion de texte alternatif via l'IA dans le panneau de feed-back du professeur de Ally, lorsqu'une image a été signalée par Ally parce qu'elle ne contient pas de texte alternatif.
S'agit-il d'un système d'IA pris en charge par un tiers ?Oui, AI Alt Text Assistant est optimisé par le service Azure Vision de Microsoft.
Comment fonctionne ce système d'IA ?

AI Alt Text Assistant tire parti du service Azure Vision de Microsoft afin de générer automatiquement du contenu. Pour cela, le service utilise l'image pour générer un texte alternatif envoyé via l'API Azure Vision. Aucune autre information n'est utilisée (par exemple, titre du cours, description du cours). Les images ne sont pas utilisées pour former les modèles Microsoft Azure Vision, et le service Azure Vision génère le résultat en fonction de chaque image téléchargée dans AI Alt Text Assistant. Aucune invite n'est utilisée.

Notez que, pour les utilisateurs finaux dont les instances LMS sont configurées dans des langues autres que l'anglais, la production de AI Alt Text sera traduite à l'aide d'AWS Translate.

Pour une explication détaillée du fonctionnement du modèle de langage Azure AI Vision, reportez-vous à la sectionIntroduction de la Note de transparence de Microsoftet aux liens qui y sont fournis.

Où le système d'IA est-il hébergé ?Anthology utilise actuellement plusieurs instances mondiales du service Azure Vision. L'instance principale est hébergée aux États-Unis, mais nous pouvons parfois utiliser des ressources hébergées dans d'autres pays, par exemple en France ou dans la région APAC, afin de fournir la meilleure option de disponibilité du service Azure AI Vision à nos clients.

Toutes les productions de clients générées par AI Alt Text Assistant sont stockées dans la base de données Ally existante de chaque client gérée par Anthology.
S'agit-il d'une fonctionnalité facultative ?Oui. Les administrateurs doivent activer AI Alt Text Assistant dans les options de configuration de LMS Ally. Sélectionnez Génération par l'IA de descriptions alternatives pour les images sous l'onglet Fonctionnalités. Les administrateurs peuvent activer ou désactiver cette fonctionnalité à tout moment.
Comment le système d'IA est-il entraîné ?

Anthology n'est pas impliqué dans l'entraînement des modèles qui alimentent les fonctionnalités d'AI Alt Text Assistant. Ces modèles sont entraînés par Microsoft dans le cadre du service Azure Vision. Des informations à ce sujet sont fournies dans lasection Introduction de la Note de transparence de Microsoftet les liens qui y sont fournis.

Anthology n'affine pas davantage le service Azure Vision à l'aide de ses propres données ni de celles de ses clients.

Les données des clients sont-elles utilisées pour entraîner ou réentraîner le système d'IA ?Non. Microsoft s'engage dans le contrat conclu avec Anthology pour la prestation du service Azure Vision à ne pas utiliser de données d'entrée ni de sortie Azure Vision pour l'entraînement ou le réentraînement du grand modèle de langage. Le même engagement est pris dans la documentation de Microsoft sur lesdonnées, la confidentialité et la sécurité pour le service Azure Vision. Seuls des modèles préconfigurés sont utilisés.
Comment les données personnelles sont-elles utilisées par Anthology Ally dans le cadre de son système d'IA AI Text Assistant ?

Anthology Ally utilise uniquement les images collectées par AI Alt Text Assistant pour fournir, gérer et prendre en charge AI Alt Text Assistant. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité des données dans le Trust Center d'Anthology.

Seules les images sont utilisées pour optimiser cette fonctionnalité. Aucune autre information n'est partagée avec le service Microsoft Azure Vision.

Microsoft n'utilise pas les données d'Anthology ni celles des clients d'Anthology (partagées dans le cadre du service Azure Vision ) à des fins d'amélioration de ses produits ou des produits de tiers, ni pour entraîner automatiquement les modèles Azure Vision utilisés dans les ressources Anthology (ces modèles sont sans état).

Vous trouverez plus d'informations sur les pratiques de confidentialité des données concernant le service Azure Vision dans la documentation de Microsoft sur lesdonnées, la confidentialité et la sécurité pour le service Azure Vision.

L'accessibilité a-t-elle été prise en compte dans la conception du système d'IA Alt Text ?Oui, nos ingénieurs spécialistes de l'accessibilité ont collaboré avec les équipes produit pour examiner les conceptions, communiquer les considérations importantes et tester spécifiquement l'accessibilité des nouvelles fonctionnalités. Nous continuerons à considérer l'accessibilité comme une partie intégrante de notre approche éthique de l'IA.

Considérations et recommandations à l'intention des établissements

Cas d'utilisation prévus

L'outil AI Alt Text Assistant est uniquement destiné à prendre en charge les fonctionnalités énumérées ci-dessus. Ces fonctionnalités sont fournies et destinées aux professeurs de nos clients pour les aider à résoudre les problèmes d'accessibilité des images signalés par Ally.

Cas d'utilisation hors champ d'application

AI Alt Text Assistant n'est pas destiné à fournir un texte alternatif parfait pour toutes les images et ne garantit pas un tel usage, car il est de la responsabilité du professeur d'ajuster ou d'approuver le texte alternatif en fonction du contexte du contenu du cours.

Les principes d'utilisation éthique de l'IA dans la pratique

Anthology et Microsoft sont convaincus que l'utilisation légale, éthique et responsable de l'IA doit rester une priorité. Cette section explique comment Anthology et Microsoft ont collaboré pour faire face aux risques applicables à l'utilisation légale, éthique et responsable de l'IA, et mettre en œuvre les principes d'utilisation éthique de l'IA par Anthology. Elle suggère également des mesures que nos clients peuvent prendre lorsqu'ils entreprennent leurs propres examens juridiques de l'IA et des risques éthiques liés à sa mise en œuvre.

Transparence et explicabilité

  • Nous indiquons clairement dans les options de configuration d'administration Ally qu'il s'agit d'une fonctionnalité facilitée par l'IA
  • Dans l'interface utilisateur des professeurs, les fonctionnalités d'AI Alt Text Assistant sont clairement identifiées comme des fonctionnalités « génératives ». Les professeurs sont également priés d'examiner le texte avant de l'utiliser. Les métadonnées des productions issues des fonctionnalités d'AI Alt Text Assistant incluses dans le rapport d'utilisation d'Ally de chaque client comportent un champ pour le contenu généré automatiquement. Elles indiquent également si le contenu a été modifié ultérieurement par le professeur.
  • Outre les informations fournies dans ce document sur le fonctionnement des modèles d'AI Alt Text Assistant et du service Azure Vision, Microsoft fournit des informations sur le service Azure Vision dans sa Note de transparence.
  • Nous encourageons les clients à communiquer clairement au sujet de l'utilisation de l'IA dans l'outil AI Alt Text Assistant et à fournir à leurs professeurs et aux autres parties prenantes, le cas échéant, les informations pertinentes de ce document et la documentation liée aux présentes.

Fiabilité et précision

  • Nous indiquons clairement dans les options de configuration d'administration d'Ally et dans les conditions d'utilisation qu'il s'agit d'une fonctionnalité facilitée par l'IA, dont la production peut être inexacte ou indésirable et doit toujours être examinée par le professeur.
  • Dans l'interface utilisateur, les professeurs sont invités à examiner la précision du texte produit.
  • Comme indiqué dans la section Limitations de la Note de transparence du service Azure Vision, il existe un risque de production inexacte. Bien que la nature spécifique de l'outil AI Alt Text Assistant et de notre mise en œuvre vise à minimiser les inexactitudes, il est de la responsabilité de notre client de vérifier les productions pour détecter les erreurs, biais et autres problèmes potentiels.
  • Dans le cadre de leur communication concernant AI Alt Text Assistant, les clients doivent informer leurs professeurs de cette limitation potentielle.
  • Les professeurs peuvent utiliser l'interface Ally existante pour modifier manuellement les productions de l'outil AI Alt Text Assistant avant de les publier pour les étudiants.
  • Les clients peuvent nous signaler toute production inexacte en utilisant les canaux répertoriés dans l'introduction.

Équité

  • Les grands modèles de langage présentent intrinsèquement des risques liés aux stéréotypes, à la surreprésentation ou à la sous-représentation, et à d'autres formes de biais préjudiciables. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure Vision.
  • Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Alt Text Assistant de façon à éviter les cas d'utilisation les plus sujets à des biais ou pour lesquels l'impact de ces biais pourrait être plus important.
  • Néanmoins, il ne peut être exclu qu'une partie de la production puisse être affectée par un biais préjudiciable. Comme décrit dans la section « Exactitude » ci-dessus, les professeurs sont invités à examiner les productions, ce qui peut aider à réduire ce genre de problème.
  • Dans le cadre de leur communication concernant AI Alt Text Assistant, les clients doivent informer leurs professeurs de cette limitation potentielle.
  • Les clients peuvent nous signaler tout biais potentiellement préjudiciable en utilisant les canaux de contact énumérés dans l'introduction.

Confidentialité et sécurité

  • Comme décrit dans la section « Faits clés » ci-dessus, seules des images sont utilisées par l'outil AI Alt Text Assistant et accessibles à Microsoft. Cette section décrit également notre engagement et celui de Microsoft concernant l'utilisation des données personnelles.
  • Ally est certifié ISO 27001/27017/27018/27701. Ces certifications prennent en compte la production d'AI Alt Text Assistant gérée par Anthology. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité et de sécurité des données dans notre Trust Center.
  • Microsoft décrit ses pratiques et engagements en matière de confidentialité et de sécurité des données dans la documentation sur les données, la confidentialité et la sécurité pour le service Azure Vision.
  • Indépendamment de l'engagement d'Anthology et de Microsoft en matière de confidentialité des données et de non-utilisation des données pour entraîner et réentraîner les modèles, les clients peuvent conseiller à leurs professeurs de ne pas inclure d'informations personnelles ni d'autres informations confidentielles dans les images.

Sûreté

  • Les grands modèles de langage présentent intrinsèquement un risque de productions inappropriées, offensantes ou autrement dangereuses. Microsoft décrit ces risques dans la section Limitations de la Note de transparence du service Azure Vision.
  • Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Alt Text Assistant pour éviter les cas d'utilisation plus sujets à des productions dangereuses ou pour lesquels l'impact de ces productions pourrait être plus important.
  • Néanmoins, nous ne pouvons pas exclure la possibilité de productions dangereuses. Comme décrit dans la section « Précision » ci-dessus, les professeurs sont priés d'examiner les productions, ce qui peut contribuer à réduire ce risque.
  • Dans le cadre de leur communication concernant AI Alt Text Assistant, les clients doivent informer leurs professeurs de cette limitation potentielle.
  • Ils sont également tenus de nous signaler toute production potentiellement dangereuse en utilisant les canaux énumérés dans l'introduction.

Laisser l'humain aux commandes

  • Afin de minimiser le risque lié à l'utilisation de l'IA générative pour nos clients et leurs utilisateurs, nous donnons intentionnellement aux clients le contrôle des fonctionnalités de l'outil AI Alt Text Assistant. AI Alt Text Assistant est donc une fonctionnalité facultative. Les administrateurs peuvent activer ou désactiver AI Alt Text Assistant à tout moment.
  • De plus, les professeurs contrôlent les productions, ce qui signifie qu'ils sont invités à examiner les textes et à les modifier si nécessaire.
  • AI Alt Text Assistant n'inclut aucune prise de décision automatisée qui pourrait avoir des conséquences légales ou d'autres conséquences significatives pour les apprenants ou d'autres personnes.
  • Nous encourageons les clients à lire attentivement ce document, y compris les liens d'information qui y sont fournis, pour s'assurer qu'ils comprennent les capacités et les limites de l'outil AI Alt Text Assistant et du service Azure Vision sous-jacent avant d'activer AI Alt Text Assistant.

Alignement avec nos valeurs

  • Les grands modèles de langage comportent intrinsèquement des risques de productions biaisées, inappropriées ou autrement non alignées avec les valeurs d'Anthology, de nos clients et des apprenants. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure Vision.
  • De plus, comme toute technologie servant à des fins générales, ils présentent le risque d'être utilisés pour des cas d'utilisation qui ne correspondent pas aux valeurs d'Anthology, de nos clients ou de leurs utilisateurs finaux, ou aux valeurs de la société de façon plus générale (p. ex., pour des activités criminelles, pour créer des productions nuisibles ou autrement inappropriées).
  • Compte tenu de ces risques, nous avons soigneusement conçu et mis en œuvre les fonctionnalités de notre outil AI Alt Text Assistant de manière à minimiser le désalignement des productions. Par exemple, nous nous sommes concentrés sur les fonctionnalités destinées aux professeurs plutôt qu'aux apprenants. Nous avons également intentionnellement omis des fonctionnalités à enjeux potentiellement élevés.

Propriété intellectuelle

  • Les grands modèles de langage présentent intrinsèquement des risques de violation des droits de propriété intellectuelle. La plupart des lois sur la propriété intellectuelle dans le monde n'ont pas pleinement anticipé, et ne sont pas adaptées à l'émergence de grands modèles de langage ni à la complexité des questions qui découlent de leur utilisation. Par conséquent, il n'existe actuellement aucun cadre juridique ni orientation clairs qui traitent des questions de propriété intellectuelle et des risques qui découlent de l'utilisation de ces modèles.
  • En fin de compte, il est de la responsabilité de notre client d'examiner les productions générées par AI Alt Text Assistant afin d'éviter toute violation potentielle des droits de propriété intellectuelle.

Accessibilité

  • Nous avons conçu et développé AI Alt Text Assistant en gardant l'accessibilité à l'esprit, comme nous le faisons pour Learn et nos autres produits. Avant la mise à disposition d'AI Alt Text Assistant, nous avons délibérément amélioré l'accessibilité de la structure sémantique, de la navigation, des commandes clavier, des étiquettes, des composants personnalisés et des workflows d'images, pour ne citer que quelques domaines. Nous continuerons à accorder la priorité à l'accessibilité à mesure que nous tirerons parti de l'IA à l'avenir.

Responsabilité

  • Anthology a mis en place un programme afin de garantir une utilisation légale, éthique et responsable de l'IA. Une définition claire des responsabilités en interne et un examen éthique systématique de l'IA et des fonctionnalités telles que celles fournies par AI Alt Text Assistant sont des piliers clés du programme.
  • Nous nous sommes associés à Microsoft pour tirer parti du service Azure Vision qui alimente l'outil AI Alt Text Assistant. Microsoft s'engage depuis longtemps en faveur de l'utilisation éthique de l'IA.
  • Il est recommandé aux clients de mettre en œuvre des politiques, des procédures internes et d'examiner les applications d'IA tierces afin de garantir leur propre utilisation légale, éthique et responsable de l'IA. Ces informations sont fournies pour encourager nos clients à examiner les productions de l'outil AI Alt Text Assistant.

Autres informations