L'utilisation légale, éthique et responsable de l'intelligence artificielle (IA) est une priorité pour Anthology ; par conséquent, nous avons développé et mis en œuvre un programme d'utilisation éthique de l'IA. Vous trouverez des informations sur notre programme et notre approche générale de l'IA dans notre Trust Center.

Dans le cadre de nos principes d'utilisation éthique de l'IA, nous tenons à faire preuve de transparence et à nous montrer responsables. Cette page est destinée à fournir aux clients les explications nécessaires à la mise en œuvre de l'outil AI Design Assistant. Nous recommandons aux administrateurs de l'examiner attentivement, et de s'assurer que les professeurs sont au courant des considérations et des recommandations qu'elle contient avant d'activer les fonctionnalités de l'outil AI Design Assistant pour leur établissement.

Comment nous contacter :

  • Pour toute question ou commentaire sur notre approche générale de l'IA ou sur la façon dont nous pouvons rendre cette page plus utile pour nos clients, veuillez nous envoyer un e-mail à l'adresse suivante : [email protected].
  • Pour toute question ou commentaire sur les fonctionnalités ou les productions de l'outil AI Design Assistant, veuillez soumettre un ticket de support client.

Fonctionnalités facilitées par l'IA

AI Design Assistant aide les professeurs à créer et concevoir de nouveaux cours. Il est destiné à inspirer les formateurs et à rendre la création de cours plus efficace. Anthology s'est associée à Microsoft pour fournir cette fonctionnalité, notamment en raison de l'engagement de longue date de Microsoft pour une utilisation éthique de l'IA.

AI Design Assistant fournit les fonctionnalités génératives suivantes dans Learn Ultra.

  • Génération de mots-clés pour le service d'imagerie libre de droits dans Learn optimisé par Unsplash : suggère des mots-clés pour des recherches Unsplash plus efficaces.
  • Génération de modules d'apprentissage : aide les professeurs en leur suggérant une structure de cours.
  • Génération d'images de module d'apprentissage : crée et suggère des images pour chaque module d'apprentissage.
  • Génération de questions de test et de séries de questions : l'assistant inspire les professeurs en suggérant des questions pour un test ou en créant une série de questions à partir d'un document Learn.
  • Génération de grille d'évaluation : l'assistant propose une grille de notation, y compris sa structure et ses critères, en fonction d'une évaluation donnée. Cela permet au professeur de gagner du temps et assure la transparence de la notation pour les étudiants.
  • Génération d'images de documents Learn : l'assistant génère des images à utiliser dans un document Learn, ce qui rend ces documents plus attrayants visuellement pour les étudiants.

Ces fonctionnalités sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.

Points clés

Questions et réponses sur l'outil AI Design Assistant
QuestionRéponse
Quelles fonctionnalités utilisent le système d'IA ?Toutes les fonctionnalités de l'AI Design Assistant décrites ci-dessus (génération de mots-clés pour Unsplash, génération de modules d'apprentissage, de questions de test et de séries de questions, de grilles de notation et d'images pour les documents Learn).
S'agit-il d'un système d'IA pris en charge par un tiers ?Oui, AI Design Assistant est optimisé par le service Azure OpenAI de Microsoft.
Comment fonctionne ce système d'IA ?

AI Design Assistant exploite le service Azure OpenAI de Microsoft afin de générer automatiquement du contenu. Il utilise pour ce faire certaines informations de cours (par exemple, le titre du cours, la description du cours) et envoie des invites au service Azure OpenAI sur la base de ces informations via l'API du service Azure OpenAI. Les professeurs peuvent inclure un contexte d'invite supplémentaire pour obtenir des productions plus personnalisées. Le service Azure OpenAI génère des productions en fonction de l'invite et le contenu est exposé dans l'interface utilisateur Learn.

Pour une explication détaillée du fonctionnement du service Azure OpenAI et des grands modèles de langages OpenAI GPT sous-jacents, reportez-vous à la section Introduction de la Note de transparence de Microsoft et aux liens qui y sont fournis.

Où le système d'IA est-il hébergé ?Anthology utilise actuellement plusieurs instances mondiales du service Azure OpenAI. L'instance principale est hébergée aux États-Unis, mais nous pouvons parfois utiliser des ressources hébergées sur d'autres sites, tels que le Canada, le Royaume-Uni ou la France, afin de fournir la meilleure option de disponibilité à nos clients.

Toutes les données de cours client utilisées pour les données d'entrée et toutes les productions générées par AI Design Assistant sont stockées dans la base de données Learn existante du client (Anthology).
S'agit-il d'une fonctionnalité facultative ?Oui. Les administrateurs doivent activer AI Design Assistant dans l'interface de la console administrateur de Learn. Les paramètres d'AI Design Assistant se trouvent sous la catégorie Building Blocks. Sélectionnez AI Design Assistant et Unsplash. Les administrateurs peuvent activer ou désactiver chaque fonctionnalité séparément. Les administrateurs doivent également accorder des privilèges de l'outil AI Design Assistant aux rôles de cours, tels que le rôle Professeur. Les privilèges à attribuer sont « Rechercher des images à l'aide d'Unsplash » et « Utiliser AI Design Assistant ».
Comment le système d'IA est-il entraîné ?

Anthology n'est pas impliqué dans l'entraînement des grands modèles de langage qui alimentent les fonctionnalités de l'outil AI Design Assistant. Ces modèles sont entraînés par Microsoft dans le cadre du service Azure OpenAI qui alimente les fonctionnalités de l'outil AI Design Assistant. Des informations à ce sujet sont fournies dans la section Introduction de la Note de transparence de Microsoft et les liens qui y sont fournis.

Anthology n'affine pas davantage le service Azure OpenAI à l'aide de ses propres données ni de celles de ses clients.

Les données des clients sont-elles utilisées pour entraîner ou réentraîner le système d'IA ?Non. Microsoft s'engage dans le contrat conclu avec Anthology pour la prestation du service Azure OpenAI à ne pas utiliser de données d'entrée ni de sortie Azure OpenAI pour l'entraînement ou le réentraînement du grand modèle de langage. Le même engagement est pris dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI
Comment les données personnelles sont-elles utilisées par Anthogy dans le cadre de son système d'IA?Anthology n'utilise les informations collectées dans le cadre du fonctionnement de l'outil AI Design Assistant que pour fournir, gérer et prendre en charge l'outil AI Design Assistant, et pour les cas d'utilisation pour lesquelles Anthology dispose d'une autorisation contractuelle en vertue des lois applicables. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité des données dans son Trust Center.
Dans le cas d'un système d'IA pris en charge par un tiers, comment le tiers utilisera-t-il les données personnelles ?

Seules certaines catégories d'informations de cours sont fournies à Microsoft dans le cadre du service Azure OpenAI. En règle générale, ces informations n'incluent pas de données personnelles (sauf si des informations personnelles sont incluses dans les titres, les descriptions et autres informations de cours similaires). En outre, toutes les informations que les professeurs choisissent d'inclure dans l'invite seront accessibles.

Microsoft n'utilise pas les données d'Anthology ni celles des clients d'Anthology (partagées dans le cadre du service Azure OpenAI ) à des fins d'amélioration de ses produits ou des produits de tiers, ni pour entraîner automatiquement les modèles OpenAI, y compris les modèles OpenAI Azure utilisés dans les ressources Anthology (ces modèles sont sans état). Microsoft contrôle les invites et les données de sortie dans le cadre de son filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible. Les invites et les données de sortie ne sont stockées que 30 jours maximum.

 

Vous trouverez plus d'informations sur les pratiques de confidentialité des données concernant le service Azure OpenAI dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI.

L'accessibilité a-t-elle été prise en compte dans la conception du système d'IA?Oui, nos ingénieurs spécialistes de l'accessibilité ont collaboré avec les équipes produit pour examiner les conceptions, communiquer les considérations importantes et tester spécifiquement l'accessibilité des nouvelles fonctionnalités. Nous continuerons à considérer l'accessibilité comme une partie intégrante de notre approche éthique de l'IA.

·

Considérations et recommandations à l'intention des établissements

Cas d'utilisation prévus

L'outil AI Design Assistant est uniquement prévu pour une utilisation aux fins décrites ci-dessus (génération de mots-clés pour Unsplash, génération de modules d'apprentissage, de questions de test et de séries de questions, de grilles de notation et d'images pour les documents Learn). Ces fonctionnalités sont fournies et destinées aux professeurs de nos clients pour les aider dans la création et la conception de cours au sein de Learn.

Cas d'utilisation hors champ d'application

Étant donné que l'outil AI Design Assistant de Learn est optimisé par le service Azure OpenAI de Microsoft, qui propose un très large éventail de cas d'utilisation, il peut être possible d'utiliser cette fonctionnalité pour solliciter des productions qui sortent des champs d'application prévus, ce que nous déconseillons vivement à nos clients. Cela peut entraîner des productions qui ne conviennent pas ou ne sont pas compatibles avec l'environnement Learn et les mesures que nous avons mises en place pour minimiser les résultats inexacts.

En particulier, les règles ci-dessous doivent être suivies lors de la création d'une invite.

  • Utilisez uniquement des invites de façon à obtenir des productions optimales de la part de l'outil AI Design Assistant (par exemple, fournissez le plus de détails possible sur la structure de cours prévue).
  • N'utilisez pas d'invite pour solliciter des productions qui sortent des fonctionnalités prévues. Par exemple, vous ne devez pas utiliser d'invite pour demander des sources ni des références pour les productions. Lors de nos tests, nous avons déterminé que ces types de productions n'étaient pas suffisamment fiables.
  • N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées risquent de générer des productions qui ne respectent pas la loi en matière de propriété intellectuelle.
  • Les productions suggérées pour les sujets sensibles peuvent être limitées. Le service Azure OpenAI a été entraîné et mis en œuvre de manière à minimiser le contenu illégal et nuisible. Cela inclut une fonctionnalité de filtrage de contenu. Cela pourrait entraîner des productions limitées ou des messages d'erreur lorsque l'outil AI Design Assistant est utilisé pour des cours liés à des sujets sensibles (par exemple, l'automutilation, la violence, la haine, le sexe).
  • N'utilisez pas d'invites qui enfreignent les termes du contrat de votre établissement avec Anthology ou qui enfreignent le Code de conduite pour le service Azure OpenAI et la Politique d'utilisation acceptable des Conditions d'utilisation des services en ligne de Microsoft.

Les principes d'utilisation éthique de l'IA dans la pratique

Anthology et Microsoft sont convaincus que l'utilisation légale, éthique et responsable de l'IA doit rester une priorité. Cette section explique comment Anthology et Microsoft ont collaboré pour faire face aux risques applicables à l'utilisation légale, éthique et responsable de l'IA, et mettre en œuvre les principes d'utilisation éthique de l'IA par Anthology. Elle suggère également des mesures que nos clients peuvent prendre lorsqu'ils entreprennent leurs propres examens juridiques de l'IA et des risques éthiques liés à sa mise en œuvre.

Transparence et explicabilité

  • Nous indiquons clairement dans la console administrateur de Learn qu'il s'agit d'une fonctionnalité facilitée par l'IA.
  • Dans l'interface utilisateur des professeurs, les fonctionnalités de l'outil AI Design Assistant sont clairement identifiées comme des fonctionnalités de « génération ». Les professeurs sont également priés de vérifier le texte avant de l'utiliser. Les métadonnées des productions créées par l'outil AI Design Assistant comportent un champ pour le contenu généré automatiquement et indiquent si le contenu a été modifié par le professeur.
  • Outre les informations fournies dans ce document sur le fonctionnement de l'outil AI Design Assistant et des modèles de service Azure OpenAI, Microsoft fournit des informations supplémentaires sur le service Azure OpenAI dans sa Note de transparence.
  • Nous encourageons les clients à communiquer clairement au sujet de l'utilisation de l'outil AI Design Assistant, et à fournir à leurs professeurs et aux autres parties prenantes, le cas échéant, les informations pertinentes de ce document et la documentation liée aux présentes.

Fiabilité et précision

  • Nous indiquons clairement dans la console administrateur de Learn qu'il s'agit d'une fonctionnalité facilitée par l'IA, qui peut produire une production inexacte ou indésirable, et que celle-ci doit toujours être examinée.
  • Dans l'interface utilisateur, les professeurs sont invités à vérifier la précision du texte produit.
  • Comme indiqué dans la section Limitations de la Note de transparence du service Azure OpenAI, il existe un risque de production inexacte (y compris des « hallucinations »). Bien que la nature spécifique de l'outil AI Design Assistant et de notre mise en œuvre vise à minimiser les inexactitudes, il est de la responsabilité de notre client d'examiner les productions pour détecter les erreurs, les biais et d'autres problèmes potentiels.
  • Comme nous l'avons mentionné précédemment, les clients ne doivent pas utiliser d'invite pour solliciter des productions qui sortent des cas d'utilisation prévus, d'autant plus que cela pourrait entraîner des productions inexactes (p. ex., lorsque des références ou des sources sont demandées).
  • Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
  • Les professeurs peuvent utiliser les invites et les paramètres supplémentaires dans les workflows génératifs pour fournir plus de contexte à l'outil AI Design Assistant afin d'améliorer son alignement et sa précision.
  • Les professeurs peuvent utiliser les workflows existants dans Learn pour modifier manuellement les productions de l'outil AI Design Assistant avant de les publier pour les étudiants.
  • Les clients peuvent nous signaler toute production inexacte en utilisant les canaux répertoriés dans l'introduction.

Équité

  • Les grands modèles de langage présentent intrinsèquement des risques liés aux stéréotypes, à la surreprésentation ou à la sous-représentation, et à d'autres formes de biais préjudiciables. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
  • Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Design Assistant de façon à éviter les cas d'utilisation les plus sujets à des biais ou pour lesquels l'impact de ces biais pourrait être plus important.
  • Néanmoins, il ne peut être exclu qu'une partie de la production puisse être affectée par un biais préjudiciable. Comme décrit dans la section « Exactitude » ci-dessus, les professeurs sont invités à examiner les productions, ce qui peut aider à réduire ce genre de problème.
  • Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
  • Les clients peuvent nous signaler tout biais potentiellement préjudiciable en utilisant les canaux de contact énumérés dans l'introduction.

Confidentialité et sécurité

  • Comme décrit dans la section « Faits clés » ci-dessus, une quantité limitée d'informations personnelles sont utilisées par l'outil AI Design Assistant et accessibles à Microsoft. Cette section décrit également notre engagement et celui de Microsoft concernant l'utilisation des données personnelles. Compte tenu de la nature de l'outil AI Design Assistant, les données personnelles contenues dans les productions devraient également être limitées.
  • Notre produit Learn SaaS est certifié ISO 27001/27017/27018 et nous travaillons actuellement à l'obtention de la certification ISO 27701. Ces certifications prennent en compte la gestion des données personnelles dans le cadre des fonctionnalités l'outil AI Design Assistant d'Anthology. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité et de sécurité des données dans notre Trust Center.
  • Microsoft décrit ses pratiques et engagements en matière de confidentialité et de sécurité des données dans la documentation sur les données, la confidentialité et la sécurité pour le service Azure OpenAI.
  • Indépendamment de l'engagement d'Anthology et de Microsoft en matière de confidentialité des données et de non-utilisation des données pour entraîner et réentraîner les modèles, les clients peuvent conseiller à leurs professeurs de ne pas inclure d'informations personnelles ni d'autres informations confidentielles dans les invites.

Sécurité

  • Les grands modèles de langage présentent intrinsèquement un risque de productions inappropriées, offensantes ou autrement dangereuses. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
  • Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Design Assistant pour éviter les cas d'utilisation plus sujets à des productions dangereuses ou pour lesquels l'impact de ces productions pourrait être plus important.
  • Néanmoins, nous ne pouvons pas exclure la possibilité de productions dangereuses. Comme décrit dans la section « Précision » ci-dessus, les professeurs sont priés d'examiner les productions, ce qui peut contribuer à réduire ce risque.
  • Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
  • Ils sont également tenus de nous signaler toute production potentiellement dangereuse en utilisant les canaux énumérés dans l'introduction.

Laisser l'humain aux commandes

  • Afin de minimiser le risque lié à l'utilisation de l'IA générative pour nos clients et leurs utilisateurs, nous donnons intentionnellement aux clients le contrôle des fonctionnalités de l'outil AI Design Assistant. AI Design Assistant est donc une fonctionnalité facultative. Les administrateurs doivent activer l'assistant et peuvent ensuite activer chacune de ses fonctionnalités séparément. Ils peuvent également désactiver AI Design Assistant dans son ensemble ou chacune des fonctionnalités individuelles.
  • De plus, les professeurs contrôlent les productions : ils sont invités à toutes les examiner et peuvent les modifier.
  • AI Design Assistant n'inclut aucune prise de décision automatisée qui pourrait avoir des conséquences légales ou d'autres conséquences significatives pour les apprenants ou d'autres personnes.
  • Nous encourageons les clients à lire attentivement ce document, y compris les liens d'information qui y sont fournis, pour s'assurer qu'ils comprennent les capacités et les limites de l'outil AI Design Assistant et du service Azure OpenAI sous-jacent avant d'activer l'assistant dans leur environnement de production.

Alignement avec nos valeurs

  • Les grands modèles de langage comportent intrinsèquement des risques de productions biaisées, inappropriées ou autrement non alignées avec les valeurs d'Anthology, de nos clients et des apprenants. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
  • De plus, comme toute technologie servant à des fins générales, ils présentent le risque d'être utilisés pour des cas d'utilisation qui ne correspondent pas aux valeurs d'Anthology, de nos clients ou de leurs utilisateurs finaux, ou aux valeurs de la société de façon plus générale (p. ex., pour des activités criminelles, pour créer des productions nuisibles ou autrement inappropriées).
  • Compte tenu de ces risques, nous avons soigneusement conçu et mis en œuvre les fonctionnalités de notre outil AI Design Assistant de manière à minimiser le désalignement des productions. Par exemple, nous nous sommes concentrés sur les fonctionnalités destinées aux professeurs plutôt qu'aux apprenants. Nous avons également intentionnellement omis des fonctionnalités à enjeux potentiellement élevés.
  • Microsoft examine également les invites et les données de sortie dans le cadre de sa fonctionnalité de filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible.

Propriété intellectuelle

  • Les grands modèles de langage présentent intrinsèquement des risques de violation des droits de propriété intellectuelle. La plupart des lois sur la propriété intellectuelle dans le monde n'ont pas pleinement anticipé, et ne sont pas adaptées à l'émergence de grands modèles de langage ni à la complexité des questions qui découlent de leur utilisation. Par conséquent, il n'existe actuellement aucun cadre juridique ni orientation clairs qui traitent des questions de propriété intellectuelle et des risques qui découlent de l'utilisation de ces modèles.
  • En fin de compte, il est de la responsabilité de notre client d'examiner les productions générées par AI Design Assistant afin d'éviter toute violation potentielle des droits de propriété intellectuelle. N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées présentent un risque élevé de générer une production qui ne respecte pas la loi en matière de propriété intellectuelle.

Accessibilité

Nous avons conçu et développé notre système de conception par IA en gardant l'accessibilité à l'esprit, comme nous le faisons pour Learn et tous nos autres produits. Avant sa mise à disposition, nous avons délibérément amélioré l'accessibilité de la structure sémantique, de la navigation, des commandes clavier, des étiquettes, des composants personnalisés et des workflows d'images, pour ne citer que quelques domaines. Nous continuerons à accorder la priorité à l'accessibilité à mesure que nous tirerons parti de l'IA à l'avenir.

Responsabilité

  • Anthology a mis en place un programme afin de garantir une utilisation légale, éthique et responsable de l'IA. Une définition claire des responsabilités en interne et un examen éthique systématique de l'IA et des fonctionnalités telles que celles fournies par AI Design Assistant sont des piliers clés du programme.
  • Nous nous sommes associés à Microsoft pour tirer parti du service Azure OpenAI qui alimente AI Design Assistant. Microsoft s'engage depuis longtemps en faveur de l'utilisation éthique de l'IA.
  • Il est recommandé aux clients de mettre en œuvre des politiques, des procédures internes et d'examiner les applications d'IA tierces afin de garantir leur propre utilisation légale, éthique et responsable de l'IA. Ces informations sont fournies pour encourager nos clients à examiner les productions de l'outil AI Design Assistant.

Autres informations