AI Conversation — Note de transparence
L'utilisation légale, éthique et responsable de l'intelligence artificielle (IA) est une priorité pour Anthology. Pour cette raison, nous avons développé et mis en œuvre un programme d'IA éthique. Vous trouverez des informations sur notre programme et notre approche générale de l'IA dans notre Trust Center. Vous trouverez un aperçu des solutions Anthology ayant recours à l'IA générative dans notre Liste des fonctionnalités d'IA générative.
Dans le cadre de nos principes d'utilisation éthique de l'IA, nous tenons à faire preuve de transparence et à nous montrer responsables. Cette page est destinée à fournir aux clients les explications nécessaires à la mise en œuvre de l'outil AI Conversation. Nous recommandons aux administrateurs de la lire attentivement et de vérifier que les professeurs sont au courant des considérations et des recommandations qu'elle contient avant d'activer les fonctionnalités de conversation d'IA pour leur établissement.
Comment nous contacter :
- Pour toute question ou pour nous donner votre feed-back sur notre approche générale de l'IA éthique ou sur la façon dont nous pouvons rendre cette page plus utile pour nos clients, veuillez nous envoyer un e-mail à l'adresse suivante : [email protected].
- Pour toute question ou tout commentaire sur les fonctionnalités ou les productions de la fonctionnalité AI Conversation, veuillez soumettre un ticket de support client.
Dernière mise à jour 1er novembre 2024
Fonctionnalités facilitées par l'IA
AI Conversation
La conversation d'IA est spécialement conçue en tant que nouvelle activité interactive à laquelle les élèves peuvent participer activement. Les enseignants peuvent créer une conversation d'IA dans leurs cours en décrivant un sujet et une personnalité pour l'IA. Ils seront également en mesure de sélectionner le type de conversation auquel les étudiants doivent participer. Au sein de la fonctionnalité de conversation d'IA, les professeurs peuvent choisir entre deux options : Le « questionnement socratique », dans lequel le personnage de l'IA encourage les élèves à mobiliser leur esprit critique par le biais d'une remise en question continue, ou le « jeu de rôle », qui permet aux élèves de prendre part à un scénario avec le personnage incarné par l'IA.
Questionnement socratique
Il s'agit d'une activité de questionnement guidé ou d'un exercice socratique. Le personnage incarné par l'IA ne confirmera ni ne rejettera aucune réponse émise par les étudiants, mais les guidera à travers une série de questions. À la fin de la conversation, les étudiants peuvent émettre une réflexion sur l'activité, en soulignant les faiblesses ou les forces de leur apprentissage, et mentionner si le l'IA a tenu des propos biaisés, irrationnels ou inexacts. Lors de l'envoi, l'enseignant recevra une transcription de la conversation et de la réflexion, ce qui garantit une transparence totale des interactions. C'est un excellent moyen d'avoir un dialogue stimulant sur les sujets du cours sans avoir à réunir deux interlocuteurs, ce qui peut être difficile dans le cadre des cours complexes ou qui réunissent de nombreux élèves.
Les professeurs ont la possibilité de générer une image pour le personnage mis en scène dans la conversation d'IA à l'aide de l'IA générative.
Ces fonctionnalités sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.
Jeu de rôle
La fonctionnalité de jeu de rôle permet aux professeurs de configurer des conversations simulées pour leurs étudiants en définissant des rôles spécifiques pour le personnage de l'IA et les étudiants. Cette option interactive permet d'améliorer l'apprentissage et la formation en permettant aux étudiants de mettre en pratique leurs compétences en communication dans des scénarios réalistes. Ils peuvent donc bénéficier d'un apprentissage plus actif. À l'aide de traits de personnalité personnalisables pour le personnage de l'IA et avec la possibilité de fournir du contexte grâce à des invites, le jeu de rôle favorise les échanges engageants et dynamiques afin d'enrichir le processus d'apprentissage dans son ensemble et d'encourager les étudiants à faire appel à leur esprit critique.
Les professeurs peuvent personnaliser le personnage incarné par l'IA en lui attribuant un nom et une image. Ils peuvent également définir les traits de personnalité du personnage ainsi que la complexité de ses réponses. Les traits de personnalité attribués au personnage de l'IA dans le cadre du jeu de rôle façonnent ses réponses et ses interactions.
Remarque : nous invitons les professeurs à redoubler de vigilance lors de la sélection des traits de personnalité et à prévisualiser la conversation simulée, car ces traits influencent de manière significative le ton et le contenu de la conversation. Par exemple, si un professeur configure le personnage de l'IA pour qu'il soit chaleureux et empathique, le ton des réponses correspondra à ces deux traits de personnalité. Si le personnage de l'IA est conçu de sorte à paraître biaisé ou à tenir des propos discutables, les réponses de l'IA seront donc biaisées ou polémiques. Il arrive également que le personnage de l'IA ne conteste pas toujours les idées controversées, biaisées ou dangereuses émises par les étudiants.
Lorsque nous testions cette fonctionnalité, Anthology a examiné et analysé les réponses de l'IA afin de déterminer si la fonctionnalité devait être limitée afin d'éviter tout biais ou toute réponse inappropriée. Nous en avons conclu, après réflexion, que les établissements et les enseignants devraient avoir la liberté de laisser les étudiants participer à des conversations simulées qui peuvent être controversées ou biaisées à des fins académiques. Nous comprenons également que les réponses que le personnage de l'IA est capable de produire ont leurs limites. Par conséquent, les professeurs sont considérés comme principaux responsables des réponses générées par la conversation d'IA et des dialogues auxquels les étudiants seront confrontés avec la fonctionnalité de jeu de rôle. Lors de nos tests, les mesures de sécurité existantes mises en œuvre par OpenAI, Microsoft et Anthology ont empêché toute réponse à caractère illégal ou ne répondant pas à nos principes d'utilisation éthique de l'IA. Nous continuerons de surveiller cette fonctionnalité et d'examiner tous les commentaires clients associés en vue d'apporter toutes les éventuelles modifications nécessaires, afin de nous assurer que cette fonctionnalité respecte nos principes d'utilisation éthique de l'IA.
Les fonctionnalités de la conversation d'IA sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.
Faits clés
Question | Réponse |
---|---|
Quelles fonctionnalités utilisent le système d'IA ? | Images générées par l'IA pour les personnages (comme décrit ci-dessus) ; Fonctionnalités de conversation d'IA (telles que décrites ci-dessus). |
S'agit-il d'un système d'IA pris en charge par un tiers ? | Oui, AI Conversation et les images générées par l'IA sont optimisées par le service Azure OpenAI de Microsoft. |
Comment fonctionne ce système d'IA ? | AI Conversation tire parti du service Azure OpenAI de Microsoft afin de générer automatiquement du contenu. Pour ce faire, il utilise les informations fournies par le professeur dans l'outil lui-même, telles que le sujet, le personnage de l'IA, les traits de personnalité et la complexité, ainsi que notre invite à faciliter les réponses. Pour une explication détaillée du fonctionnement du service Azure OpenAI et des grands modèles de langages OpenAI GPT sous-jacents, reportez-vous à la section Introduction de la Note de transparence de Microsoft et aux liens qui y sont fournis. |
Où le système d'IA est-il hébergé ? | Anthology utilise actuellement plusieurs instances mondiales du service Azure OpenAI. L'instance principale est hébergée aux États-Unis, mais nous pouvons parfois utiliser des ressources hébergées sur d'autres sites, tels que le Canada, le Royaume-Uni ou la France, afin de fournir la meilleure option de disponibilité à nos clients. Toutes les données de cours client et les entrées de professeur utilisées pour les données d'entrée et toutes les productions générées par la conversation d'IA sont stockées dans la base de données Blackboard existante du client (Anthology). |
S'agit-il d'une fonctionnalité facultative ? | Oui. Les administrateurs doivent activer la conversation d'IA dans l'interface de la console d'administration Blackboard. Les paramètres de la conversation d'IA se trouvent sous la catégorie Building Blocks. Sélectionnez AI Conversation et Unsplash. Les administrateurs peuvent activer ou désactiver chaque fonctionnalité séparément. Les administrateurs doivent également accorder des privilèges de l'outil AI Conversation aux rôles de cours, tels que le rôle Professeur. |
Comment le système d'IA est-il entraîné ? | Anthology n'est pas impliqué dans l'entraînement des grands modèles de langage qui alimentent les fonctionnalités de l'outil AI Conversation. Ces modèles sont entraînés par Microsoft dans le cadre du service Azure OpenAI qui alimente les fonctionnalités de l'outil de conversation d'IA. Des informations à ce sujet sont fournies dans lasection Introduction de la Note de transparence de Microsoftet les liens qui y sont fournis. Anthology n'affine pas davantage le service Azure OpenAI à l'aide de ses propres données ni de celles de ses clients. |
Les données des clients sont-elles utilisées pour entraîner ou réentraîner le système d'IA ? | Non. Microsoft s'engage dans le contrat conclu avec Anthology pour la prestation du service Azure OpenAI à ne pas utiliser de données d'entrée ni de sortie Azure OpenAI pour l'entraînement ou le réentraînement du grand modèle de langage. Le même engagement est pris dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI. |
Comment les données personnelles sont-elles utilisées par Anthogy dans le cadre de son système d'IA? | Anthology n'utilise les informations collectées dans le cadre du fonctionnement de l'outil AI Conversation que pour fournir, gérer et prendre en charge l'outil AI Conversation, et pour les cas d'utilisation pour lesquelles Anthology dispose d'une autorisation contractuelle en vertue des lois applicables. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité des données dans son Trust Center. |
Dans le cas d'un système d'IA pris en charge par un tiers, comment le tiers utilisera-t-il les données personnelles ? | Seules certaines catégories d'informations de cours sont fournies à Microsoft dans le cadre du service Azure OpenAI. Cela n'inclut généralement pas d'informations personnelles (sauf dans les cas où des informations personnelles sont incluses dans le sujet, les informations de persona ou de personnalité d'IA, ou dans les questions et réponses des étudiants au bot d'IA). En outre, toutes les informations que les professeurs choisissent d'inclure dans l'invite seront accessibles. Microsoft n'utilise pas les données d'Anthology ni celles des clients d'Anthology (partagées dans le cadre du service Azure OpenAI ) à des fins d'amélioration de ses produits ou des produits de tiers, ni pour entraîner automatiquement les modèles OpenAI, y compris les modèles OpenAI Azure utilisés dans les ressources Anthology. Les modèles sont sans état. Microsoft examine les invites et sorties à des fins de filtrage de contenu. Les invites et les données de sortie ne sont stockées que 30 jours maximum. Vous trouverez plus d'informations sur les pratiques de confidentialité des données concernant le service Azure OpenAI dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI. |
L'accessibilité a-t-elle été prise en compte dans la conception du système d'IA? | Oui, nos ingénieurs spécialistes de l'accessibilité ont collaboré avec les équipes produit pour examiner les conceptions, communiquer les considérations importantes et tester spécifiquement l'accessibilité des nouvelles fonctionnalités. Nous continuerons à considérer l'accessibilité comme une partie intégrante de notre approche éthique de l'IA. |
Considérations et recommandations à l'intention des établissements
Cas d'utilisation prévus
AI Conversation est uniquement destiné à prendre en charge les fonctionnalités énumérées ci-dessus. Ces fonctionnalités sont fournies et destinées aux professeurs et aux étudiants de nos clients, dans le but d'améliorer l'apprentissage des étudiants grâce à des activités soutenues par l'IA.
Cas d'utilisation non prévus
Étant donné que l'outil AI Conversation de Learn est optimisé par Microsoft, qui propose un très large éventail de cas d'utilisation, il peut être possible d'utiliser cette fonctionnalité pour solliciter des productions qui sortent des champs d'application prévus, ce que nous déconseillons vivement à nos clients. Cela peut entraîner des productions qui ne conviennent pas ou ne sont pas compatibles avec l'environnement Blackboard et les mesures que nous avons mises en place pour minimiser les résultats inexacts.
En particulier, les points ci-dessous doivent être suivis lors de la rédaction de l'invite.
- Utilisez uniquement des invites destinées à poursuivre la conversation concernant le sujet affecté à la conversation d'IA. Par exemple, des réponses aux questions et aux invites de l'IA, ou des questions posées à l'IA concernant le sujet affecté.
- N'utilisez pas d'invite pour solliciter des productions qui sortent des cas d'utilisation prévus. Par exemple, vous ne devez pas utiliser d'invite pour demander des sources ou des références. Lors de nos tests, nous avons déterminé que ces types de productions n'étaient pas suffisamment fiables.
- N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées risquent de générer des productions qui ne respectent pas la loi en matière de propriété intellectuelle.
- Les productions suggérées pour les sujets sensibles peuvent être limitées. Le service Azure OpenAI a été entraîné et mis en œuvre de manière à minimiser le contenu illégal et nuisible. Cela inclut une fonctionnalité de filtrage de contenu. Cela pourrait entraîner des productions limitées ou des messages d'erreur lorsque l'outil de conversation d'IA est utilisé pour des cours liés à des sujets sensibles (par exemple, l'automutilation, la violence, la haine ou le sexe). N'utilisez pas d'invites qui enfreignent les termes du contrat de votre établissement avec Anthology ou qui enfreignent le code de conduite pour le service Azure OpenAI et la politique d'utilisation acceptable des conditions d'utilisation des services en ligne de Microsoft.
Pour le jeu de rôle : Nous invitons les professeurs à redoubler de vigilance lors de la sélection des traits de personnalité et à prévisualiser la conversation simulée, car ces traits influencent de manière significative le ton et le contenu de la conversation. Veuillez consulter la description de la fonctionnalité située ci-dessus pour plus d'informations.
Les principes d'utilisation éthique de l'IA dans la pratique
Anthology est convaincue que l'utilisation légale, éthique et responsable de l'IA doit rester une priorité. Cette section explique comment Anthology et Microsoft ont collaboré pour faire face aux risques applicables à l'utilisation légale, éthique et responsable de l'IA, et mettre en œuvre les principes d'utilisation éthique de l'IA par Anthology. Elle suggère également des mesures que nos clients peuvent prendre lorsqu'ils entreprennent leurs propres examens des risques éthiques liés à l'IA.
Transparence et explicabilité
- Nous indiquons clairement dans la console d'administration Blackboard que la conversation d'IA est une fonctionnalité facilitée par l'IA.
- Dans l'interface utilisateur des professeurs, les fonctionnalités de l'outil de conversation d'IA sont clairement identifiées comme des fonctionnalités d'« IA ». Les professeurs ont la possibilité de prévisualiser et de tester la conversation avant de la mettre à la disposition des étudiants.
- Outre les informations fournies dans ce document sur le fonctionnement de l'outil AI Conversation et des modèles de service Azure OpenAI, Microsoft fournit des informations supplémentaires sur le service Azure OpenAI dans sa Note de transparence.
- Nous encourageons les clients à faire preuve de transparence au sujet de l'utilisation de l'IA dans l'outil de conversation d'IA et à fournir à leurs professeurs, étudiants et autres parties prenantes, le cas échéant, les informations pertinentes de ce document et la documentation liée aux présentes.
Fiabilité et exactitude
- Nous indiquons clairement dans la console d'administration Blackboard qu'il s'agit d'une fonctionnalité facilitée par l'IA, qui peut produire une réponse inexacte ou indésirable, et qui doit faire l'objet d'une vérification.
- Dans l'interface utilisateur, les professeurs qui prévisualisent et les étudiants qui utilisent la conversation d'IA sont informés que les réponses sont produites par une IA et peuvent donc présenter des biais ou ne pas être exactes.
- Jeu de rôle : Les professeurs doivent être conscients que les traits de personnalité du personnage de l'IA façonnent ses réponses et ses interactions avec les étudiants et peuvent avoir un impact sur la fiabilité et la précision des réponses (et comporter un risque accru d'hallucinations). Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Veuillez consulter la description de la fonctionnalité pour plus d'informations.
- Comme indiqué dans la section Limitations de la note de transparence du service Azure OpenAI, il existe un risque de production inexacte (y compris d'« hallucinations »). Bien que la nature spécifique de l'outil AI Conversation et de notre mise en œuvre vise à minimiser les inexactitudes, il est de la responsabilité de notre client d'examiner les productions pour détecter les erreurs, les biais et d'autres problèmes potentiels. Si des problèmes sont constatés, vous pouvez cesser d'utiliser AI Conversation. Il s'agit d'une fonctionnalité facultative du cours qui peut être utilisée la discrétion du professeur.
- Comme nous l'avons mentionné précédemment, les clients ne doivent pas utiliser d'invite pour solliciter des productions qui sortent des cas d'utilisation prévus, d'autant plus que cela pourrait entraîner des productions inexactes (p. ex. : lorsque des références ou des sources sont demandées).
- Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs et étudiants de ces éventuels risques et limites.
- Les professeurs peuvent utiliser les invites et les paramètres supplémentaires dans les workflows génératifs pour fournir plus de contexte à l'outil AI Conversation afin d'améliorer son alignement et sa précision.
- Les clients peuvent nous signaler toute sortie inexacte en utilisant les canaux répertoriés dans l'introduction de cette note.
Équité
- Les grands modèles de langage présentent intrinsèquement des risques liés aux stéréotypes, à la surreprésentation ou à la sous-représentation, et à d'autres formes de biais préjudiciables. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
- Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités d'AI Conversation de façon à éviter les cas d'utilisation les plus sujets à des biais ou pour lesquels l'impact de ces biais pourrait être plus important.
- Jeu de rôle : Les professeurs doivent être conscients que les traits de personnalité du personnage de l'IA façonnent ses réponses et ses interactions avec les étudiants, et peuvent générer des résultats pouvant présenter des stéréotypes, une surreprésentation, une sous-représentation ou d'autres biais préjudiciables. Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Veuillez consulter la description de la fonctionnalité pour plus d'informations.
- Néanmoins, il ne peut être exclu qu'une partie des sorties puisse être affectée par un biais préjudiciable. Comme décrit dans la section « Exactitude » ci-dessus, les professeurs sont invités à examiner la sortie pour contribuer à réduire ce genre de problème.
- Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs de cette limitation potentielle.
- Les clients peuvent nous signaler tout biais potentiellement préjudiciable en utilisant les canaux de contact énumérés dans l'introduction de cette note.
Confidentialité et sécurité
- Comme décrit dans la section « Faits clés » ci-dessus, une quantité limitée d'informations personnelles sont utilisées par l'outil AI Conversation et accessibles à Microsoft. Cette section décrit également notre engagement et celui de Microsoft concernant l'utilisation des données personnelles. Compte tenu de la nature de l'outil AI Conversation, les données personnelles contenues dans les productions devraient également être limitées.
- Notre produit Blackboard SaaS est certifié ISO 27001/27017/27018 et ISO 27701. Ces certifications prennent en compte la gestion des données personnelles dans le cadre des fonctionnalités l'outil AI Conversation d'Anthology. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité et de sécurité des données dans notre Trust Center.
- Microsoft décrit ses pratiques et engagements en matière de confidentialité et de sécurité des données dans la documentation sur les données, la confidentialité et la sécurité pour le service Azure OpenAI.
- Indépendamment de l'engagement d'Anthology et de Microsoft en matière de confidentialité des données et de non-utilisation des données pour entraîner et réentraîner les modèles, les clients peuvent conseiller à leurs professeurs et étudiants de ne pas inclure d'informations personnelles ni d'autres informations confidentielles dans les invites et conversations.
Sécurité
- Les grands modèles de langage présentent intrinsèquement un risque de sorties inappropriées, offensantes ou autrement dangereuses. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
- Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités d'AI Conversation pour éviter les cas d'utilisation plus sujets à des sorties dangereuses ou pour lesquels l'impact de ces sorties pourrait être plus important.
- Jeu de rôle : Les professeurs doivent être conscients que les traits de personnalité du personnage de l'IA façonnent ses réponses et ses interactions avec les étudiants, et peuvent générer des résultats inappropriés, offensants ou autrement dangereux. Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Veuillez consulter la description de la fonctionnalité pour plus d'informations.
- Néanmoins, nous ne pouvons pas exclure la possibilité de réponses dangereuses générées par la conversation d'IA. Comme décrit dans la section « Exactitude » ci-dessus, les professeurs sont priés d'examiner les productions, ce qui peut contribuer à réduire ce risque.
- Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs et étudiants de cette limitation potentielle.
- Ils sont également tenus de nous signaler toute sortie potentiellement dangereuse en utilisant les canaux énumérés dans l'introduction de cette note.
Laisser l'humain aux commandes
- Afin de minimiser le risque lié à l'utilisation de l'IA générative pour nos clients et leurs utilisateurs, nous donnons intentionnellement aux clients le contrôle des fonctionnalités de l'outil AI Conversation. AI Conversation n'est donc pas une fonctionnalité accessible par défaut. Les administrateurs doivent activer cet outil et peuvent ensuite activer chacune de ses fonctionnalités séparément. Ils peuvent également désactiver la conversation d'IA dans son ensemble ou chacune des fonctionnalités individuelles.
- La conversation d'IA n'implique aucune prise de décision automatisée qui pourrait avoir des conséquences légales ou d'autres conséquences significatives pour les apprenants ou d'autres personnes.
- Nous encourageons les clients à lire attentivement ce document, y compris les liens d'information qui y sont fournis, pour s'assurer qu'ils comprennent les capacités et les limites de l'outil de conversation d'IA et du service Azure OpenAI sous-jacent avant de l'activer dans leur environnement de production.
Alignement des valeurs
- Les grands modèles de langage comportent intrinsèquement des risques de sorties biaisées, inappropriées ou autrement non alignées avec les valeurs d'Anthology, de nos clients et des étudiants. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
- De plus, comme toute technologie servant à des fins générales, ils présentent le risque d'être utilisés pour des cas d'utilisation qui ne correspondent pas aux valeurs d'Anthology, de nos clients ou de leurs utilisateurs finaux, ou aux valeurs de la société de façon plus générale (par exemple, pour des activités criminelles, pour créer des sorties nuisibles ou autrement inappropriées).
- Compte tenu de ces risques, nous avons soigneusement conçu et mis en œuvre les fonctionnalités de notre outil AI Conversation de manière à minimiser le désalignement des productions. Nous avons également intentionnellement omis des fonctionnalités à enjeux potentiellement élevés.
- Microsoft examine également les invites et les données de sortie dans le cadre de sa fonctionnalité de filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible.
Propriété intellectuelle
- Les grands modèles de langage présentent intrinsèquement des risques de violation des droits de propriété intellectuelle. La plupart des lois sur la propriété intellectuelle dans le monde n'ont pas pleinement anticipé, et ne sont pas adaptées à l'émergence de grands modèles de langage ni à la complexité des questions qui découlent de leur utilisation. Par conséquent, il n'existe actuellement aucun cadre juridique ni orientation clairs qui traitent des questions de propriété intellectuelle et des risques qui découlent de l'utilisation de ces modèles.
- En fin de compte, il est de la responsabilité de notre client d'examiner les productions générées par AI Conversation afin d'éviter toute violation potentielle des droits de propriété intellectuelle. N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées présentent un risque élevé de générer une production qui ne respecte pas la loi en matière de propriété intellectuelle.
Accessibilité
Nous avons conçu et développé notre outil de conversation d'IA en gardant l'accessibilité à l'esprit, comme nous le faisons pour Blackboard et tous nos autres produits. Avant sa mise à disposition, nous avons délibérément amélioré l'accessibilité de la structure sémantique, de la navigation, des commandes clavier, des étiquettes, des composants personnalisés et des workflows d'images, pour ne citer que quelques domaines. Nous continuerons à accorder la priorité à l'accessibilité à mesure que nous tirerons parti de l'IA à l'avenir.
Responsabilité
- Anthology a mis en place un programme afin de garantir une utilisation légale, éthique et responsable de l'IA. Une définition claire des responsabilités en interne et un examen éthique systématique de l'IA et des fonctionnalités telles que celles fournies par la conversation d'IA sont des piliers clés du programme.
- Nous nous sommes associés à Microsoft pour tirer parti du service Azure OpenAI qui alimente AI Conversation. Microsoft s'engage depuis longtemps en faveur d'une l'utilisation éthique de l'IA.
- Il est recommandé aux clients de mettre en œuvre des politiques, des procédures internes et d'examiner les applications d'IA tierces afin de garantir leur propre utilisation légale, éthique et responsable de l'IA. Ces informations sont fournies pour encourager nos clients à examiner les productions de l'outil AI Conversation.
Plus d'informations
- L'approche éthique de l'IA d'Anthology
- Liste des fonctionnalités d'IA générative d'Anthology
- Page de Microsoft sur l'IA responsable
- Note de transparence de Microsoft pour le service Azure Vision
- Page de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure Vision