合乎法律、合乎道德和负责任地使用人工智能 (AI) 是 Anthology 的首要任务;因此,我们制定并实施了值得信赖的Trustworthy AI 计划。您可以在我们的信任中心找到有关我们的计划和 Trustworthy AI 一般方法的信息。

作为我们 Trustworthy AI 原则的一部分,我们致力于透明度、可解释性和问责制。本页面旨在提供必要的透明度和可解释性,以帮助我们的客户实施 AI Design Assistant。我们建议您在为机构激活 AI Design Assistant 的功能之前,仔细阅读此页面并确保教师了解以下注意事项和建议。

如何联系我们:

  • 如果对于 Trustworthy AI 的一般方法或如何使本页面对客户更有帮助有任何疑问或反馈,请发送电子邮件至 [email protected]
  • 有关 AI Design Assistant 的功能或输出的问题或反馈,请提交客户支持工单。

人工智能辅助功能

AI Design Assistant 可帮助教师创建和设计新课程。它旨在激励教师并提高课程创建效率Anthology 与 Microsoft 合作提供此功能,主要是因为 Microsoft 长期以来一直致力于合乎道德地使用 AI

AI Design Assistant 在 Learn Ultra 中提供以下生成式 AI 辅助功能:

  • 在 Learn 中为 Unsplash 提供的免版税图片服务生成关键字 – 向 Unsplash 搜索推荐关键字,以提高效率。
  • 生成学习模块 – 通过建议课程结构为教师提供帮助。
  • 生成学习模块图像 – 为每个学习模块创建图像并提出建议。
  • 生成测试问题和题库 – 通过在测试中建议一系列问题或从 Learn 文档构建题库,激发教师的灵感。
  • 生成评分量规 – 针对给定评估,建议具有结构和标准的评分量规,从而提高教师效率并向学生提供评分透明度。
  • 生成 Learn 文档图像 – 生成可在 Learn 文档中使用的图像,使 Learn 文档在视觉上更吸引学生。

这些功能受 Azure OpenAI 服务的限制和可用性的约束,并且可能会发生变化。有关详细信息,请查看相关发行说明。

关键事实

有关 AI Design assistant 的问题和解答
问题答案
哪些功能使用 AI 系统?上述所有 AI Design Assistant 功能(Unsplash 的关键字生成、学习模块的生成、测试问题和题库、评分量规、Learn 文档的图像)。
这是第三方支持的 AI 系统吗?是 – AI Design Assistant 由 Microsoft 的 Azure OpenAI 服务提供支持。
人工智能系统如何工作?

AI Design Assistant 利用 Microsoft 的 Azure OpenAI Azure OpenAI Service 自动生成输出。这是通过使用有限的课程信息(如课程标题、课程描述)并通过 Azure OpenAI Service API 相应地提示 Azure OpenAI Service 来实现的。教师可以包含其他提示上下文,以便生成更量身定制的输出。Azure OpenAI Service 根据提示生成输出,内容显示在 Learn 用户界面中。

有关 Azure OpenAI Service 和底层 OpenAI GPT 大型语言模型如何详细工作的说明,请参阅 Microsoft 透明度说明的简介部分以及其中提供的链接。

AI 系统托管在哪里?Anthology 目前使用多个全局 Azure OpenAI Service 实例。主实例托管在美国,但有时我们可能会利用其他位置(如加拿大、英国或法国)的资源,为我们的客户提供 Azure OpenAI Service 的最佳可用性选项。

用于输入的所有客户课程数据和 AI Design Assistant 生成的所有输出,都存储在 Anthology 的客户现有 Learn 数据库中。
这是一个可选功能吗?是的。管理员需要在 Learn 管理控制台中激活 AI Design Assistant。AI Design Assistant 的设置位于 Building Block 类别中。选择 AI Design Assistant 和 Unsplash。管理员可以分别激活或停用每个功能。管理员还应根据需要为课程角色(如教师角色)分配 AI Design Assistant 权限。需要分配的权限是“使用 Unsplash 搜索图像”和“使用 AI Design Assistant”。
如何训练 AI 系统?

Anthology 不参与为 AI Design Assistant 功能提供支持的大型语言模型训练。这些模型由 Microsoft 训练,作为 Azure OpenAI Service 的一部分,为 AI Design Assistant 功能提供支持。Microsoft 在 Microsoft 的透明度说明的“简介”部分以及其中提供的链接中提供了有关如何训练大型语言模型的信息。

Anthology 不会使用我们自己或客户的数据进一步微调 Azure OpenAI Service。

客户数据是否用于(再)训练 AI 系统?不。Microsoft 在与 Anthology 签订的 Azure OpenAI 条款中承诺,不会将 Azure OpenAI 的任何输入或输出用于大型语言模型的(再)训练。有关 Azure OpenAI Service 的数据、隐私和安全性,Microsoft 文档中也做出了相同的承诺
在配置 AI 系统时,Anthology 如何使用个人信息?在根据适用法律获得合同许可的情况下,Anthology 仅将所收集的与 AI Design Assistant 相关的信息用于提供、维护和支持 AI Design Assistant。您可以在我们的信任中心找到更多有关 Anthology 数据隐私保护方法的信息。
如果是第三方支持的人工智能系统,第三方将如何使用个人信息?

对于 Azure OpenAI Service,只向 Microsoft 提供了有限的课程信息。这通常不应包括个人信息(除非个人信息包含在课程标题、描述和类似的课程信息中)。此外,教师选择包含在提示中的任何信息都可访问。

Microsoft 不会使用(作为 Azure OpenAI Serivce 一部分)任何 Anthology 数据或其可访问的 Anthology 客户数据来改进 OpenAI 模型、改进其自身或第三方产品服务,也不会自动改进 Azure OpenAI 模型供 Anthology 在 Anthology 资源中使用(模型是无状态的)。Microsoft 会审核内容过滤的提示和输出,以防止滥用和有害内容生成。提示和输出最多只能存储 30 天。

 

有关 Azure OpenAI Service 的数据隐私惯例的更多信息,请参阅 Microsoft 文档 Azure OpenAI Service 的数据、隐私和安全

在人工智能系统的设计中是否考虑了无障碍访问?是的,我们的无障碍访问工程师与产品团队合作,审查设计,传达重要的无障碍访问注意事项,并专门测试新的无障碍功能。我们将继续将无障碍访问视为我们 Trustworthy AI 方法的一个组成部分。

·

适用于机构的注意事项和建议

预期用例

AI Design Assistant 仅用于支持上面列出的功能(Unsplash 的关键字生成、学习模块的生成、测试问题和题库、评分量规、Learn 文档的图像)。这些功能提供给我们客户的教师,旨在支持他们在 Learn 中创建和设计课程。

超出范围的用例

由于 Learn AI Design Assistant 由 Microsoft 的 Azure OpenAI Service 提供支持,该服务具有非常广泛的用例,因此可以使用 AI Design Assistant 中的提示功能来要求超出预期功能的输出。我们强烈建议客户不要将 AI Design Assistant 用于超出其预期功能范围的任何目的。这样做可能会导致产生不适合或不符合学习环境的输出,以及我们为尽量减少不准确输出而采取的措施。

提示时尤其要注意以下几点:

  • 只使用旨在从 AI Design Assistant 中获取更多相关输出的提示(例如,提供有关预期课程结构的更多详细信息)
  • 不要使用提示来请求超出预期功能的输出。例如,不应使用提示请求输出的源或引用。在我们的测试中,我们确定此类输出存在准确性问题。
  • 请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出内容有侵犯知识产权的风险。
  • 敏感主题的建议输出可能有限。Azure OpenAI Service 已经过训练和实施,旨在最大程度地减少非法和有害内容。这包括内容过滤功能。当 AI Design Assistant 用于与敏感话题(如自残、暴力、仇恨、性)相关的课程时,这可能会导致有限的输出或错误信息。
  • 请勿使用违反贵机构与 Anthology 的协议条款或违反 Microsoft 的Azure OpenAI Service 行为准则Microsoft 在线服务条款中的可接受使用政策的提示。

实践中的 Trustworthy AI 原则

Anthology 和 Microsoft 认为,合法、合乎道德和负责任地使用人工智能是一个关键的优先事项。本节介绍 Anthology 和 Microsoft 如何努力应对人工智能的法律、道德和负责任使用方面的可能风险,以及如何实施 Anthology Trustworthy AI 原则。它还建议我们的客户在实施自己的人工智能时以及对实施过程中的人工智能道德风险进行法律审查时可以采取的步骤。

透明度和可解释性

  • 我们在 Learn 管理员控制台中明确指出,这是一项人工智能辅助功能
  • 在教师用户界面中,AI Design Assistant 功能明确标记为“生成”功能。此外,还要求教师在使用前审查文本输出。在 AI Design Assistant 功能创建的输出元数据中,有一个字段用于显示自动生成的内容以及教师是否随后对内容进行了编辑。
  • 除了本文档中提供的有关 AI Design Assistant 和 Azure OpenAI Service 模型如何工作的信息外,Microsoft 还在其透明度说明中提供了有关 Azure OpenAI Service 的其他信息。
  • 我们鼓励客户对 AI Design Assistant 中人工智能的使用保持透明,并酌情向其指导教师和其他利益相关者提供本文档和链接文档中的相关信息。

可靠性和准确性

  • 我们在 Learn 管理员控制台中明确指出,这是一项 AI 辅助功能,可能会产生不准确或不受欢迎的输出,因此应始终对此类输出进行审查。
  • 在用户界面中,会要求教师检查输出的文本是否准确。
  • 正如 Azure OpenAI Service 透明度说明的限制部分所详述的,存在输出不准确(包括“虚幻”)的风险。虽然 AI Design Assistant 的特殊性质和我们的实施旨在最大限度地减少不准确性,但客户有责任审查输出的准确性、偏差和其他潜在问题。
  • 如上所述,客户不应使用提示来要求超出预期用例的输出,特别是这可能导致不准确的输出(例如,要求提供参考文献或资料来源)。
  • 作为他们关于 AI Design Assistant 的沟通的一部分,客户应让其教师了解这一潜在限制。
  • 教师可以使用生成式工作流中的附加提示和设置,为 AI Design Assistant 提供更多的上下文,以提高一致性和准确性。
  • 教师可以使用 Learn 中的现有工作流程,在向学生发布输出之前手动编辑 AI Design Assistant 的输出。
  • 客户可通过简介部分中列出的渠道向我们报告任何不准确的输出。

公平

  • 大型语言模型本身就存在定型观念、代表性过高/过低以及其他形式有害偏见的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
  • 考虑到这些风险,我们谨慎选择了 AI Design Assistant 的功能,以避免可能更容易产生有害偏见或这种偏见的影响可能更大的用例。
  • 尽管如此,不能排除某些输出可能会受到有害偏见的影响。如上文“准确性”下所述,会要求教师审查输出,这有助于减少任何有害的偏见。
  • 作为他们关于 AI Design Assistant 的沟通的一部分,客户应让其教师了解这一潜在限制。
  • 客户可以使用简介中列出的联系渠道向我们报告任何可能有害的偏见。

隐私和安全

  • 如上文“关键事实”部分所述,只有有限的个人信息用于 AI Design Assistant,Microsoft 可以访问这些信息。本节还描述了我们和 Microsoft 在使用任何个人信息方面的承诺。鉴于 AI Design Assistant 的性质,预计生成输出中的个人信息也会受到限制。
  • 我们的 Learn SaaS 产品已通过 ISO 27001/27017/27018 认证,目前正在努力获得 ISO 27701 认证。这些认证将包括由 Anthology 管理的与 AI Design Assistant 相关的个人信息。您可以在我们的信任中心找到更多有关 Anthology 数据隐私和保护方法的信息。
  • Microsoft 在有关 Azure OpenAI Service 的数据、隐私和安全性的文档中介绍了其数据隐私和安全做法和承诺。
  • 尽管 Anthology 和 Microsoft 承诺保护数据隐私,不使用输入信息对模型进行(再)培训,但客户可能仍希望建议他们的教师不要在提示中包含任何个人信息或其他机密信息。

安全

  • 大型语言模型本身存在输出可能不恰当、令人反感或不安全的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中描述了这些风险。
  • 鉴于这些风险,我们精心选择了 AI Design Assistant 功能,以避免可能更容易产生不安全输出或这种输出的影响可能更大的用例。
  • 尽管如此,不能排除某些输出可能是不安全的。如上文“准确性”部分所述,需要教师检查输出,这可以进一步帮助降低不安全输出的风险。
  • 作为他们关于 AI Design Assistant 的沟通的一部分,客户应让其教师了解这一潜在限制。
  • 客户应使用简介中列出的渠道向我们报告任何潜在的不安全输出。

人类掌控一切

  • 为了将客户及其用户使用生成式人工智能的风险降至最低,我们有意让客户控制 AI Design Assistant 的功能。因此,AI Design Assistant 是一项可选功能。管理员必须激活 AI Design Assistant,然后才能单独激活每个功能。他们还可以停用整个 AI Design Assistant 或每个单独的功能。
  • 此外,教师还可以控制输出。系统会要求教师查看文本输出,并且可以编辑文本输出。
  • AI Design Assistant 不包括任何可能对学习者或其他个人产生法律或其他重大影响的自动决策。
  • 我们鼓励客户在生产环境中激活 AI Design Assistant 之前,仔细阅读本文档,包括其中提供的信息链接,以确保他们了解 AI Design Assistant 和底层 Azure OpenAI Service 的功能和限制。

值对齐

  • 大型语言模型本身就有风险,其输出结果可能有偏差、不恰当或与 Anthology 的价值观或我们的客户和学习者的价值观不一致。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
  • 此外,大型语言模型(就像每种具有广泛用途的技术一样)通常都有可能被滥用于不符合 Anthology、我们的客户或其最终用户以及更广泛的社会价值观的用例(例如,用于犯罪活动、创造有害或不适当的输出)。
  • 考虑到这些风险,我们精心设计并实施了 AI Design Assistant 的功能,以最大限度地降低输出不当和错位的风险。例如,我们专注于面向教师而不是学员的功能。我们还有意去掉了潜在的高风险功能。
  • 作为内容过滤功能的一部分,Microsoft 还会对提示和输出进行审查,以防止滥用和有害内容生成

知识产权

  • 大型语言模型本身就存在侵犯知识产权的风险。对于大型语言模型的出现以及使用这些模型所产生的复杂问题,全球大多数知识产权法都没有充分预料到,也没有加以调整。因此,目前还没有明确的法律框架或指南来解决使用这些模型所产生的知识产权问题和风险。
  • 最终,我们的客户有责任审查该 AI Design Assistant 生成的输出,以确定是否存在任何潜在的知识产权侵权行为。请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出的内容具有更高的侵权风险。

无障碍访问

我们在设计和开发 AI Design System 时考虑到了无障碍访问,就像我们在 Learn 和其他产品中所做的那样。在发布 AI Design System 之前,我们有针对性地改进了语义结构、导航、键盘控制、标签、自定义组件和图像工作流程等方面的无障碍访问。在未来利用 AI 时,我们将继续优先考虑无障碍访问。

责任性

  • Anthology 推出 Trustworthy AI 计划,旨在确保合法、合乎道德和负责任地使用人工智能。明确的内部问责制和系统的人工智能伦理审查或功能(如 AI Design Assistant 提供的功能)是该计划的关键支柱。
  • 为了提供 AI Design Assistant ,我们与 Microsoft 合作,利用 Azure OpenAI Service 为 AI Design Assistant 提供支持。Microsoft 长期致力于人工智能的道德应用
  • 客户应考虑实施内部政策、程序和对第三方人工智能应用的审查,以确保自己合法、合乎道德和负责任地使用人工智能。提供此信息是为了支持我们的客户对 AI Design Assistant 的审查。

其他信息