AI Conversation — 透明度说明

合乎法律、合乎道德和负责任地使用人工智能 (AI) 是 Anthology 的首要任务。因此,我们制定并实施了 Trustworthy AI 计划。您可以在我们的信任中心找到有关我们的计划和 Trustworthy AI 一般方法的信息。您可以在我们的生成式 AI 功能列表中找到包含生成式 AI 的 Anthology 解决方案的概述。

作为我们 Trustworthy AI 原则的一部分,我们致力于透明度、可解释性和问责制。本页面旨在提供必要的透明度和可解释性,以帮助我们的客户实施 AI 对话。我们建议管理员在为机构激活 AI 对话的功能之前,仔细阅读此页面并确保教师了解以下注意事项和建议。

如何联系我们:

  • 如果对于 Trustworthy AI 的一般方法或如何使本页面对客户更有帮助有任何疑问或反馈,请发送电子邮件至 [email protected]
  • 有关 AI 对话的功能或输出的问题或反馈,请提交客户支持工单。

最后更新时间:2024 年 11 月 1 日


AI 辅助功能

AI 对话

AI 对话专门设计为一种新的互动式活动,供学生积极参与。教师可以在其课程中创建 AI 对话,概述主题和 AI 角色,并能够选择学生要参与的对话类型。在 AI 对话功能中,教师可以在以下两个选项之间进行选择:苏格拉底式提问 - AI 角色通过持续提问鼓励学生进行批判性思考;角色扮演 - 允许学生使用 AI 角色来演绎场景。

苏格拉底式提问

这是一种引导式提问活动或苏格拉底式练习。AI 角色不会确认或拒绝任何学生的回答,但会通过一系列问题与学生互动。在对话结束时,学生对活动进行反思,突出他们在学习中的不足或优势,或者指出 AI 机器人是否表现出偏见、幻觉或不准确。提交后,教师将收到对话和反思的文字记录,使互动完全透明。这是无需进行 1:1 的个人对话就围绕课程主题展开发人深省的对话的好方法,1:1 的个人对话对于更大或更复杂的课程来说很难实现。

AI 对话使教师能够使用生成式 AI 为 AI 对话角色生成图像。

这些功能受 Azure OpenAI Service 的限制和可用性的约束,并且可能会发生变化。有关详细信息,请查看相关发行说明。

角色扮演

通过角色扮演功能,教师可以为 AI 角色和学生定义特定角色,从而为学生设置模拟对话。此交互式选项使学生可以在现实场景中练习沟通技巧,并提供主动学习机会,从而增强学习和培训体验。角色扮演功能具有可自定义的 AI 角色个性特点和上下文提示,可促进有吸引力的动态交流、丰富整个学习过程并鼓励批判性思维。

教师可以通过为 AI 角色分配名称和图像来自定义该角色。他们还可以定义 AI 角色的个性特点,并选择其响应的复杂性。在此“角色扮演”选项中分配给 AI 角色的个性特点会为其响应和互动赋予特色。

请注意:教师应仔细选择个性特点并预览模拟对话,因为个性特点会显著影响对话的语气和内容。例如,如果教师将 AI 角色设置为温暖和善解人意,则 AI 角色将根据这些特点进行响应。如果教师将 AI 角色设置为有争议或有偏见,则 AI 角色的输出很可能会有争议或有偏见。AI 角色也不会总是质疑学生有争议、有偏见或危险的想法。

作为此功能测试的一部分,Anthology 审查并讨论了这些输出,以确定是否应限制该功能以避免任何有偏见或不适当的输出。我们的结论是,总的来说,机构和教师应该有学术自由,让学生参与可能有争议或偏见的模拟对话。同时,我们知道 AI 角色应该能够生成的输出是有限的。因此,教师对 AI 对话的输出以及学生将通过角色扮演功能遇到的对话最终负责。在我们的测试中,OpenAI、Microsoft 和 Anthology 实施的现有防护阻止了任何非法或其他不符合我们 Trustworthy AI 标准的输出。我们将继续监控此功能以及任何相关的客户反馈,以确保我们可以对此功能进行必要的更改,以满足我们的 Trustworthy AI 标准。

AI 对话功能受 Azure OpenAI Service 的限制和可用性的约束,并且可能会发生变化。有关详细信息,请查看相关发行说明。


关键事实

有关 Anthology AI 方法的问答表
问题回答
哪些功能使用 AI 系统?

AI 为角色生成的图像(如上所述)

AI 对话功能(如上所述)。

这是第三方支持的 AI 系统吗?是的 - AI 对话和 AI 生成的图像由 Microsoft 的 Azure OpenAI Service 提供支持。
AI 系统如何工作?

AI 对话利用 Microsoft 的 Azure OpenAI Service 自动生成输出。这是通过使用教师在 Socratic 或“角色扮演”选项中提供的信息来实现的,例如主题、AI 角色、个性特点和复杂性,以及我们用来促进响应的提示。

有关 Azure OpenAI Service 和底层 OpenAI GPT 大型语言模型具体工作方式的说明,请参阅 Microsoft 透明度说明的简介部分以及其中提供的链接。

AI 系统托管在哪里?

Anthology 目前使用多个全局 Azure OpenAI Service 实例。主实例托管在美国,但有时我们可能会利用其他位置(如加拿大、英国或法国)的资源,为我们的客户提供 Azure OpenAI Service 的最佳可用性选项。

Anthology 会将用于输入的所有客户课程数据和教师输入以及 AI 对话生成的所有输出存储在客户的现有 Blackboard 数据库中。

这是一个可选功能吗?是。管理员需要在 Blackboard 管理控制台中激活 AI 对话。AI 对话的设置位于 Building Block 类别中。选择 AI 对话和 Unsplash。管理员可以分别激活或停用每个功能。管理员还应根据需要为课程角色(如教师角色)分配“使用 AI Design Assistant”权限。
如何训练 AI 系统?

Anthology 不参与为 AI 对话功能提供支持的大型语言模型训练。这些模型由 OpenAI/Microsoft 训练,它们是为 AI 对话功能提供支持的 Azure OpenAI Service 的一部分。Microsoft 在 Microsoft 的透明度说明的简介部分以及其中提供的链接中提供了有关如何训练大型语言模型的信息。

Anthology 不会使用我们自己或客户的数据进一步微调 Azure OpenAI Service。

客户数据是否用于(再)训练 AI 系统?不。Microsoft 在与 Anthology 签订的 Azure OpenAI 条款中承诺,不会将 Azure OpenAI 的任何输入或输出用于大型语言模型的(再)训练。有关 Azure OpenAI Service 的数据、隐私和安全性,Microsoft 文档中也做出了相同的承诺
在配置 AI 系统时,Anthology 如何使用个人信息?在根据适用法律获得合同许可的情况下,Anthology 仅将所收集的与 AI 对话相关的信息用于提供、维护和支持 AI 对话。您可以在我们的信任中心找到更多有关 Anthology 数据隐私保护方法的信息。
如果是第三方支持的人工智能系统,第三方将如何使用个人信息?

对于 Azure OpenAI Service,只向 Microsoft 提供了有限的课程信息。这通常不应包括个人信息(除非个人信息包含在主题、AI 角色或个性字段中,或者包含在学生对 AI 机器人的问题和回答中)。此外,教师选择包含在提示中的任何信息都可访问。

Microsoft 不会使用任何 Anthology 数据或其可访问的 Anthology 客户数据(作为 Azure OpenAI Serivce 一部分)来改进 OpenAI 模型、改进其自身或第三方产品服务,也不会自动改进 Azure OpenAI 模型供 Anthology 在 Anthology 资源中使用。模型是无状态的。Microsoft 会审查提示和输出以进行内容筛选。提示和输出最多只能存储 30 天。

有关 Azure OpenAI Service 的数据隐私惯例的更多信息,请参阅 Microsoft 文档 Azure OpenAI Service 的数据、隐私和安全

在 AI 系统的设计中是否考虑了无障碍访问?是的,我们的无障碍访问工程师与产品团队合作,审查设计,传达重要的无障碍访问注意事项,并专门测试新的无障碍功能。我们将继续将无障碍访问视为我们 Trustworthy AI 方法的一个组成部分。

 


适用于机构的注意事项和建议

预期用例

AI 对话仅用于支持上面列出的功能。这些功能提供给我们客户的教师和学生,旨在通过 AI 支持的活动提升学生的学习体验。

超出范围的用例

由于 AI 对话由 Microsoft 提供支持,该服务具有非常广泛的用例,因此可以使用 AI 对话中的提示功能来请求超出预期功能的输出。我们强烈建议客户不要将 AI 对话用于超出其预期功能范围的任何目的。这样做可能会导致产生不适合或不符合 Blackboard 环境的输出,以及我们为尽量减少不准确输出而采取的措施。

特别是,在提供提示时应遵循以下几点:

  • 仅使用旨在促进针对 AI 对话所分配主题开展的对话的提示。例如,响应 AI 机器人的问题和提示,或向 AI 机器人询问有关所分配主题的问题。
  • 不要使用提示来请求超出预期功能的输出。例如,不应使用提示请求输出的来源或引用。在我们的测试中,我们确定此类输出存在准确性问题。
  • 请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出内容有侵犯知识产权的风险。
  • 敏感主题的建议输出可能有限。Azure OpenAI Service 已经过训练和实施,旨在最大程度地减少非法和有害内容。这包括内容过滤功能。当 AI 对话用于与敏感话题(如自残、暴力、仇恨或性)相关的课程时,这可能会导致有限的输出或错误信息。请勿使用违反贵机构与 Anthology 的协议条款或违反 Microsoft 的 Azure OpenAI Service 行为准则和 Microsoft 在线服务条款中的可接受使用政策的提示。

对于角色扮演:教师应仔细选择个性特点并预览模拟对话,因为个性特点会显著影响对话的语气和内容。有关详细信息,请参阅上面的功能说明。


实践中的 Trustworthy AI 原则

Anthology 认为,合法、合乎道德和负责任地使用 AI 是一个关键的优先事项。本节介绍 Anthology 和 Microsoft 如何努力应对 AI 的法律、道德和负责任使用方面的可能风险,以及如何实施 Anthology Trustworthy AI 原则。它还建议我们的客户在实施自己的 AI 道德风险审查时可以采取的步骤。


透明度和可解释性

  • 我们在 Blackboard 管理员控制台中明确指出,AI 对话是一项 AI 辅助功能
  • 在教师用户界面中,AI 对话功能明确标记为 AI 功能。教师具有预览功能,可在将对话设为对学生可用之前试用对话。
  • 除了本文档中提供的有关 AI 对话和 Azure OpenAI Service 模型如何工作的信息外,Microsoft 还在其透明度说明中提供了有关 Azure OpenAI Service 的其他信息。
  • 我们鼓励客户对 AI 对话中 AI 的使用保持透明,并酌情向其指导教师、学生和其他利益相关者提供本文档和链接文档中的相关信息。

可靠性和准确性

  • 我们在 Blackboard 管理员控制台中明确指出,AI 对话这是一项 AI 辅助功能,可能会产生不准确或不受欢迎的输出,因此应始终对此类输出进行审查。
  • 在用户界面中,进行预览的教师和使用 AI 对话的学生都会被告知,响应是由 AI 生成的,因此可能存在偏差或不准确。
  • 角色扮演:教师应意识到,AI 角色的个性特点会为其对学生的回应和互动赋予特色,并可能影响输出的可靠性和准确性(包括增加虚幻风险)。教师应仔细选择个性特点并预览对话。有关详细信息,请参见功能描述。
  • 正如 Azure OpenAI Service 透明度说明的限制部分所详述的,存在输出不准确(包括虚幻)的风险。虽然 AI 对话的特殊性质和我们的实施旨在最大限度地减少不准确性,但客户有责任审查输出的准确性、偏差和其他潜在问题。如果存在顾虑,则无需让学生使用 AI 对话。这是课程的可选功能,由教师自行决定。
  • 如上所述,客户不应使用提示来要求超出预期用例的输出,特别是这可能导致不准确的输出(例如,要求提供参考文献或资料来源)。
  • 作为他们关于 AI 对话的沟通的一部分,客户应让其教师和学生了解这些潜在限制和风险。
  • 教师可以使用生成式工作流中的附加提示和设置,为 AI 对话提供更多的上下文,以提高一致性和准确性。
  • 客户可通过此说明简介部分中列出的渠道向我们报告任何不准确的输出。

公平性

  • 大型语言模型本身就存在定型观念、代表性过高/过低以及其他形式有害偏见的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
  • 考虑到这些风险,我们谨慎选择了 AI 对话的功能,以避免可能更容易产生有害偏见或这种偏见的影响可能更大的用例。
  • 角色扮演:教师应意识到,AI 角色的个性特点会为其对学生的回应和互动赋予特色,并可能生成包含定型观念、代表性过高/过低以及其他形式有害偏见的输出。教师应仔细选择个性特点并预览对话。有关详细信息,请参见功能描述。
  • 尽管如此,不能排除某些输出可能会受到有害偏见的影响。如上文“准确性”下所述,会要求教师审查活动,这有助于减少任何有害的偏见。
  • 作为他们关于 AI 对话的沟通的一部分,客户应让其教师了解这一潜在限制。
  • 客户可以使用此说明简介中列出的联系渠道,向我们报告任何可能有害的偏见。

隐私和安全

  • 如上文“关键事实”部分所述,只有有限的个人信息用于 AI 对话,并且 Microsoft 可以访问这些信息。本节还描述了我们和 Microsoft 在使用任何个人信息方面的承诺。鉴于 AI 对话的性质,预计生成输出中的个人信息也会受到限制。
  • 我们的 Blackboard SaaS 产品已获得 ISO 27001/27017/27018 和 ISO 27701 认证。这些认证包括由 Anthology 管理的与 AI 对话相关的个人信息。您可以在我们的信任中心找到更多有关 Anthology 数据隐私和保护方法的信息。
  • Microsoft 在有关 Azure OpenAI Service 的数据、隐私和安全性的文档中介绍了其数据隐私和安全做法和承诺。
  • 尽管 Anthology 和 Microsoft 承诺保护数据隐私,不使用输入信息对模型进行再训练,但客户可能仍希望建议他们的教师和学生不要在提示或对话中包含任何个人信息或其他机密信息。

安全

  • 大型语言模型本身存在输出可能不恰当、令人反感或不安全的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
  • 鉴于这些风险,我们精心选择了 AI 对话功能,以避免可能更容易产生不安全输出或这种输出的影响可能更大的用例。
  • 角色扮演:教师应意识到,AI 角色的个性特点会为其对学生的回应和互动赋予特色,并可能生成被视为不合适、冒犯性或不安全的输出。教师应仔细选择个性特点并预览对话。有关详细信息,请参见功能描述。
  • 尽管如此,不能排除部分 AI 对话输出可能不安全的情况。如上文“准确性”部分所述,需要教师检查输出,这可以进一步帮助降低不安全输出的风险。
  • 作为他们关于 AI 对话的沟通的一部分,客户应让其教师和学生了解这一潜在限制。
  • 客户应使用此说明简介中列出的渠道向我们报告任何潜在的不安全输出。

人类掌控

  • 为了将客户及其用户使用生成式 AI 的风险降至最低,我们有意让客户控制 AI 对话的功能。因此,AI 对话是一项选择加入功能。管理员必须激活 AI 对话,然后才能单独激活每个功能。他们还可以停用整个 AI 对话或每个单独的功能。
  • AI 对话不包括任何可能对学生或其他个人产生法律或其他重大影响的自动决策。
  • 我们鼓励客户在生产环境中激活 AI 对话之前,仔细阅读本文档,包括其中提供的信息链接,以确保他们了解 AI 对话和底层 Azure OpenAI Service 的功能和限制。

价值观一致

  • 大型语言模型本身就有风险,其输出结果可能有偏差、不恰当或与 Anthology 的价值观或我们的客户和学生的价值观不一致。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
  • 此外,大型语言模型(就像每种具有广泛用途的技术一样)有可能被滥用于不符合 Anthology、我们的客户或其最终用户以及更广泛的社会价值观的用例(例如,用于犯罪活动、创造有害或不适当的输出)。
  • 考虑到这些风险,我们精心设计并实施了 AI 对话的功能,以最大限度地降低输出不当和错位的风险。我们还有意去掉了潜在的高风险功能。
  • 作为内容过滤功能的一部分,Microsoft 还会对提示和输出进行审查,以防止滥用和有害内容生成

知识产权

  • 大型语言模型本身就存在侵犯知识产权的风险。对于大型语言模型的出现以及使用这些模型所产生的复杂问题,全球大多数知识产权法都没有充分预料到,也没有加以调整。因此,目前还没有明确的法律框架或指南来解决使用这些模型所产生的知识产权问题和风险。
  • 最终,我们的客户有责任审查该 AI 对话生成的输出,以确定是否存在任何潜在的知识产权侵权行为。请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出的内容具有更高的侵权风险。

无障碍访问

我们在设计和开发 AI 对话时考虑到了无障碍访问,就像我们在 Blackboard 和其他产品中所做的那样。在发布 AI 对话之前,我们有针对性地改进了语义结构、导航、键盘控制、标签、自定义组件和图像工作流程等方面的无障碍访问。在未来利用 AI 时,我们将继续优先考虑无障碍访问。


问责制

  • Anthology 推出 Trustworthy AI 计划,旨在确保合法、合乎道德和负责任地使用人工智能。明确的内部问责制和系统的 AI 伦理审查或功能(如 AI 对话提供的功能)是该计划的关键支柱。
  • 为了提供 AI 对话,我们与 Microsoft 合作,利用 Azure OpenAI Service 为 AI 对话提供支持。Microsoft 长期致力于对 AI 的合乎道德的使用
  • 客户应考虑实施内部政策、程序和对第三方 AI 应用的审查,以确保自己合法、合乎道德和负责任地使用 AI。提供此信息是为了支持我们的客户对 AI 对话的审查。

更多信息