인공 지능(AI)을 합법적, 윤리적으로 책임감 있게 사용하는 것이 Anthology의 핵심 우선 순위입니다. 이에 따라 당사는 신뢰할 수 있는 AI 프로그램을 개발하고 구현했습니다. 보안 센터에서 당사의 프로그램 및 신뢰할 수 있는 AI로의 일반적인 접근 방식에 대한 정보를 찾을 수 있습니다.

당사는 신뢰할 수 있는 AI 원칙의 일환으로 투명성, 설명 가능성 및 책임을 약속합니다. 이 페이지는 클라이언트가 AI Design Assistant를 구현하는 데 필요한 투명성과 설명 가능성을 제공하기 위한 것입니다. 교육기관에서 AI Design Assistant의 기능을 활성화하기 전에 관리자가 이 페이지를 주의 깊게 검토하고 교수자가 아래의 고려 사항과 권장 사항을 알고 있는지 확인하는 것이 좋습니다.

당사에 연락하는 방법:

  • 신뢰할 수 있는 AI로의 일반적인 접근 방식 또는 이 페이지를 클라이언트에게 더 유용하게 만들 수 있는 방법에 대한 질문이나 피드백이 있는 경우 이메일([email protected])로 보내주십시오.
  • AI Design Assistant의 기능 또는 출력에 대한 질문이나 피드백이 있는 경우 클라이언트 지원 티켓을 제출해 주십시오.

AI 지원 기능

AI Design Assistant는 교수자가 새로운 코스를 만들고 설계하는 데 도움을 줍니다. 교수자에게 영감을 주고 코스를 보다 효율적으로 생성하도록 만들어졌습니다Microsoft는 AI의 윤리적 사용을 위해 오랫동안 노력해 오고 있기에 Anthology는 이 기능을 제공하기 위해 Microsoft와 파트너 관계를 맺었습니다.

AI Design Assistant는 Learn Ultra에서 다음과 같은 생성형 AI 지원 기능을 제공합니다.

  • Unsplash에서 제공하는 Learn에서 로열티 없는 이미지 서비스에 대한 키워드 생성 – 효율성을 위해 Unsplash 검색에 키워드를 제안합니다.
  • 학습 모듈 생성 – 코스 구조를 제안하여 교수자를 지원합니다.
  • 학습 모듈 이미지 생성 – 각 학습 모듈에 대한 이미지를 생성하고 제안합니다.
  • 실제 과제 생성 – 코스 컨텍스트를 사용하여 과제에 대한 제안을 제공합니다.
  • 시험 문제 및 문제 은행 생성 – 시험에서 다양한 문제를 제안하거나 Learn 문서에서 문제 은행을 구축하여 교수자에게 영감을 줍니다.
  • 토론 및 저널 생성 – 교수자에게 수업 상호 작용을 장려하는 프롬프트를 제공합니다 
  • 컨텍스트 선택기 – 선택한 코스 컨텍스트를 사용하여 많은 AI 기능에 대한 콘텐츠를 생성합니다.
  • 루브릭 생성 – 주어진 평가에 대한 구조와 기준이 포함된 채점 루브릭을 제안하여 교수자의 효율성을 높이고 학생에게 채점 투명성을 제공합니다.
  • Learn 문서 이미지 생성 – Learn 문서 내에서 사용할 이미지를 생성하여 Learn 문서를 학생들에게 시각적으로 더 매력 있어 보이게 만들 수 있습니다.

모든 기능에 대해 자세히 알아보려면 교수자용 AI Design Assistant 페이지를 방문하십시오.

이러한 기능은 Azure OpenAI Service의 제한 사항과 가용성에 따라 달라질 수 있으며 변경될 수 있습니다. 자세한 내용은 관련 릴리즈 노트를 확인하십시오.

핵심적인 사실

AI Design Assistant에 대한 질문과 답변
질문답변
어떤 기능에 AI 시스템이 사용됩니까?위에서 설명한 모든 AI Design Assistant 기능(Unsplash용 키워드 생성, 학습 모듈 생성, 시험 문제 및 문제 은행, 채점 루브릭, Learn 문서용 이미지)에 사용됩니다.
타사에서 지원하는 AI 시스템입니까?예 – AI Design Assistant는 Microsoft의 Azure OpenAI Service에서 제공합니다.
AI 시스템은 어떻게 작동합니까?

AI Design Assistant는 Microsoft의 Azure OpenAI Service를 활용하여 출력을 자동으로 생성합니다. 이는 제한된 코스 정보(예: 코스 제목, 코스 설명)를 사용하고 그에 따라 Azure OpenAI Service API를 통해 Azure OpenAI Service에 메시지를 표시함으로써 수행됩니다. 교수자는 보다 맞춤화된 출력 생성을 위해 추가 프롬프트 컨텍스트를 포함할 수 있습니다. Azure OpenAI Service는 프롬프트에 따라 출력을 생성하고 콘텐츠는 Learn 사용자 인터페이스에 표시됩니다.

Azure OpenAI Service 및 기본 OpenAI GPT 대규모 언어 모델의 작동 방식에 대한 자세한 설명은 Microsoft 투명성 노트의 소개 섹션과 해당 문서 내에 제공된 링크를 참조하십시오.

AI 시스템은 어디에서 호스팅됩니까?Anthology는 현재 여러 개의 전역 Azure OpenAI Service 인스턴스를 사용합니다. 기본 인스턴스는 미국에서 호스팅되지만 경우에 따라 캐나다, 영국 또는 프랑스 등 다른 위치의 리소스를 활용하여 클라이언트에게 Azure OpenAI Service에 대한 최상의 가용성 옵션을 제공할 수 있습니다.

AI Design Assistant에서 생성된 입력 및 모든 출력에 사용되는 클라이언트의 모든 코스 데이터는 Anthology를 통해 클라이언트의 기존 Learn 데이터베이스에 저장됩니다.
옵트인 기능입니까?예. 관리자는 Learn 관리자 콘솔에서 AI Design Assistant를 활성화해야 합니다. AI Design Assistant에 대한 설정은 빌딩 블록 범주에 있습니다. AI Design Assistant 및 Unsplash를 선택합니다. 관리자는 각 기능을 개별적으로 활성화하거나 비활성화할 수 있습니다. 또한 관리자는 필요에 따라 교수자 역할 등의 코스 역할에 AI Design Assistant 권한을 할당해야 합니다. 할당해야 하는 권한은 'Unsplash를 사용하여 이미지 검색' 및 'AI Design Assistant 사용'입니다.
AI 시스템은 어떻게 학습합니까?

Anthology는 AI Design Assistant 기능을 구동하는 대규모 언어 모델의 학습에 관여하지 않습니다. 이러한 모델은 Microsoft에서 AI Design Assistant 기능을 구동하는 Azure OpenAI Service의 일부로 학습합니다. Microsoft는 Microsoft 투명성 노트의 소개 섹션과 해당 문서 내에 제공된 링크에서 대규모 언어 모델을 학습하는 방법에 대한 정보를 제공합니다.

Anthology는 더 이상 자체 데이터 또는 클라이언트의 데이터를 사용하여 Azure OpenAI Service를 세밀하게 조정하지 않습니다.

클라이언트 데이터가 AI 시스템의 (재)학습에 사용됩니까?아니요. Microsoft는 대규모 언어 모델의 (재)학습을 위해 Azure OpenAI에 대한 입력 또는 출력을 사용하지 않기로 Anthology와의 Azure OpenAI 약관에서 계약상 약정합니다. Azure OpenAI Service의 데이터, 개인 정보 보호 및 보안에 대한 Microsoft 설명서에서도 동일한 약정이 이루어집니다.
Anthology는 AI 시스템 프로비저닝과 관련하여 개인 정보를 어떻게 사용합니까?Anthology는 AI Design Assistant와 관련하여 수집된 정보를 AI Design Assistant 제공, 유지 관리, 지원에만 사용하며 관련 법률에 따라 계약상 허가를 받은 경우에만 사용합니다. 데이터 개인 정보 보호에 대한 Anthology의 접근 방식과 관련된 자세한 내용은 보안 센터에서 확인할 수 있습니다.
타사에서 지원하는 AI 시스템의 경우 타사는 개인 정보를 어떻게 사용합니까?

제한된 코스 정보만 Azure OpenAI Service를 위해 Microsoft에 제공됩니다. 여기에는 일반적으로 개인 정보가 포함되어서는 안 됩니다(개인 정보가 코스 제목, 설명 및 유사한 코스 정보에 포함된 경우 제외). 또한 교수자가 프롬프트에 포함하기로 선택한 모든 정보에 접근할 수 있습니다. 

Microsoft는 (Azure OpenAI Service의 일부로) 접근할 수 있는 Anthology 데이터 또는 Anthology 클라이언트 데이터를 사용하여 OpenAI 모델을 개선하거나, 자체 또는 타사 제품 서비스를 개선하거나, Anthology의 리소스에서 Anthology의 사용을 위해 Azure OpenAI 모델(모델은 스테이트리스(stateless))을 자동으로 개선하지 않습니다. Microsoft는 남용 및 유해한 콘텐츠 생성을 방지하기 위해 콘텐츠 필터링에 대한 프롬프트와 출력을 검토합니다. 프롬프트와 출력은 최대 30일 동안만 저장됩니다.

 

Azure OpenAI Service의 데이터, 개인 정보 보호, 보안에 대한 Microsoft 설명서에서 Azure OpenAI Service와 관련된 데이터 개인 정보 보호 관행에 대한 자세한 내용을 확인할 수 있습니다.

AI 시스템 설계에서 접근성이 고려되었습니까?예, 당사 접근성 엔지니어는 제품 팀과 협력하여 설계를 검토하고, 중요한 접근성 고려 사항에 대해 커뮤니케이션하고, 특히 접근성을 위한 새로운 기능을 테스트했습니다. 당사는 접근성을 신뢰할 수 있는 AI 접근 방식의 필수적인 부분으로 계속 고려할 것입니다.

·

교육기관에 대한 고려 사항 및 권장 사항

케이스 사용 목적

AI Design Assistant는 위에 나열된 기능(Unsplash용 키워드 생성, 학습 모듈 생성, 시험 문제 및 문제 은행, 채점 루브릭, Learn 문서용 이미지)만 지원하도록 되어 있습니다. 이러한 기능은 클라이언트의 교수자가 Learn 내에서 코스를 만들고 설계할 수 있도록 지원하기 위해 제공됩니다.

범위를 벗어난 케이스 사용

Learn AI Design Assistant는 매우 광범위하게 케이스를 사용하는 Microsoft의 Azure OpenAI Service에서 제공하기 때문에 AI Design Assistant의 프롬프트 기능을 사용하여 의도된 기능을 넘어선 출력을 요청할 수도 있습니다. 클라이언트는 의도된 기능의 범위를 벗어난 목적으로 AI Design Assistant를 사용하지 않는 것이 좋습니다. 이렇게 하면 Learn 환경 및 부정확한 출력을 최소화하기 위해 당사가 마련한 조치에 적합하지 않거나 호환되지 않는 출력이 생성될 수 있습니다.

특히 프롬프트를 표시할 때는 아래 사항을 따라야 합니다.

  • AI Design Assistant에서 더 관련성 높은 출력(예: 의도된 코스 구조에 대한 자세한 내용 제공)을 요청하기 위한 프롬프트만 사용합니다.
  • 의도된 기능을 넘어선 출력을 요청하기 위해 프롬프트를 사용하지 마십시오. 예를 들어 프롬프트를 사용하여 출력에 대한 소스 또는 참조를 요청해서는 안 됩니다. 당사 테스트에서 이러한 출력에 정확성 문제가 있음을 확인했습니다.
  • 특정인의 스타일로 출력을 요청하거나 저작권 또는 상표가 있는 항목과 유사한 출력을 요청하면 지적 재산권 침해의 위험이 있는 출력물이 생성될 수 있습니다.
  • 민감한 주제에 대해 제안된 출력은 제한될 수 있습니다. Azure OpenAI Service는 불법적이고 유해한 콘텐츠를 최소화하는 방식으로 학습되고 구현되었습니다. 여기에는 콘텐츠 필터링 기능이 포함됩니다. 이로 인해 AI Design Assistant를 민감한 주제(예: 자해, 폭력, 증오, 성)와 관련된 코스에 사용할 때 출력이 제한되거나 오류 메시지가 표시될 수 있습니다.
  • Anthology와 교육기관 사이의 계약 약관을 위반하거나 Microsoft의 Azure OpenAI Service에 대한 행동 강령Microsoft Online Services 약관의 이용 목적 제한 방침을 위반하는 프롬프트를 사용하지 마세요.

실제로 신뢰할 수 있는 AI 원칙

Anthology와 Microsoft는 AI를 합법적, 윤리적으로 책임감 있게 사용하는 것이 핵심 우선 순위라고 생각합니다. 이 섹션에서는 AI를 합법적, 윤리적으로 책임감 있게 사용할 때 발생 가능한 위험을 해결하고 Anthology 신뢰할 수 있는 AI 원칙을 구현하기 위해 Anthology와 Microsoft가 어떻게 노력했는지 설명합니다. 또한 클라이언트가 자체 AI를 구현할 때 고려할 수 있는 단계를 제안하고 구현 시의 윤리적 AI 위험을 법적으로 검토합니다.

투명성 및 설명 가능성

  • 당사는 Learn 관리자 콘솔에서 이 기능이 AI 지원 기능임을 명확히 하는 바입니다.
  • 교수자의 사용자 인터페이스에서 AI Design Assistant 기능은 '생성' 기능으로 명시됩니다. 또한 교수자는 사용하기 전에 텍스트 출력을 검토해야 합니다. · AI Design Assistant 기능으로 생성한 출력의 메타데이터에는 자동 생성된 콘텐츠와 교수자가 이후에 콘텐츠를 수정했는지 여부에 대한 필드가 있습니다.
  • Microsoft는 AI Design Assistant 및 Azure OpenAI Service 모델의 작동 방식에 대해 이 문서에 제공된 정보 외에도 투명성 노트에서 Azure OpenAI Service에 대한 추가 정보를 제공합니다.
  • 클라이언트는 AI Design Assistant 내에서 AI 사용에 대해 투명하게 공개하고 교수자와 기타 이해 관계자에게 이 문서와 여기에 링크된 문서의 관련 정보를 적절하게 제공하는 것이 좋습니다.

신뢰성과 정확성

  • 당사는 Learn 관리자 콘솔에서 이 기능이 부정확하거나 원치 않는 출력을 생성할 수 있는 AI 지원 기능이고 이러한 출력을 항상 검토해야 함을 명확히 하는 바입니다.
  • 사용자 인터페이스에서 교수자는 텍스트 출력의 정확성을 검토해야 합니다.
  • Azure OpenAI Service 투명성 노트의 제한 사항 섹션에 자세히 설명된 대로 부정확한 출력의 위험('착각' 포함)이 있습니다. AI Design Assistant의 구체적인 특성과 그에 대한 구현은 부정확성을 최소화하도록 되어 있지만 정확성, 편파성, 그리고 기타 잠재적인 문제에 대해 출력을 검토하는 것은 클라이언트의 책임입니다.
  • 위에서 언급했듯이 클라이언트는 특히 부정확한 출력을 초래할 수 있으므로 의도된 케이스 사용을 넘어서는 출력을 요청(예: 참조 또는 소스를 요청하는 경우)하기 위해 프롬프트를 사용해서는 안 됩니다.
  • AI Design Assistant에 대한 커뮤니케이션의 일환으로 클라이언트는 교수자에게 이러한 잠재적인 제한 사항을 알려야 합니다.
  • 교수자는 생성 워크플로의 추가 프롬프트 및 설정을 사용하여 AI Design Assistant에 더 많은 컨텍스트를 제공해 조정 사항과 정확도를 개선할 수 있습니다.
  • 교수자는 Learn의 기존 워크플로를 사용하여 AI Design Assistant 출력을 학생에게 게시하기 전에 수동으로 수정할 수 있습니다.
  • 클라이언트는 소개에 나열된 채널을 사용하여 부정확한 출력을 보고할 수 있습니다.

공정성

  • 대규모 언어 모델은 본질적으로 고정 관념, 과잉/과소 표현 및 기타 형태의 유해한 편견과 관련된 위험을 내포하고 있습니다. Microsoft는 Azure OpenAI Service 투명성 노트의 제한 사항 섹션에서 이러한 위험에 대해 설명합니다.
  • 당사는 이러한 위험을 감안하여 유해한 편파성에 더 취약하거나 이러한 편파성의 영향이 더 클 수 있는 케이스 사용을 피하기 위해 AI Design Assistant 기능을 신중하게 선택했습니다.
  • 그럼에도 불구하고 일부 출력이 유해한 편파성의 영향을 받을 수 있다는 점을 배제할 수 없습니다. 위의 '정확성'에서 언급했듯이 교수자는 출력을 검토해야 하며, 이를 통해 유해한 편파성을 줄일 수 있습니다.
  • AI Design Assistant에 대한 커뮤니케이션의 일환으로 클라이언트는 교수자에게 이러한 잠재적인 제한 사항을 알려야 합니다.
  • 클라이언트는 소개에 나열된 연락 채널을 사용하여 잠재적으로 유해한 편견을 당사에 보고할 수 있습니다.

개인정보 보호 및 보안

  • 위의 '핵심적인 사실' 섹션에 설명된 대로 AI Design Assistant에는 제한된 개인 정보만 사용되며 Microsoft에서 접근할 수 있습니다. 또한 이 섹션에서는 개인 정보 사용에 대한 당사와 Microsoft의 책무에 대해 설명합니다. AI Design Assistant의 특성을 감안할 때, 생성되는 출력의 개인 정보도 제한적일 것으로 예상됩니다.
  • 당사의 Learn SaaS 제품은 ISO 27001/27017/27018 인증을 받았으며 현재 ISO 27701 인증을 받기 위해 노력하고 있습니다. 이러한 인증에는 Anthology에서 관리하는 AI Design Assistant와 관련된 개인 정보가 포함됩니다. 데이터 개인 정보 보호 및 보안에 대한 Anthology의 접근 방식에 대한 자세한 내용은 보안 센터에서 확인할 수 있습니다.
  • Microsoft는 Azure OpenAI Service에 대한 데이터, 개인 정보 보호 및 보안에 대한 설명서에서 데이터 개인 정보 보호 및 보안의 관행과 책무에 대해 설명합니다.
  • 데이터 개인 정보 보호 및 모델 (재)학습에 입력을 사용하지 않겠다는 Anthology와 Microsoft의 책무와 관계없이 클라이언트는 교수자에게 프롬프트에 개인 정보 또는 기타 기밀 정보를 포함하지 않도록 조언할 수 있습니다.

안전

  • 대규모 언어 모델은 본질적으로 부적절하거나 공격적이거나 안전하지 않을 수 있는 출력의 위험을 내포하고 있습니다. Microsoft는 Azure OpenAI Service 투명성 노트의 제한 사항 섹션에서 이러한 위험에 대해 설명합니다.
  • 당사는 이러한 위험을 감안하여 안전하지 않은 출력에 더 취약하거나 이러한 출력의 영향이 더 클 수 있는 케이스 사용을 피하기 위해 AI Design Assistant 기능을 신중하게 선택했습니다.
  • 그럼에도 불구하고 일부 출력이 안전하지 않을 수 있다는 점을 배제할 수는 없습니다. 위의 '정확성'에서 언급했듯이 교수자는 출력을 검토해야 하며, 이를 통해 안전하지 않은 출력의 위험을 더 줄일 수 있습니다.
  • AI Design Assistant에 대한 커뮤니케이션의 일환으로 클라이언트는 교수자에게 이러한 잠재적인 제한 사항을 알려야 합니다.
  • 클라이언트는 소개에 나열된 채널을 사용하여 잠재적으로 안전하지 않은 출력을 당사에 보고해야 합니다.

사람의 제어 기능

  • 클라이언트와 클라이언트의 사용자를 위한 생성형 AI 사용과 관련된 위험을 최소화하기 위해 당사는 의도적으로 클라이언트가 AI Design Assistant의 기능을 제어할 수 있도록 했습니다. 따라서 AI Design Assistant는 옵트인 기능입니다. 관리자는 AI Design Assistant를 활성화한 다음 각 기능을 개별적으로 활성화할 수 있습니다. 또한 AI Design Assistant 전체 기능 또는 각 개별 기능을 비활성화할 수도 있습니다.
  • 또한 교수자가 출력을 제어합니다. 텍스트 출력을 검토하도록 요청받으며 텍스트 출력을 수정할 수 있습니다.
  • AI Design Assistant에는 학습자 또는 다른 개인에게 법적 또는 다른 중대한 영향을 미칠 수 있는 자동화된 의사 결정이 포함되어 있지 않습니다.
  • 클라이언트는 프로덕션 환경에서 AI Design Assistant를 활성화하기 전에 AI Design Assistant 및 기본 Azure OpenAI Service의 기능과 제한 사항을 이해할 수 있도록 여기에 제공된 정보 링크를 포함하여 이 문서를 주의 깊게 검토하는 것이 좋습니다.

가치 조정

  • 대규모 언어 모델은 본질적으로 편향되거나 부적절하거나 Anthology의 가치나 클라이언트와 학습자의 가치에 맞지 않는 출력과 관련하여 위험이 있습니다. Microsoft는 Azure OpenAI Service 투명성 노트의 제한 사항 섹션에서 이러한 위험에 대해 설명합니다.
  • 또한 대규모 언어 모델(광범위한 목적을 수행하는 모든 기술과 마찬가지로)은 일반적으로 Anthology, 클라이언트 또는 클라이언트의 최종 사용자에 대한 가치와 사회의 가치에 맞지 않는 케이스 사용에 오용될 위험(예: 범죄 활동, 유해하거나 부적절한 출력 생성)을 내포하고 있습니다.
  • 이러한 위험을 감안하여 당사는 맞지 않는 출력의 위험을 최소화하는 방식으로 AI Design Assistant 기능을 신중하게 설계하고 구현했습니다. 학습자보다 교수자를 위한 기능에 중점을 둔 것을 예로 들 수 있습니다. 또한 잠재적으로 고부담이 되는 기능은 의도적으로 생략했습니다. ·
  • 또한 Microsoft는 남용 및 유해한 콘텐츠 생성을 방지하기 위해 콘텐츠 필터링 기능의 일부로 프롬프트 및 출력을 검토합니다.

지적 재산권

  • 대규모 언어 모델은 본질적으로 지적 재산권의 잠재적 침해와 관련된 위험을 내포하고 있습니다. 전 세계 대부분의 지적 재산권법은 대규모 언어 모델의 출현과 그 사용을 통해 발생하는 문제의 복잡성을 완전히 예상하거나 이에 적응하지 못했습니다. 그 결과, 현재 이러한 모델의 사용으로 인해 발생하는 지적 재산권 문제와 위험을 다루는 명확한 법적 프레임워크나 안내가 없습니다.
  • 궁극적으로 AI Design Assistant에서 생성된 출력을 검토하여 잠재적인 지적 재산권 침해에 대해 검토하는 것은 클라이언트의 책임입니다. 특정인의 스타일로 출력을 요청하거나 저작권 또는 상표가 있는 항목과 유사한 출력을 요청하는 프롬프트는 침해 위험이 높은 출력을 생성할 수 있음에 유의하십시오.

접근성

당사는 Learn 및 다른 제품에서와 마찬가지로 접근성을 염두에 두고 AI Design System을 설계하고 개발했습니다. AI Design System이 공개되기 전에 몇 가지 영역을 예로 들자면 의미 체계 구조, 탐색, 키보드 컨트롤, 레이블, 사용자 지정 구성요소 및 이미지 워크플로의 접근성을 의도적으로 개선했습니다. 앞으로도 AI를 활용하면서 계속 접근성을 우선시할 것입니다.

책임

  • Anthology에는 AI를 합법적, 윤리적으로 책임감 있게 사용하도록 설계된 신뢰할 수 있는 AI 프로그램이 있습니다. 명확한 내부 책임과 체계적인 윤리적 AI 검토 또는 AI Design Assistant에서 제공하는 것과 같은 기능은 이 프로그램의 핵심 축입니다.
  • 당사는 AI Design Assistant를 제공하기 위해 Microsoft와 파트너로 협력하여 AI Design Assistant를 구동하는 Azure OpenAI Service를 활용했습니다. Microsoft는 AI의 윤리적 사용을 위해 오랫동안 노력해 왔습니다.
  • 클라이언트는 AI를 합법적, 윤리적으로 책임감 있게 사용할 수 있도록 타사 AI 애플리케이션에 대한 내부 정책, 절차, 검토를 구현할 것을 고려해야 합니다. 이 정보는 AI Design Assistant에 대한 클라이언트의 검토를 지원하기 위해 제공됩니다.

추가 정보