Der rechtmäßige, ethische und verantwortungsvolle Einsatz von künstlicher Intelligenz (KI) hat für Anthology höchste Priorität. Aus diesem Grund haben wir ein Programm für vertrauenswürdige KI entwickelt und implementiert. Informationen zu unserem Programm und dem allgemeinen Ansatz für vertrauenswürdige KI finden Sie in unserem Trust Center; weitere Informationen zu generativen KI-Funktionen in unserer Liste generativer KI-Funktionen.

Im Rahmen unserer Prinzipien für vertrauenswürdige KI verpflichten wir uns zu Transparenz, Erklärbarkeit und Rechenschaftspflicht. Diese Seite soll die notwendige Transparenz und Erklärungen bereitstellen, um unseren Kunden bei der Implementierung des KI-Alternativtext-Assistenten zu helfen. Wir empfehlen Administratoren, diese Seite sorgfältig zu lesen und sicherzustellen, dass die Kursleiter die folgenden Überlegungen und Empfehlungen kennen, bevor sie die Funktionen des KI-Alternativtext-Assistenten für Ihre Institution aktivieren.

So erreichen Sie uns:

  • Wenn Sie Fragen oder Feedback zu unserem allgemeinen Ansatz für vertrauenswürdige KI haben oder vorschlagen möchten, wie wir diese Seite für unsere Kunden hilfreicher gestalten können, senden Sie uns bitte eine E-Mail an [email protected].
  • Wenn Sie Fragen oder Feedback zur Funktionalität oder Ausgabe des KI-Alternativtext-Assistenten haben, senden Sie ein Kundensupport-Ticket über „Behind the Blackboard“.

KI-gestützte Funktionalitäten

Der KI-Alternativtext-Assistent bietet Kursleitern Vorschläge für Alternativtext für Bilder, die in ihren Online-Kursen verwendet werden, über den Ally-Arbeitsablauf zum Kursleiterfeedback. Diese sollen Kursleiter inspirieren und Korrekturen zur Barrierefreiheit effizienter gestalten. Anthology hat sich mit Microsoft zusammengetan, um diese Funktionalität bereitzustellen, nicht zuletzt, weil Microsoft sich seit langem für den ethischen Einsatz von KI einsetzt.

Der KI-Alternativtext-Assistent bietet die folgenden generativen, KI-gestützten Funktionen:

  • Generieren Sie einen Alternativtext für Bilder. Schlägt einen Alternativtext im Ally-Kursleiterfeedback vor, wenn Kursleiter Bilder ohne Alternativtext korrigieren.

Diese Funktionen unterliegen den Einschränkungen und der Verfügbarkeit des Azure AI Vision Service und können Änderungen unterliegen. Weitere Informationen finden Sie in den entsprechenden Versionshinweisen.

Wichtige Fakten

Beispieltabelle
FrageAntwort
Welche Ally-Funktionalitäten nutzen KI-Systeme?Alternativtextvorschlag über KI im Fenster „Ally-Kursleiterfeedback“, wenn ein Bild von Ally markiert wurde, weil es keinen Alternativtext enthält.
Handelt es sich um ein von Drittanbietern unterstütztes KI-System?Ja – Der KI-Alternativtext-Assistent wird vom Azure Vision Service von Microsoft unterstützt. 
Wie funktioniert das KI-System?

Der KI-Alternativtext-Assistent nutzt den Azure Vision Service von Microsoft, um Ausgaben automatisch zu generieren. Dies wird erreicht, indem das Bild verwendet wird, um einen Alternativtext zu generieren, der über die Azure Vision-API gesendet wird. Es werden keine weiteren Informationen (z.B. Kurstitel, Kursbeschreibung) verwendet. Bilder werden nicht zum Trainieren der Microsoft Azure Vision-Modelle verwendet, und der Azure Vision Service generiert die Ausgabe basierend auf dem jeweiligen Bild, das in den KI-Alternativtext-Assistenten hochgeladen wird. Es werden keine Eingabeaufforderungen verwendet.

Beachten Sie, dass für Endbenutzer, deren LMS-Instanzen in anderen Sprachen als Englisch konfiguriert sind, die Ausgabe des KI-Alternativtextes mit AWS Translate übersetzt wird.

Eine detailierte Erläuterung der Funktionsweise der Azure AI Vision-Sprachmodelle finden Sie im Abschnitt „Einführung“ des Transparenzhinweises von Microsoft und unter den darin enthaltenen Links. 

Wo wird das KI-System gehostet?Anthology verwendet derzeit mehrere globale Azure Vision Service-Instanzen. Die primäre Instanz wird in den Vereinigten Staaten gehostet, aber manchmal können wir Ressourcen an anderen Standorten wie Frankreich und APAC nutzen, um unseren Kunden die beste Verfügbarkeitsoption für Azure AI Vision bereitzustellen.

Alle vom KI-Alternativtext-Assistenten generierten Client-Ausgaben werden in der vorhandenen Ally-Datenbank jedes Clients gespeichert, die von Anthology verwaltet wird.
Handelt es sich um eine (optionale) Opt-in-Funktion?Ja. Administratoren müssen den KI-Alternativtext-Assistenten in den LMS Ally-Konfigurationsoptionen aktivieren. Wählen Sie „Generierung von alternativen Beschreibungen für Bilder durch KI“ auf der Registerkarte „Funktionen“ aus. Administratoren können diese Funktion jederzeit aktivieren oder deaktivieren.
Wie wird das KI-System trainiert?

Anthology ist nicht am Training von Modellen beteiligt, die die Funktionen des KI-Alternativtext-Assistenten unterstützen. Diese Modelle werden von Microsoft im Rahmen des Azure Vision Service trainiert. Microsoft Informationen zum Trainieren großer Sprachmodelle finden Sie im Abschnitt „Einführung“ des Transparenzhinweises von Microsoft und unter den darin enthaltenen Links.

Anthology optimiert den Azure Vision Service nicht weiter mit unseren eigenen Daten oder denen unserer Kunden.

Werden Kundendaten für das (erneute) Training des KI-Systems verwendet?Nein. Microsoft verpflichtet sich in seinen Azure Vision-Bedingungen mit Anthology vertraglich, keine Eingaben oder Ausgaben von Azure Vision für das (erneute) Training des großen Sprachmodells zu verwenden. Die gleiche Verpflichtung wird in der Microsoft Dokumentation zu Daten, Datenschutz und Sicherheit für Azure Vision Service eingegangen. Es werden nur vorgefertigte Modelle verwendet.
Wie verwendet Anthology Ally personenbezogene Daten im Hinblick auf die Bereitstellung des KI-Alternativtext-Assistent-Systems?

Anthology Ally verwendet die im Zusammenhang mit dem KI-Alternativtext-Assistenten erfassten Bilder ausschließlich zur Bereitstellung, Wartung und Unterstützung des KI-Alternativtext-Assistenten. Weitere Informationen zum Datenschutzansatz von Anthology finden Sie im Trust Center von Anthology.

Für diese Funktion werden nur Bilder verwendet. Es werden keine weiteren Informationen an Microsoft Azure Vision Service weitergegeben. 

Microsoft verwendet weder Anthology-Daten noch Anthology-Clientdaten, auf die es Zugriff hat (als Teil des Azure Vision Service), um die Vision-Modelle zu verbessern, um seine eigenen Produktdienste oder die Dienste von Drittanbietern zu verbessern oder um die Azure Vision-Modelle für die Verwendung durch Anthology in der Ressource von Anthology automatisch zu verbessern (die Modelle sind zustandslos).

Weitere Informationen zu den Datenschutzpraktiken in Bezug auf Azure Vision Service finden Sie in der Microsoft-Dokumentation zu Daten, Datenschutz und Sicherheit für Azure Vision Service.

Wurde die Barrierefreiheit bei der Gestaltung des KI-Alternativtext-Systems berücksichtigt?Ja, unsere Experten für Barrierefreiheit haben mit Produktteams zusammengearbeitet, um Designs zu überprüfen, wichtige Überlegungen zur Barrierefreiheit zu kommunizieren und die neuen Funktionen speziell im Hinblick auf Barrierefreiheit zu testen. Wir werden Barrierefreiheit auch weiterhin als integralen Bestandteil unseres Ansatzes für vertrauenswürdigen KI betrachten.

Überlegungen und Empfehlungen für Institutionen

Vorgesehene Anwendungsfälle

Der KI-Alternativtext-Assistent ist nur dazu gedacht, die oben aufgeführten Funktionalitäten zu unterstützen. Diese Funktionen werden den Kursleitern unserer Kunden zur Verfügung gestellt und sind für diese vorgesehen, um sie bei der Behebung von Problemen mit der Barrierefreiheit von Bildern zu unterstützen, die von Ally gemeldet wurden.

Anwendungsfälle außerhalb des Anwendungsbereichs

Der KI-Alternativtext-Assistent ist nicht dazu gedacht und garantiert auch nicht, dass er jedes Bild mit perfektem Alternativtext barrierefrei gestaltet, da es immer noch Sache des Kursleiters ist, den Alternativtext basierend auf dem Kontext des Kursinhalts anzupassen oder zu genehmigen.

Prinzipien für vertrauenswürdige KI in der Praxis

Anthology und Microsoft gehen davon aus, dass der rechtmäßige, ethische und verantwortungsvolle Einsatz von KI eine der wichtigsten Prioritäten ist. In diesem Abschnitt wird erläutert, wie Anthology und Microsoft daran gearbeitet haben, das entsprechende Risiko für die rechtliche, ethische und verantwortungsvolle Nutzung von KI zu handhaben und die Prinzipien für vertrauenswürdige KI von Anthology umzusetzen. Außerdem werden Schritte vorgeschlagen, die unsere Kunden bei der Durchführung ihrer eigenen KI in Betracht ziehen können, sowie rechtliche Überprüfungen der ethischen KI-Risiken ihrer Implementierung.

Transparenz und Erklärbarkeit

  • Wir machen in den Konfigurationsoptionen der Ally-Administration deutlich, dass es sich um eine KI-gestützte Funktionalität handelt.
  • In der Benutzeroberfläche für Kursleiter sind die Funktionen des KI-Alternativtext-Assistenten eindeutig als „generative“ Funktionen gekennzeichnet. Die Kursleiter werden außerdem gebeten, die Textausgabe vor der Verwendung zu überprüfen. · Die Metadaten der Ausgabe, die von den Funktionen des KI-Alternativtext-Assistenten erstellt wurden, werden im Ally-Nutzungsbericht jedes Clients mit einem Feld für automatisch generierte Inhalte angezeigt. Außerdem wird angezeigt, ob die Ausgabe nachträglich vom Kursleiter bearbeitet wurde.
  • Zusätzlich zu den in diesem Dokument bereitgestellten Informationen zur Funktionsweise des KI-Alternativtext-Assistenten und der Azure Vision Service-Modelle stellt Microsoft in seinem Transparenzhinweis zusätzliche Informationen zum Azure Vision Service bereit.
  • Wir ermutigen unsere Kunden, den Einsatz von KI innerhalb des KI-Alternativtext-Assistenten transparent zu machen und ihren Kursleitern und anderen Interessengruppen gegebenenfalls die relevanten Informationen aus diesem Dokument und der hierin verlinkten Dokumentation zur Verfügung zu stellen.

Zuverlässigkeit und Genauigkeit

  • Wir weisen in den Konfigurationsoptionen und Nutzungsbedingungen für die Ally-Administration darauf hin, dass es sich um eine KI-gestützte Funktionalität handelt, die zu ungenauen oder unerwünschten Ausgaben führen kann, und dass diese Ausgaben immer vom Kursleiter überprüft werden sollten.
  • In der Benutzeroberfläche werden die Kursleiter aufgefordert, die Textausgabe auf Richtigkeit zu überprüfen.
  • Wie im Abschnitt Einschränkungen des Hinweises zur Transparenz des Azure Vision Service beschrieben, besteht das Risiko einer ungenauen Ausgabe. Während die Besonderheit des KI-Alternativtext-Assistenten und unserer Implementierung darauf abzielt, Ungenauigkeiten zu minimieren, liegt es in der Verantwortung unseres Kunden, die Ausgabe auf Genauigkeit, Unvoreingenommenheit und andere potenzielle Probleme zu überprüfen.
  • Im Rahmen ihrer Kommunikation über den KI-Alternativtext-Assistenten sollten Kunden ihre Kursleiter auf diese potenzielle Einschränkung aufmerksam machen.
  • Kursleiter können die vorhandene Ally-Benutzeroberfläche verwenden, um die Ausgaben des KI-Alternativtext-Assistenten manuell zu bearbeiten, bevor sie die Ausgabe für die Teilnehmer veröffentlichen.
  • Kunden können uns jede unzutreffende Ausgabe über die in der Einleitung aufgeführten Kanäle melden.

Fairness

  • Große Sprachmodelle bergen von Natur aus Risiken in Bezug auf Stereotypisierung, Über-/Unterrepräsentation und andere Formen unerwünschter Voreingenommenheit. Microsoft beschreibt diese Risiken im Abschnitt Einschränkungen des Transparenzhinweises für den Azure Vision Service.
  • Angesichts dieser Risiken haben wir die Funktionen des KI-Alternativtext-Assistenten sorgfältig ausgewählt, um Anwendungsfälle zu vermeiden, die anfälliger für unerwünschte Voreingenommenheit sind oder bei denen die Auswirkungen einer solchen Voreingenommenheit signifikanter sein könnten.
  • Dennoch kann nicht ausgeschlossen werden, dass ein Teil der Ausgabe durch unerwünschte Voreingenommenheit beeinträchtigt wird. Wie oben unter „Genauigkeit“ erwähnt, werden die Kursleiter gebeten, die Ergebnisse zu überprüfen, was dazu beitragen kann, unerwünschte Voreingenommenheit zu reduzieren.
  • Im Rahmen ihrer Kommunikation über den KI-Alternativtext-Assistenten sollten Kunden ihre Kursleiter auf diese potenzielle Einschränkung aufmerksam machen.
  • Kunden können uns potenziell schädigende Voreingenommenheit über die in der Einleitung aufgeführten Kontaktkanäle melden.

Datenschutz und Sicherheit

  • Wie oben im Abschnitt „Wichtige Fakten“ beschrieben, wird nur das Bild für den KI-Alternativtext-Assistenten verwendet und ist für Microsoft zugänglich. Der Abschnitt beschreibt auch unsere und Microsofts Verpflichtung in Bezug auf die Verwendung personenbezogener Daten. 
  • Ally ist nach ISO 27001/27017/27018/27701 zertifiziert. Diese Zertifizierungen umfassen die von Anthology verwaltete Ausgabe im Zusammenhang mit dem KI-Alternativtext-Assistenten. Weitere Informationen zum Datenschutz- und Datensicherheitsansatz von Anthology finden Sie in unserem Trust Center.
  • Microsoft beschreibt seine Datenschutz- und Sicherheitspraktiken und -verpflichtungen in der Dokumentation zu Daten, Datenschutz und Sicherheit für Azure Vision Service.
  • Unabhängig von der Verpflichtung von Anthology und Microsoft in Bezug auf den Datenschutz und die Nichtverwendung von Eingaben zum (erneuten) Trainieren der Modelle sollten Kunden ihren Kursleitern raten, keine persönlichen Informationen oder andere vertrauliche Informationen in die Bilder aufzunehmen.

Datenschutz

  • Große Sprachmodelle bergen naturgemäß das Risiko von Ausgaben, die unangemessen, anstößig oder anderweitig unerwünscht sein können. Microsoft beschreibt diese Risiken im Abschnitt „Einschränkungen“ des Transparenzhinweises für den Azure Vision Service.
  • Angesichts dieser Risiken haben wir die Funktionen des KI-Alternativtext-Assistenten sorgfältig ausgewählt, um Anwendungsfälle zu vermeiden, die anfälliger für unerwünschte Ausgaben sind oder bei denen die Auswirkungen solcher Ausgaben erheblicher sein könnten.
  • Dennoch kann nicht ausgeschlossen werden, dass ein Teil der Ausgabe unerwünscht sein kann. Wie oben unter „Genauigkeit“ erwähnt, werden die Kursleiter gebeten, die Ausgabe zu überprüfen, was dazu beitragen kann, das Risiko unerwünschter Ausgaben weiter zu verringern.
  • Im Rahmen ihrer Kommunikation über den KI-Alternativtext-Assistenten sollten Kunden ihre Kursleiter auf diese potenzielle Einschränkung aufmerksam machen.
  • Kunden sollten uns jede potenziell unerwünschte Ausgabe über die in der Einleitung aufgeführten Kanäle melden.

Persönliche Kontrolle

  • Um das Risiko im Zusammenhang mit dem Einsatz generativer KI für unsere Kunden und deren Nutzer zu minimieren, geben wir unseren Kunden bewusst die Kontrolle über die Funktionalitäten des KI-Alternativtext-Assistenten. Der KI-Alternativtext-Assistent ist daher eine optionale Funktion. Administratoren können den KI-Alternativtext-Assistenten jederzeit aktivieren oder deaktivieren. 
  • Darüber hinaus haben Kursleiter die Kontrolle über die Ausgabe. Dies bedeutet, dass sie aufgefordert werden, die Textausgabe zu überprüfen und die Textausgabe nach Bedarf bearbeiten können.
  • Der KI-Alternativtext-Assistent enthält keine automatisierte Entscheidungsfindung, die rechtliche oder anderweitig erhebliche Auswirkungen auf Lernende oder andere Personen haben könnte.
  • Wir empfehlen Kunden, dieses Dokument, einschließlich der hierin enthaltenen Informationslinks, sorgfältig zu lesen, um sicherzustellen, dass sie die Funktionen und Einschränkungen des KI-Alternativtext-Assistenten und des zugrunde liegenden Azure Vision Service verstehen, bevor sie den KI-Alternativtext-Assistenten aktivieren.

Werteausrichtung

  • Große Sprachmodelle bergen naturgemäß Risiken in Bezug auf Ergebnisse, die voreingenommen oder unangemessen sind oder anderweitig nicht mit den Werten von Anthology oder den Werten unserer Kunden und Lernenden übereinstimmen. Microsoft beschreibt diese Risiken im Abschnitt Einschränkungen des Transparenzhinweises für den Azure Vision Service.
  • Darüber hinaus bergen große Sprachmodelle (wie jede Technologie, die breit gefächerten Zwecken dient) das Risiko, dass sie im Allgemeinen für Anwendungsfälle missbraucht werden können, die nicht mit den Werten der Anthology, unserer Kunden oder ihrer Endnutzer und denen der Gesellschaft im Allgemeinen übereinstimmen (z. B. für kriminelle Aktivitäten, um schädliche oder anderweitig unangemessene Ergebnisse zu erzeugen).
  • Angesichts dieser Risiken haben wir unsere Funktionen des KI-Alternativtext-Assistenten sorgfältig so konzipiert und implementiert, dass das Risiko einer falsch ausgerichteten Ausgabe minimiert wird. Zum Beispiel haben wir uns auf Funktionen für Kursleiter und nicht für Lernende konzentriert. Wir haben auch bewusst auf potenziell risikoreiche Funktionalitäten verzichtet.

Geistiges Eigentum

  • Große Sprachmodelle bergen naturgemäß Risiken in Bezug auf eine mögliche Verletzung von geistigen Eigentumsrechten. Die meisten Gesetze zum Schutz des geistigen Eigentums rund um den Globus haben das Aufkommen großer Sprachmodelle und die Komplexität der Probleme, die sich aus ihrer Verwendung ergeben, nicht vollständig antizipiert oder sich daran angepasst. Infolgedessen gibt es derzeit keinen klaren Rechtsrahmen oder Leitfaden, der sich mit den Fragen des geistigen Eigentums und den Risiken befasst, die sich aus der Verwendung dieser Modelle ergeben.
  • Letztendlich liegt es in der Verantwortung unseres Kunden, die von diesem KI-Alternativtext-Assistenten generierten Ergebnisse auf mögliche Verletzungen von geistigen Eigentumsrechten zu überprüfen. 

Barrierefreiheit

  • Bei der Konzeption und Entwicklung des KI-Alternativtext-Assistenten standen die Barrierefreiheit im Vordergrund, wie wir es auch bei Learn und unseren anderen Produkten tun. Vor der Veröffentlichung des KI-Alternativtext-Assistenten haben wir gezielt die Barrierefreiheit der semantischen Struktur, der Navigation, der Tastatursteuerelemente, der Beschriftungen, der benutzerdefinierten Komponenten und der Bild-Workflows verbessert, um nur einige Bereiche zu nennen. Wir werden der Barrierefreiheit auch in Zukunft Priorität einräumen, wenn wir KI nutzen.

Verantwortlichkeit

  • Anthology verfügt über ein vertrauenswürdiges KI-Programm, das den rechtlichen, ethischen und verantwortungsvollen Einsatz von KI sicherstellen soll. Eine klare interne Verantwortlichkeit und die systematische ethische Überprüfung der KI oder Funktionalitäten, wie sie der KI-Alternativtext-Assistent bietet, sind wichtige Säulen des Programms.
  • Für die Bereitstellung des KI-Alternativtext-Assistenten haben wir uns mit Microsoft zusammengetan, um den Azure Vision Service zu nutzen, der den KI-Alternativtext-Assistenten unterstützt. Microsoft engagiert sich seit langem für den ethischen Einsatz von KI.
  • Kunden sollten die Implementierung interner Richtlinien, Verfahren und die Überprüfung von KI-Anwendungen von Drittanbietern in Betracht ziehen, um ihre eigene rechtliche, ethische und verantwortungsvolle Nutzung von KI sicherzustellen. Diese Informationen werden bereitgestellt, um unsere Kunden bei der Überprüfung des KI-Alternativtext-Assistenten zu unterstützen.

Weitere Informationen