Het wettige, ethische en verantwoordelijke gebruik van kunstmatige intelligentie (AI) is een belangrijke prioriteit voor Anthology. Daarom hebben we een Trustworthy AI-programma ontwikkeld en geïmplementeerd. Informatie over ons programma en onze algemene benadering van Trustworthy AI vind je in ons Trust Center. Je kunt ook meer informatie vinden over de generatieve AI-functies in onze Lijst met generatieve AI-functies.

Als onderdeel van onze Trustworthy AI-principes zijn we toegewijd tot transparantie, uitlegbaarheid en aansprakelijkheid. Deze pagina is bedoeld om de nodige transparantie en uitleg te bieden om onze klanten te helpen met hun implementatie van de AI-assistent voor alternatieve tekst. We raden beheerders aan om deze pagina zorgvuldig te bekijken en ervoor te zorgen dat cursusleiders op de hoogte zijn van de onderstaande overwegingen en aanbevelingen voordat je de functionaliteiten van AI-assistent voor alternatieve tekst voor je instelling activeert.

Contact met ons opnemen:

  • Voor vragen of feedback over onze algemene benadering van Trustworthy AI of hoe we deze pagina nuttiger kunnen maken voor onze klanten, stuur ons een e-mail op [email protected].
  • Dien via Behind the Blackboard een ticket voor de klantenondersteuning in bij vragen of feedback over de functionaliteit of resultaten van de AI-assistent voor alternatieve tekst.

AI-gefaciliteerde functionaliteiten

De AI-assistent voor alternatieve tekst biedt cursusleiders suggesties over alternatieve tekst voor afbeeldingen die worden gebruikt in hun online cursus(sen) via de Ally-werkstroom voor feedback voor cursusleiders. Deze is bedoeld om cursusleiders te inspireren en het oplossen van toegankelijkheidsproblemen efficiënter te maken. Anthology werkt samen met Microsoft om deze functionaliteit te bieden, niet in het minst omdat Microsoft zich al lang inzet voor een ethische toepassing van AI.

De AI-assistent voor alternatieve tekst biedt de volgende generatieve AI-gefaciliteerde functionaliteiten:

  • Een alternatieve tekst voor afbeeldingen genereren.  Suggereert een alternatieve tekst in de feedback voor cursusleiders van Ally wanneer cursusleiders afbeeldingen zonder alternatieve tekst aanpassen.

Deze functionaliteiten zijn onderhevig aan de beperkingen en beschikbaarheid van de Azure AI Vision Service en kunnen worden gewijzigd. Raadpleeg de relevante releaseopmerkingen voor meer informatie.

Belangrijkste feiten

Voorbeeldtabel
VraagAntwoord
Welke Ally-functionaliteiten gebruiken AI-systemen?Suggesties voor alternatieve tekst via AI in het feedbackvenster van Ally voor cursusleider, wanneer een afbeelding door Ally is gemarkeerd omdat er geen alternatieve tekst is.
Is dit een door derden ondersteund AI-systeem?Ja, de AI-assistent voor alternatieve tekst maakt gebruik van de Azure Vision Service van Microsoft. 
Hoe werkt het AI-systeem?

De AI-assistent voor alternatieve tekst maakt gebruik van de Azure Vision Service van Microsoft om automatisch resultaten te genereren. Dit wordt gerealiseerd door de afbeelding te gebruiken om een alternatieve tekst te genereren die wordt verzonden via de Azure Vision-API. Er wordt geen verdere informatie gebruikt (bijv. de titel van de cursus of de beschrijving van de cursus). Afbeeldingen worden niet gebruikt om de Microsoft Azure Vision-modellen te trainen en de Azure Vision Service genereert de uitvoer op basis van elke afbeelding die wordt geüpload naar de AI-assistent voor alternatieve tekst. Er worden geen prompts gebruikt.

Voor eindgebruikers die hun LMS hebben geconfigureerd in andere talen dan het Engels, wordt de uitvoer van de alternatieve tekst van AI vertaald met AWS Translate.

Voor een uitleg van hoe de taalmodellen van Azure AI Vision werken, raadpleeg je de sectie Inleiding van de Transparantie-opmerking van Microsoft en de koppelingen daarin.  

Waar wordt het AI-systeem gehost?Anthology maakt momenteel gebruik van meerdere algemene Azure Vision Service-instanties. De primaire instantie wordt gehost in de Verenigde Staten, maar soms kunnen we bronnen in andere locaties gebruiken, zoals Frankrijk, APAC om de beste beschikbaarheidsoptie voor de Azure AI Vision voor onze klanten te bieden.

Alle clientuitvoer die wordt gegenereerd door de AI-assistent voor alternatieve tekst wordt opgeslagen in de bestaande Ally-database van elke client die wordt beheerd door Anthology.
Moet je je voor deze functionaliteit aanmelden?Ja. Beheerders moeten de AI-assistent voor alternatieve tekst activeren bij de configuratieopties van LMS Ally. Selecteer AI-generatie van alternatieve beschrijvingen voor afbeeldingen op het tabblad Functies. Beheerders kunnen deze functionaliteit op elk moment activeren of deactiveren.
Hoe wordt het AI-systeem getraind?

Anthology is niet betrokken bij de training van modellen die de functionaliteiten van de AI-assistent voor alternatieve tekst aandrijven. Deze modellen worden door Microsoft getraind als onderdeel van de Azure Vision Service. Microsoft geeft in de sectie Inleiding van de Transparantie-opmerking van Microsoft en de bijbehorende koppelingen informatie over de wijze waarop de grote taalmodellen worden getraind.

Anthology past de Azure Vision Service niet verder aan op basis van gegevens van ons of van onze klanten.

Worden clientgegevens gebruikt voor het (her)trainen van het AI-systeem?Nee. Microsoft verbindt zich contractueel in de Azure Vision-voorwaarden met Anthology geen invoer of uitvoer van de Azure Vision te gebruiken voor de (her)training van het grote taalmodel. Dezelfde toezegging wordt gedaan in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure Vision Service. Er worden alleen vooraf ontwikkelde modellen gebruikt.
Hoe gebruikt Anthology Ally persoonlijke informatie bij het aanbieden van het systeem voor de AI-assistent voor alternatieve tekst?

Anthology Ally gebruikt alleen de afbeeldingen die zijn verzameld in verband met de AI-assistent voor alternatieve tekst om de AI-assistent voor alternatieve tekst aan te bieden, te onderhouden en te ondersteunen. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in het Trust Center van Anthology.

Alleen afbeeldingen worden gebruikt voor deze functie. Er worden geen verdere gegevens gedeeld met Microsoft Azure Vision Service.  

Microsoft gebruikt geen Anthology-gegevens of Anthology-clientgegevens waartoe ze toegang hebben (als onderdeel van de Azure Vision Service) om de Vision-modellen te verbeteren, de services van zijn eigen producten of van derden te verbeteren, of om de Azure Vision-modellen automatisch te verbeteren voor gebruik door Anthology in hulpmiddelen van Anthology (de modellen zijn staatloos).

Meer informatie over de procedures voor gegevensprivacy met betrekking tot de Azure Vision Service vind je in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure Vision Service.

Is bij het ontwerp van het AI-systeem voor alternatieve tekst rekening gehouden met toegankelijkheid?Ja, onze engineers voor toegankelijkheid hebben samengewerkt met productteams om ontwerpen te controleren, belangrijke toegankelijkheidsoverwegingen te communiceren en de nieuwe functies specifiek op toegankelijkheid te testen. We blijven toegankelijkheid als integraal onderdeel beschouwen van onze Trustworthy AI-aanpak.

Overwegingen en aanbevelingen voor instellingen

Bedoelde praktijkscenario’s

De AI-assistent voor alternatieve tekst is alleen bedoeld ter ondersteuning van de hierboven vermelde functionaliteiten. Deze functionaliteiten worden aangeboden aan en zijn bedoeld voor de cursusleiders van onze klanten om hen te ondersteunen bij het oplossen van toegankelijkheidsproblemen bij afbeeldingen die zijn aangegeven door Ally.

Praktijkscenario’s buiten bereik

De AI-assistent voor alternatieve tekst is niet bedoeld om elke afbeelding toegankelijk te maken met perfecte alternatieve tekst en garandeert deze functionaliteit ook niet. Het is nog steeds de taak van de cursusleider om de alternatieve tekst aan te passen of goed te keuren op basis van de context van de inhoud in de cursus. 

Trustworthy AI-principes in de praktijk

Anthology en Microsoft zijn van mening dat het wettelijke, ethische en verantwoordelijk gebruik van AI een belangrijke prioriteit is. In dit gedeelte wordt uitgelegd hoe Anthology en Microsoft hebben gewerkt om het toepasselijke risico voor het wettelijke, ethische en verantwoordelijk gebruik van AI aan te pakken en de Anthology Trustworthy AI-principes te implementeren. Het stelt ook stappen voor waar onze klanten rekening mee kunnen houden bij het uitvoeren van hun eigen AI- en juridische beoordelingen van ethische AI-risico's van hun implementatie.

Transparantie en uitlegbaarheid

  • We maken in de Ally-beheerconfiguratie-opties duidelijk dat dit een door AI-gefaciliteerde functionaliteit is.
  • In de gebruikersinterface voor cursusleiders worden de functionaliteiten van de AI-assistent voor alternatieve tekst duidelijk gemarkeerd als ‘Generatieve’ functionaliteiten. Cursusleiders kunnen ook worden gevraagd om de tekstuitvoer vóór gebruik te bekijken. · De metagegevens van de uitvoer die is gemaakt door de functionaliteiten van de AI-assistent voor alternatieve tekst worden weergegeven in het gebruiksrapport van elke klant in Ally met een veld voor automatisch gegenereerde inhoud. Je ziet ook of de uitvoer vervolgens door de cursusleider is gewijzigd.
  • Naast de informatie in dit document over hoe de AI-assistent voor alternatieve tekst en de Azure Vision Service-modellen werken, biedt Microsoft aanvullende informatie over de Azure Vision Service in de Transparantie-opmerking.
  • We moedigen klanten aan om transparant te zijn over het gebruik van AI binnen de AI-assistent voor alternatieve tekst. Bied cursusleiders en andere belanghebbenden indien nodig de relevante informatie uit dit document en de documentatie die hierin is gekoppeld.

Betrouwbaarheid en nauwkeurigheid

  • We maken in de Ally-beheerconfiguratie-opties en de gebruiksvoorwaarden duidelijk dat dit een door AI-gefaciliteerde functionaliteit is die onnauwkeurige of ongewenste resultaten kan produceren. Dergelijke resultaten moeten altijd door de cursusleider worden gecontroleerd.
  • In de gebruikersinterface kunnen cursusleiders worden gevraagd de tekstuitvoer te controleren op nauwkeurigheid.
  • Zoals nauwkeurig beschreven in de sectie Beperkingen van de Transparantie-opmerking van de Azure Vision Service, bestaat er een risico op onnauwkeurige resultaten. Hoewel de specifieke aard van de AI-assistent voor alternatieve tekst en onze implementatie bedoeld is om onnauwkeurigheden te minimaliseren, is het de verantwoordelijkheid van onze klanten om de resultaten te controleren op nauwkeurigheid, vooroordelen en andere mogelijke problemen.
  • Als onderdeel van hun communicatie met betrekking tot de AI-assistent voor alternatieve tekst, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
  • Cursusleiders kunnen bestaande Ally-interface gebruiken om de resultaten van de AI-assistent voor alternatieve tekst handmatig te bewerken voordat ze de resultaten aan studenten geven.
  • Klanten kunnen alle onnauwkeurige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.

Eerlijkheid

  • Grote taalmodellen brengen inherent risico's met betrekking tot stereotypering, over- of ondervertegenwoordiging en andere vormen van schadelijke vooroordelen met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure Vision Service.
  • Gezien deze risico's hebben we de functionaliteiten van de AI-assistent voor alternatieve tekst zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor schadelijke vooroordelen of waarin de impact van dergelijke vooroordelen groter kan zijn.
  • Toch kan niet worden uitgesloten dat een deel van de resultaten door schadelijke vooroordelen kan worden beïnvloed. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat kan helpen om eventuele schadelijke vooroordelen te voorkomen.
  • Als onderdeel van hun communicatie met betrekking tot de AI-assistent voor alternatieve tekst, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
  • Klanten kunnen potentiële schadelijke vooroordelen aan ons melden via de contactkanalen die in de introductie worden vermeld.

Privacy en beveiliging

  • Zoals hierboven is beschreven in de sectie 'Belangrijkste feiten', wordt alleen de afbeelding gebruikt voor de AI-assistent voor alternatieve tekst en zijn deze beperkt toegankelijk voor Microsoft. De sectie beschrijft ook onze toewijding en die van Microsoft met betrekking tot het gebruik van persoonlijke gegevens.  
  • Ally is ISO 27001/27017/27018/27701 gecertificeerd. Deze certificeringen bevatten uitvoer die met de AI-assistent voor alternatieve tekst te maken hebben, die worden beheerd door Anthology. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy en beveiliging in ons Trust Center.
  • Microsoft beschrijft de procedures en toezeggingen voor gegevensprivacy en beveiliging in de documentatie over gegevens, privacy en beveiliging voor Azure Vision Service.
  • Ongeacht de toewijding van Anthology en Microsoft met betrekking tot gegevensprivacy en het niet gebruiken van invoer om de modellen te (her)trainen, moeten klanten mogelijk hun cursusleiders adviseren om geen persoonlijke gegevens of andere gevoelige informatie in de afbeeldingen in te voeren.

Veiligheid

  • Grote taalmodellen brengen inherent risico’s met betrekking tot resultaten die ongepast, aanstootgevend of anderszins onveilig zijn met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure Vision Service.
  • Gezien deze risico's hebben we de functionaliteiten van de AI-assistent voor alternatieve tekst zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor onveilige resultaten of waarin de impact van dergelijke resultaten groter kan zijn.
  • Toch kan niet worden uitgesloten dat een deel van de resultaten onveilig kan zijn. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat verder kan helpen om de risico’s van onveilige resultaten te voorkomen.
  • Als onderdeel van hun communicatie met betrekking tot de AI-assistent voor alternatieve tekst, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
  • Klanten moeten alle potentiële onveilige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.

Menselijk beheer

  • Om de risico’s te verminderen met betrekking tot het gebruik van generatieve AI voor onze klanten en hun gebruikers, hebben we opzettelijk klanten de controle gegeven over de functionaliteiten van de AI-assistent voor alternatieve tekst. Je moet de AI-assistent voor alternatieve tekst daarom inschakelen. Beheerders kunnen de AI-assistent voor alternatieve tekst op elk gewenst moment activeren of deactiveren.  
  • Bovendien hebben cursusleiders de controle over de resultaten, wat betekent dat ze worden gevraagd de tekstuitvoer te bekijken en de tekstuitvoer indien nodig kunnen bewerken.
  • De AI-assistent voor alternatieve tekst omvat geen geautomatiseerde besluitvorming die wettelijke of anderszins significante gevolgen kan hebben voor studenten of andere personen.
  • We raden klanten aan om dit document inclusief de informatiekoppelingen in dit document zorgvuldig te bekijken om er zeker van te zijn dat ze de mogelijkheden en beperkingen van de AI-assistent voor alternatieve tekst en de onderliggende Azure Vision Service begrijpen voordat ze de AI-assistent voor alternatieve tekst activeren.

Aansluiting van waarden

  • Grote taalmodellen brengen inherent risico's met zich mee met betrekking tot resultaten die bevooroordeeld, ongepast of die anderszins niet overeengestemd zijn met de waarden van Anthology of de waarden van onze klanten en studenten. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure Vision Service.
  • Daarnaast bestaat het risico dat grote taalmodellen (net als elke technologie die een breed doel dient) over het algemeen worden misbruikt voor praktijkscenario’s die niet overeenstemmen met de waarden van Anthology, onze klanten of hun eindgebruikers en die van de samenleving in bredere zin (bijvoorbeeld voor criminele activiteiten, om schadelijke of anderszins ongepaste resultaten te creëren).
  • Gezien deze risico's, hebben we de functionaliteiten van onze AI-assistent voor alternatieve tekst zorgvuldig ontworpen en geïmplementeerd om het risico van niet-afgestemde resultaten te minimaliseren. We hebben ons bijvoorbeeld gericht op functionaliteiten voor cursusleiders in plaats van voor studenten. We hebben ook bewust functionaliteiten uitgesloten die potentieel van groot belang zijn.

Intellectueel eigendom

  • Grote taalmodellen brengen inherent risico's met zich mee betrekking tot mogelijke inbreuk op intellectuele eigendomsrechten. De meeste intellectuele eigendomsrechten over de hele wereld hebben niet volledig voorzien en zijn niet aangepast aan de opkomst van grote taalmodellen en de complexiteit van de problemen die zich voordoen door het gebruik ervan. Hierdoor is er op dit moment geen duidelijk juridisch kader of een duidelijke richtlijn voor de kwesties en risico's op het gebied van intellectueel eigendom die voortkomen uit het gebruik van deze modellen.
  • Uiteindelijk is het de verantwoordelijkheid van onze klant om de resultaten van de AI-assistent voor alternatieve tekst te controleren op mogelijke inbreuk op intellectueel eigendomsrecht.  

Toegankelijkheid

  • We hebben de AI-assistent voor alternatieve tekst ontworpen en ontwikkeld met toegankelijkheid in het achterhoofd, net als bij Learn en onze andere producten. Voorafgaand aan de release van de AI-assistent voor alternatieve tekst hebben we doelbewust de toegankelijkheid verbeterd van de semantische structuur, navigatie, toetsenbordbediening, labels, aangepaste componenten en afbeeldingswerkstromen, om een paar gebieden te noemen. Toegankelijkheid blijft de prioriteit terwijl we in de toekomst gebruikmaken van AI.

Verantwoordelijkheid

  • Anthology heeft een Trustworthy AI-programma dat is ontworpen om het wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Duidelijke interne aansprakelijkheid en de systematische ethische AI-controle of functionaliteiten zoals die van de AI-assistent voor alternatieve tekst zijn belangrijke steunpilaren van het programma.
  • Voor de levering van de AI-assistent voor alternatieve tekst werken we samen met Microsoft om gebruik te maken van de Azure Vision Service die de basis vormt voor de AI-assistent voor alternatieve tekst. Microsoft zet zich al lang in voor het ethische gebruik van AI.
  • Klanten moeten overwegen om intern beleid, procedures en evaluatie van AI-toepassingen van derden te implementeren om hun eigen wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Deze informatie is bedoeld om de beoordeling van de AI-assistent voor alternatieve tekst door onze klanten te ondersteunen.

Overige informatie