Het wettige, ethische en verantwoordelijke gebruik van kunstmatige intelligentie (AI) is een belangrijke prioriteit voor Anthology; daarom hebben we een Trustworthy AI-programma ontwikkeld en geïmplementeerd. Informatie over ons programma en onze algemene benadering van Trustworthy AI vind je in ons Trust Center.
Als onderdeel van onze Trustworthy AI-principes zijn we toegewijd tot transparantie, uitlegbaarheid en aansprakelijkheid. Deze pagina is bedoeld om de nodige transparantie en uitlegbaarheid te bieden om onze klanten te helpen met hun implementatie van de AI-ontwerpassistent We raden beheerders aan om deze pagina zorgvuldig te bekijken en ervoor te zorgen dat cursusleiders op de hoogte zijn van de onderstaande overwegingen en aanbevelingen voordat je de functionaliteiten van AI-ontwerpassistent voor je instelling activeert.
Contact met ons opnemen:
- Voor vragen of feedback over onze algemene benadering van Trustworthy AI of hoe we deze pagina nuttiger kunnen maken voor onze klanten, stuur ons een e-mail op [email protected].
- Dien een ticket voor de klantenondersteuning in bij vragen of feedback over de functionaliteit of resultaten van de AI-ontwerpassistent.
AI-gefaciliteerde functionaliteiten
De AI-ontwerpassistent helpt cursusleiders bij het maken en ontwerpen van nieuwe cursussen. Deze is bedoeld om cursusleiders te inspireren en het maken van cursussen efficiënter te maken. Anthology werkt samen met Microsoft om deze functionaliteit te bieden, niet in het minst omdat Microsoft zich al lang inzet voor een ethische toepassing van AI.
De AI-ontwerpassistent biedt de volgende nieuwe AI-gefaciliteerde functionaliteiten in Learn Ultra:
- Genereer trefwoorden voor de royaltyvrije afbeeldingsservice in Learn powered by Unsplash: stelt trefwoorden voor de Unsplash-zoekopdracht voor efficiëntie.
- Leermodules genereren: helpt cursusleiders door een cursusstructuur voor te stellen.
- Afbeeldingen voor leermodule genereren: maakt en adviseert afbeeldingen voor elke leermodule.
- Authentieke opdrachten genereren: geeft suggesties voor opdrachten met behulp van je cursusccontext
- Toetsvragen en vragenbanken genereren: inspireert cursusleiders door allerlei vragen voor te stellen in een toets of door een vragenbank te maken.
- Discussies en dagboeken genereren: geeft cursusleiders prompts om interactie met de klas aan te moedigen
- Contextkiezer: maakt gebruik van de cursuscontext die je kiest om inhoud te genereren voor veel van onze AI-functies
- Taalselector: selecteert uitvoertaal uit alle talen die worden ondersteund door Learn
- Een rubriek genereren: een beoordelingsrubriek met structuur en criteria voor een bepaalde beoordeling, wat zorgt voor efficiëntie van de cursusleider en transparantie biedt bij het beoordelen van cijfers voor studenten.
- Een AI-gesprek genereren - Creëert een gesprek tussen een student en een AI-persona in een socratische oefening of een rollenspelscenario
- Learn-documentafbeeldingen genereren: genereert afbeeldingen voor gebruik binnen een document, zodat documenten visueel aantrekkelijker zijn voor studenten.
Er zijn tien complexiteitsniveaus voor door AI-gegenereerde inhoud.
- Onderbouw basisschool
- Middenbouw basisschool
- Bovenbouw basisschool
- Brugklas voortgezet onderwijs
- Onderbouw voortgezet onderwijs
- Bovenbouw voortgezet onderwijs
- Eerstejaars hoger onderwijs
- Hoger onderwijs
- Master hoger onderwijs
- PhD-niveau
Bezoek onze pagina AI-ontwerpassistent voor cursusleiders voor meer informatie over alle functies.
Deze functionaliteiten zijn onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen worden gewijzigd. Raadpleeg de relevante releaseopmerkingen voor meer informatie.
Belangrijkste feiten
Vraag | Antwoord |
---|---|
Welke functionaliteiten gebruiken AI-systemen? | Alle hierboven beschreven functionaliteiten van de AI-ontwerpassistent (het genereren van trefwoorden voor Unsplash, het genereren van leermodules, toetsvragen en vragenbanken, beoordelingsrubrieken, afbeeldingen voor Learn documenten). |
Is dit een door derden ondersteund AI-systeem? | Ja, de AI-ontwerpassistent maakt gebruik van de Azure OpenAI Service van Microsoft. |
Hoe werkt het AI-systeem? | De AI-ontwerpassistent maakt gebruik van de Azure OpenAI Service van Microsoft om automatisch resultaten te genereren. Dit wordt gerealiseerd door beperkte cursusinformatie (bijv. cursustitel en cursusbeschrijving) te gebruiken en de Azure OpenAI Service om ingeving te vragen via de Azure OpenAI Service API. Cursusleiders kunnen extra context voor de ingevingen toevoegen voor het genereren van meer op maat gemaakte resultaten. De Azure OpenAI Service genereert de resultaten op basis van de vraag en de inhoud wordt weergegeven in de Learn-gebruikersinterface. Voor een uitleg van hoe de Azure OpenAI Service en de onderliggende grote taalmodellen van OpenAI GPT werken, raadpleeg je de sectie Inleiding van de Transparantie-opmerking van Microsoft en de koppelingen daarin. |
Waar wordt het AI-systeem gehost? | Anthology maakt momenteel gebruik van meerdere algemene Azure OpenAI Service-instanties. De primaire instantie wordt gehost in de Verenigde Staten, maar soms kunnen we bronnen in andere locaties gebruiken, zoals Canada, het Verenigd Koninkrijk of Frankrijk om de beste beschikbaarheidsoptie voor de Azure OpenAI Service voor onze klanten te bieden. Alle clientcursusgegevens die worden gebruikt voor de invoer en alle resultaten die gegenereerd wordt door de AI-ontwerpassistent worden opgeslagen in de bestaande Learn-database van de klant door Anthology. |
Moet je je voor deze functionaliteit aanmelden? | Ja. Beheerders moeten de AI-ontwerpassistent activeren in de Learn-beheerconsole. Instellingen voor de AI-ontwerpassistent staan in de categorie Building Blocks. Selecteer AI-ontwerpassistent en Unsplash. Beheerders kunnen elke functionaliteit afzonderlijk activeren of deactiveren. Beheerders moeten indien nodig ook bevoegdheden van de AI-ontwerpassistent toewijzen aan cursusrollen, zoals de rol Cursusleider. De bevoegdheden die moeten worden toegewezen, zijn 'Zoeken naar afbeeldingen met Unsplash' en 'AI-ontwerpassistent gebruiken'. |
Hoe wordt het AI-systeem getraind? | Anthology is niet betrokken bij de training van de grote taalmodellen die de functionaliteiten van de AI-ontwerpassistent aandrijven. Deze modellen worden getraind door Microsoft als onderdeel van de Azure OpenAI Service die de functionaliteiten van de AI-ontwerpassistent aandrijven. Microsoft geeft in de sectie Inleiding van de Transparantie-opmerking van Microsoft en de bijbehorende koppelingen informatie over de wijze waarop de grote taalmodellen worden getraind. Anthology past de Azure OpenAI Service niet verder aan op basis van gegevens van ons of van onze klanten. |
Worden clientgegevens gebruikt voor het (her)trainen van het AI-systeem? | Nee. Microsoft verbindt zich contractueel in de Azure OpenAI-voorwaarden met Anthology geen invoer of uitvoer van de Azure OpenAI te gebruiken voor de (her)training van het grote taalmodel. Dezelfde toezegging wordt gedaan in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service |
Hoe gebruikt Anthology persoonlijke informatie bij het aanbieden van het AI-systeem? | Anthology gebruikt de informatie die is verzameld in verband met de AI-ontwerpassistent alleen voor het verstrekken, onderhouden en ondersteunen van de AI-ontwerpassistent en wanneer we de contractuele toestemming hebben om dit te doen in overeenstemming met de toepasselijke wetgeving. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in ons Trust Center. |
In het geval dat een AI-systeem ondersteund wordt door een derde partij: hoe gebruikt deze derde partij persoonlijke gegevens? | Er wordt slechts beperkte cursusinformatie gegeven om Microsoft voor de Azure OpenAI Service. Dit moet in het algemeen geen persoonlijke gegevens bevatten (behalve in gevallen waarin persoonlijke gegevens worden opgenomen in cursustitels, beschrijvingen en gelijkaardige cursusinformatie). Daarnaast is alle informatie die de cursusleiders hebben toegevoegd aan de vraag toegankelijk. Microsoft gebruikt geen Anthology-gegevens of Anthology-clientgegevens waartoe ze toegang hebben (als onderdeel van de Azure OpenAI Service) om de OpenAI-modellen te verbeteren, de services van zijn eigen producten of van derden te verbeteren, of om de Azure OpenAI-modellen automatisch te verbeteren voor gebruik door Anthology in hulpmiddelen van Anthology (de modellen zijn staatloos). Microsoft controleert prompts en resultaten voor het filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen. Prompts en resultaten worden maximaal 30 dagen opgeslagen.
Meer informatie over de procedures voor gegevensprivacy met betrekking tot de Azure OpenAI Service vind je in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service. |
Is bij het ontwerp van het AI-systeem rekening gehouden met toegankelijkheid? | Ja, onze engineers voor toegankelijkheid hebben samengewerkt met productteams om ontwerpen te controleren, belangrijke toegankelijkheidsoverwegingen te communiceren en de nieuwe functies specifiek op toegankelijkheid te testen. We blijven toegankelijkheid als integraal onderdeel beschouwen van onze Trustworthy AI-aanpak. |
Overwegingen en aanbevelingen voor instellingen
Bedoelde praktijkscenario’s
De hierboven vermelde functionaliteiten van de AI-ontwerpassistent (het genereren van trefwoorden voor Unsplash, het genereren van leermodules, toetsvragen en vragenbanken, beoordelingsrubrieken, afbeeldingen voor Learn documenten). Deze functionaliteiten worden aangeboden aan en zijn bedoeld voor de cursusleiders van onze klanten om hen te ondersteunen bij het maken en ontwerpen van cursussen binnen Learn.
Praktijkscenario’s buiten bereik
Omdat de AI-ontwerpassistent van Learn gebruikmaakt van de Azure OpenAI Service van Microsoft met een zeer breed scala aan praktijkscenario’s, is het mogelijk om de promptfunctionaliteit van de AI-ontwerpassistent te gebruiken om uitvoer op te vragen buiten de bedoelde functionaliteiten. We raden klanten sterk af om AI-ontwerpassistent te gebruiken voor enig doel dat buiten het bereik van de bedoelde functionaliteiten valt. Hierdoor kunnen er resultaten worden geproduceerd die niet geschikt zijn voor of compatibel zijn met de Learn-omgeving en de maatregelen die we hebben genomen om onnauwkeurige resultaten te minimaliseren.
De onderstaande punten moeten met name worden gevolgd bij het maken van prompts:
- Gebruik alleen prompts die zijn bedoeld om relevantere resultaten van de AI-ontwerpassistent te activeren (bijvoorbeeld meer details geven over de bedoelde cursusstructuur)
- Gebruik geen prompts om prestaties te verbeteren die verdergaan dan de bedoelde functionaliteit. Je moet bijvoorbeeld niet de prompt gebruiken om bronnen of referenties voor de resultaten aan te vragen. Tijdens onze tests hebben we vastgesteld dat er nauwkeurigheidsproblemen zijn met dergelijke resultaten.
- Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot schending van intellectuele eigendomsrechten.
- De resultaten voor gevoelige onderwerpen kunnen beperkt zijn. Azure OpenAI Service is getraind en geïmplementeerd om illegale en schadelijke inhoud te minimaliseren. Dit omvat een functionaliteit voor het filteren van inhoud. Dit kan leiden tot beperkte resultaten of foutberichten wanneer de AI-ontwerpassistent wordt gebruikt voor cursussen die te maken hebben met gevoelige onderwerpen (bijv. zelfbeschadiging, geweld, haat of seks).
- Gebruik geen prompts die in strijd zijn met de voorwaarden van de overeenkomst van je instelling met Anthology of die in strijd zijn met de gedragsregels van Microsoft voor de Azure OpenAI Service en het beleid inzake acceptabel gebruik in de Voorwaarden voor onlineservices van Microsoft.
Trustworthy AI-principes in de praktijk
Anthology en Microsoft zijn van mening dat het wettelijke, ethische en verantwoordelijk gebruik van AI een belangrijke prioriteit is. In dit gedeelte wordt uitgelegd hoe Anthology en Microsoft hebben gewerkt om het toepasselijke risico voor het wettelijke, ethische en verantwoordelijk gebruik van AI aan te pakken en de Anthology Trustworthy AI-principes te implementeren. Het stelt ook stappen voor waar onze klanten rekening mee kunnen houden bij het uitvoeren van hun eigen AI- en juridische beoordelingen van ethische AI-risico's van hun implementatie.
Transparantie en uitlegbaarheid
- We maken in de Learn-beheerdersconsole duidelijk dat dit een door AI-gefaciliteerde functionaliteit is.
- In de gebruikersinterface voor cursusleiders worden de functionaliteiten van de AI-ontwerpassistenten duidelijk gemarkeerd als functionaliteiten die ‘Genereren’. Cursusleiders kunnen ook worden gevraagd om de tekstuitvoer vóór gebruik te bekijken. · De metagegevens van de resultaten die zijn gemaakt door de functionaliteiten van de AI-ontwerpassistent hebben een veld voor automatisch gegenereerde inhoud en of de inhoud vervolgens is gewijzigd door de cursusleider.
- Naast de informatie in dit document over hoe de AI-ontwerpassistent en de Azure OpenAI Service-modellen werken, biedt Microsoft aanvullende informatie over de Azure OpenAI Service in de Transparantie-opmerking.
- We moedigen klanten aan om transparant te zijn over het gebruik van AI binnen de AI-ontwerpassistent. Bied cursusleiders en andere belanghebbenden indien nodig de relevante informatie uit dit document en de documentatie die hierin is gekoppeld.
Betrouwbaarheid en nauwkeurigheid
- We maken in de Learn-beheerdersconsole duidelijk dat dit een door AI-gefaciliteerde functionaliteit is die onnauwkeurige of ongewenste resultaten kan produceren. Dergelijke resultaten moeten altijd worden gecontroleerd.
- In de gebruikersinterface kunnen cursusleiders worden gevraagd de tekstuitvoer te controleren op nauwkeurigheid.
- Zoals nauwkeurig beschreven in de sectie Beperkingen van de Transparantie-opmerking van Azure OpenAI Service, bestaat er een risico van onnauwkeurige resultaten (inclusief 'hallucinaties'). Hoewel de specifieke aard van de AI-ontwerpassistent en onze implementatie bedoeld is om onnauwkeurigheden te minimaliseren, is het de verantwoordelijkheid van onze klanten om de resultaten te controleren op nauwkeurigheid, vooroordelen en andere mogelijke problemen.
- Zoals hierboven vermeld, dienen klanten de prompt niet te gebruiken buiten die hiervoor bedoelde praktijkscenario’s, aangezien dit kan resulteren in onnauwkeurige resultaten (bijv. als er om referenties en bronnen wordt gevraagd).
- Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
- Cursusleiders kunnen de aanvullende prompts en instellingen in de opeengestelde werkstromen gebruiken om meer context te bieden aan de AI-ontwerpassistent om de overeenstemming en nauwkeurigheid te verbeteren.
- Cursusleiders kunnen bestaande werkstromen in Learn gebruiken om de resultaten van de AI-ontwerpassistent handmatig te bewerken voordat ze de resultaten aan studenten geven.
- Klanten kunnen alle onnauwkeurige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.
Eerlijkheid
- Grote taalmodellen brengen inherent risico's met betrekking tot stereotypering, over- of ondervertegenwoordiging en andere vormen van schadelijke vooroordelen met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Gezien deze risico's hebben we de functionaliteiten van de AI-ontwerpassistent zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor schadelijke vooroordelen of waarin de impact van dergelijke vooroordelen groter kan zijn.
- Toch kan niet worden uitgesloten dat een deel van de resultaten door schadelijke vooroordelen kan worden beïnvloed. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat kan helpen om eventuele schadelijke vooroordelen te voorkomen.
- Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
- Klanten kunnen potentiële schadelijke vooroordelen aan ons melden via de contactkanalen die in de introductie worden vermeld.
Privacy en beveiliging
- Zoals hierboven is beschreven in de sectie 'Belangrijkste feiten', worden alleen beperkte persoonlijke gegevens gebruikt voor de AI-ontwerpassistent en zijn deze beperkt toegankelijk voor Microsoft. De sectie beschrijft ook onze toewijding en die van Microsoft met betrekking tot het gebruik van persoonlijke gegevens. Gezien de aard van de AI-ontwerpassistent zullen naar verwachting ook persoonlijke gegevens in de gegenereerde resultaten beperkt zijn.
- Ons Learn SaaS-product is ISO 27001/27017/27018 gecertificeerd en werkt momenteel aan certificering volgens ISO 27701. Deze certificeringen omvatten persoonlijke gegevens die met de AI-ontwerpassistenten te maken hebben, die worden beheerd door Anthology. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy en beveiliging in ons Trust Center.
- Microsoft beschrijft de procedures en toezeggingen voor gegevensprivacy en beveiliging in de documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.
- Ongeacht de toewijding van Anthology en Microsoft met betrekking tot gegevensprivacy en het niet gebruiken van invoer om de modellen te (her)trainen, moeten klanten mogelijk hun cursusleiders adviseren om geen persoonlijke gegevens of andere gevoelige informatie in de prompts in te voeren.
Veiligheid
- Grote taalmodellen brengen inherent risico’s met betrekking tot resultaten die ongepast, aanstootgevend of anderszins onveilig zijn met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Gezien deze risico's hebben we de functionaliteiten van de AI-ontwerpassistent zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor onveilige resultaten of waarin de impact van een dergelijke resultaten groter kan zijn.
- Toch kan niet worden uitgesloten dat een deel van de resultaten onveilig kan zijn. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat verder kan helpen om de risico’s van onveilige resultaten te voorkomen.
- Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
- Klanten moeten alle potentiële onveilige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.
Menselijk beheer
- Om de risico’s te verminderen met betrekking tot het gebruik van generatieve AI voor onze klanten en hun gebruikers, hebben we opzettelijk klanten de controle gegeven over de functionaliteiten van de AI-ontwerpassistent. Je moet de AI-ontwerpassistent daarom inschakelen. Beheerders moeten de AI-ontwerpassistent activeren en kunnen vervolgens elke functionaliteit afzonderlijk activeren. Ze kunnen ook de AI-ontwerpassistent als geheel of elk van de afzonderlijke functionaliteiten deactiveren.
- Bovendien hebben cursusleiders de controle over de resultaten. Ze moeten de tekstuitvoer doornemen en kunnen de tekstuitvoer bewerken.
- De AI-ontwerpassistent omvat geen geautomatiseerde besluitvorming die wettelijke of anderszins significante gevolgen kan hebben voor studenten of andere personen.
- We raden klanten aan om dit document inclusief de informatiekoppelingen in dit document zorgvuldig te bekijken om er zeker van te zijn dat ze de mogelijkheden en beperkingen van de AI-ontwerpassistent en de onderliggende Azure OpenAI Service begrijpen voordat ze de AI-ontwerpassistent activeren in de productieomgeving.
Aansluiting van waarden
- Grote taalmodellen brengen inherent risico's met zich mee met betrekking tot resultaten die bevooroordeeld, ongepast of die anderszins niet overeengestemd zijn met de waarden van Anthology of de waarden van onze klanten en studenten. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Daarnaast bestaat het risico dat grote taalmodellen (net als elke technologie die een breed doel dient) over het algemeen worden misbruikt voor praktijkscenario’s die niet overeenstemmen met de waarden van Anthology, onze klanten of hun eindgebruikers en die van de samenleving in bredere zin (bijvoorbeeld voor criminele activiteiten, om schadelijke of anderszins ongepaste resultaten te creëren).
- Gezien deze risico's, hebben we de functionaliteiten van onze AI-ontwerpassistent zorgvuldig ontworpen en geïmplementeerd om het risico van niet-afgestemde resultaten te minimaliseren. We hebben ons bijvoorbeeld gericht op functionaliteiten voor cursusleiders in plaats van voor studenten. We hebben ook bewust functionaliteiten uitgesloten die potentieel van groot belang zijn.
- Microsoft controleert ook prompts en resultaten als onderdeel van de functie filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen.
Intellectueel eigendom
- Grote taalmodellen brengen inherent risico's met zich mee betrekking tot mogelijke inbreuk op intellectuele eigendomsrechten. De meeste intellectuele eigendomsrechten over de hele wereld hebben niet volledig voorzien en zijn niet aangepast aan de opkomst van grote taalmodellen en de complexiteit van de problemen die zich voordoen door het gebruik ervan. Hierdoor is er op dit moment geen duidelijk juridisch kader of een duidelijke richtlijn voor de kwesties en risico's op het gebied van intellectueel eigendom die voortkomen uit het gebruik van deze modellen.
- Uiteindelijk is het de verantwoordelijkheid van onze klant om de resultaten van de AI-ontwerpassistent te controleren op mogelijke inbreuk op intellectueel eigendomsrecht. Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot hogere schending van intellectuele eigendomsrechten.
Toegankelijkheid
We hebben het AI-ontwerpsysteem ontworpen en ontwikkeld met toegankelijkheid in het achterhoofd, net als bij Learn en onze andere producten. Voorafgaand aan de release van het AI-ontwerpsysteem hebben we doelbewust de toegankelijkheid verbeterd van de semantische structuur, navigatie, toetsenbordbediening, labels, aangepaste componenten en afbeeldingswerkstromen, om een paar gebieden te noemen. Toegankelijkheid blijft de prioriteit terwijl we in de toekomst gebruikmaken van AI.
Verantwoordelijkheid
- Anthology heeft een Trustworthy AI-programma dat is ontworpen om het wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Duidelijke interne aansprakelijkheid en de systematische ethische AI-controle of functionaliteiten zoals die van de AI-ontwerpassistent zijn belangrijke steunpilaren van het programma.
- Voor de levering van de AI-ontwerpassistent werken we samen met Microsoft om gebruik te maken van de Azure OpenAI Service die de basis vormt voor de AI-ontwerpassistent. Microsoft zet zich al lang in voor het ethische gebruik van AI.
- Klanten moeten overwegen om intern beleid, procedures en evaluatie van AI-toepassingen van derden te implementeren om hun eigen wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Deze informatie is bedoeld om de beoordeling van de AI-ontwerpassistent door onze klanten te ondersteunen.
Overige informatie
- Trustworthy AI-aanpak van Anthology
- Pagina over verantwoorde AI van Microsoft
- Transparantie-opmerking van Microsoft voor Azure OpenAI Service
- Microsoft-pagina over gegevens, privacy en beveiliging voor Azure OpenAI-service