AI-gesprek — Transparantie-opmerking
Het wettige, ethische en verantwoordelijke gebruik van kunstmatige intelligentie (AI) is een belangrijke prioriteit voor Anthology. Daarom hebben we een Trustworthy AI-programma ontwikkeld en geïmplementeerd. Informatie over ons programma en onze algemene benadering van Trustworthy AI vind je in ons Trust Center. Een overzicht van Anthology-oplossingen met een of meer verschillende AI-functies vind je in onze lijst met generatieve AI-functies.
Als onderdeel van onze Trustworthy AI-principes zijn we toegewijd tot transparantie, uitlegbaarheid en aansprakelijkheid. Deze pagina is bedoeld om de nodige transparantie en uitleg te bieden om onze klanten te helpen met hun implementatie van AI-gesprek. We raden beheerders aan om deze pagina zorgvuldig te bekijken en ervoor te zorgen dat cursusleiders op de hoogte zijn van de onderstaande overwegingen en aanbevelingen voordat je de functionaliteiten van AI-gesprekken voor je instelling activeert.
Contact met ons opnemen:
- Voor vragen of feedback over onze algemene benadering van Trustworthy AI of hoe we deze pagina nuttiger kunnen maken voor onze klanten, stuur ons een e-mail op [email protected]
- Dien een ticket voor de klantenondersteuning in bij vragen of feedback over de functionaliteit of resultaten van AI-gesprek.
Laatst bijgewerkt: 1 november 2024
AI-gefaciliteerde functionaliteiten
AI-gesprek
AI-gesprek is speciaal ontworpen als een nieuwe interactieve activiteit waaraan studenten actief kunnen deelnemen. Cursusleiders kunnen een AI-gesprek maken in hun cursussen, met een overzicht van een onderwerp en een AI-persona, en kunnen het gesprekstype selecteren waaraan studenten willen deelnemen. Binnen de functionaliteit voor AI-gesprek kunnen cursusleiders kiezen uit twee opties: Socratische vraagstelling, waarbij de AI-persona studenten stimuleert kritisch te denken door middel van continue vragen of rollenspel, waarmee studenten een scenario kunnen uitspelen met de AI-persona.
Socratische vraagstelling
Dit is een sturende vraagstelling of socratische oefening. De AI-persona zal de antwoorden van studenten niet bevestigen of afkeuren, maar stelt de studenten een reeks vragen. Aan het einde van het gesprek kunnen studenten een reflectie geven op de activiteit, waarbij de zwakke of sterke punten in hun leerproces worden benadrukt. Ook kunnen ze aangeven of de AI-bot vooroordelen toonde, hallucinaties uitte of onnauwkeurig was. Na het indienen ontvangt de cursusleider een transcriptie van het gesprek en de reflectie, zodat de interacties volledig transparant zijn. Dit is een geweldige manier om een uitdagende dialoog te voeren over de cursusonderwerpen zonder afzonderlijke een-op-een-gesprekken te voeren, wat lastig kan zijn voor grotere of complexere cursussen.
AI-gesprek biedt cursusleiders de mogelijkheid om een afbeelding te genereren voor de AI-gesprekspersona met behulp van generatieve AI.
Deze functionaliteiten zijn onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen worden gewijzigd. Raadpleeg de relevante releaseopmerkingen voor meer informatie.
Rollenspel
Met de functie Rollenspel kunnen cursusleiders gesimuleerde gesprekken starten voor hun studenten door specifieke rollen te definiëren voor zowel de AI-persona als de studenten. Deze interactieve optie verbetert de leer- en trainingservaringen door studenten in realistische scenario's de mogelijkheid te bieden communicatievaardigheden te oefenen en zo actieve leermogelijkheden te bieden. De functie Rollenspel heeft aanpasbare persoonlijkheidskenmerken voor de AI-persona en de contextuele prompts, en bevordert boeiende en dynamische uitwisselingen, het algehele leerproces wordt verrijkt en kritisch denken wordt aangemoedigd.
Cursusleiders kunnen de AI-persona aanpassen door er een naam en afbeelding aan toe te wijzen. Ze definiëren ook de persoonlijkheidskenmerken van de AI-persona en selecteren de complexiteit van de antwoorden. De persoonlijkheidskenmerken die worden toegewezen aan de AI-persona in dit rollenspel vormen de reacties en interacties van de persona.
Let op: cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en het nagebootste gesprek bekijken, aangezien de persoonlijkheidskenmerken de toon en inhoud van het gesprek aanzienlijk beïnvloeden. Als de cursusleider bijvoorbeeld instelt dat de AI-persona warm en empathisch is, reageert de AI-persona met deze eigenschappen. Als een cursusleider instelt dat de AI-persona controversieel of partijdig is, is de uitvoer van de AI-persona waarschijnlijk controversieel of bevooroordeeld. De AI-persona zal ook niet altijd controversiële, partijdige of gevaarlijke ideeën van studenten uitdagen.
Als onderdeel van het testen van deze functionaliteit heeft Anthology deze resultaten bekeken en besproken om te bepalen of de functionaliteit moet worden beperkt tot het voorkomen van vooroordelen of ongepaste resultaten. We zijn tot de conclusie gekomen dat instellingen en cursusleiders over het algemeen de academische vrijheid moeten hebben om studenten te laten deelnemen aan gesimuleerde gesprekken die controversieel of bevooroordeeld kunnen zijn. Tegelijkertijd begrijpen we dat er limieten zijn aan de resultaten die de AI-persona zou moeten kunnen produceren. Dienovereenkomstig zijn cursusleiders uiteindelijk verantwoordelijk voor de resultaten van AI-gesprekken en de dialoog die studenten zullen tegenkomen via de functie Rollenspel. In onze tests hebben de bestaande geleiderails die zijn geïmplementeerd door OpenAI, Microsoft en Anthology voorkomen dat bepaalde resultaten illegaal waren of anders niet voldeden aan onze Trustworthy AI-standaarden. We blijven deze functie en alle gerelateerde klantfeedback in de gaten houden om ervoor te zorgen dat we wijzigingen kunnen doorvoeren die nodig zijn om deze functie te laten voldoen aan onze Trustworthy AI-standaarden.
De functionaliteit voor AI-gesprek is onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen gewijzigd worden. Raadpleeg de relevante releaseopmerkingen voor meer informatie.
Belangrijkste feiten
Vraag | Antwoord |
---|---|
Welke functionaliteiten gebruiken AI-systemen? | Door AI gegenereerde afbeeldingen voor de persona (zoals hierboven beschreven) Functionaliteiten van AI-gesprek (zoals hierboven beschreven). |
Is dit een door derden ondersteund AI-systeem? | Ja, AI-gesprek en door AI gegenereerde afbeeldingen maken gebruik van de Azure OpenAI Service van Microsoft. |
Hoe werkt het AI-systeem? | AI-gesprek maakt gebruik van de Azure OpenAI Service van Microsoft om automatisch resultaten te genereren. Dit wordt bereikt door gebruik te maken van informatie die de cursusleider binnen de optie Socratische vraagstelling of Rollenspel zelf verstrekt, zoals onderwerp, AI-persona, karaktertrekken en complexiteit, samen met onze prompt die de antwoorden leiden. Voor een uitleg van hoe de Azure OpenAI Service en de onderliggende grote taalmodellen van OpenAI GPT werken, raadpleeg je de sectie Inleiding van de Transparantie-opmerking van Microsoft en de koppelingen daarin. |
Waar wordt het AI-systeem gehost? | Anthology maakt momenteel gebruik van meerdere algemene Azure OpenAI Service-instanties. De primaire instantie wordt gehost in de Verenigde Staten, maar soms kunnen we bronnen in andere locaties gebruiken, zoals Canada, het Verenigd Koninkrijk, of Frankrijk om de beste beschikbaarheidsoptie voor de Azure OpenAI Service voor onze klanten te bieden. Alle cursusgegevens van klanten en invoer van cursusleiders die worden gebruikt voor de invoer en alle resultaten die gegenereerd wordt door AI-gesprek worden opgeslagen in de bestaande Blackboard-database van de klant door Anthology. |
Moet je deze functionaliteit inschakelen? | Ja. Beheerders moeten AI-gesprek activeren in de Blackboard-beheerconsole. Instellingen voor AI-gesprek staan in de categorie Building Blocks. Selecteer AI-gesprek en Unsplash. Beheerders kunnen elke functionaliteit afzonderlijk activeren of deactiveren. Beheerders moeten indien nodig ook bevoegdheden voor 'AI-ontwerpassistent gebruiken' toewijzen aan cursusrollen, zoals de rol Cursusleider. |
Hoe wordt het AI-systeem getraind? | Anthology is niet betrokken bij de training van de grote taalmodellen die de functionaliteiten van AI-gesprek aandrijven. Deze modellen worden getraind door OpenAI/Microsoft als onderdeel van de Azure OpenAI Service die de functionaliteiten van AI-gesprek aandrijven. Microsoft geeft in de sectie Inleiding van de Transparantie-opmerking van Microsoft en de bijbehorende koppelingen informatie over de wijze waarop de grote taalmodellen worden getraind. Anthology past de Azure OpenAI Service niet verder aan op basis van gegevens van ons of van onze klanten. |
Worden clientgegevens gebruikt voor het (her)trainen van het AI-systeem? | Nee. Microsoft verbindt zich contractueel in de Azure OpenAI-voorwaarden met Anthology geen invoer of uitvoer van de Azure OpenAI te gebruiken voor de (her)training van het grote taalmodel. Dezelfde toezegging wordt gedaan in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service. |
Hoe gebruikt Anthology persoonlijke informatie bij het aanbieden van het AI-systeem? | Anthology gebruikt de informatie die is verzameld in verband met AI-gesprek alleen voor het verstrekken, onderhouden, en ondersteunen van AI-gesprek en wanneer we de contractuele toestemming hebben om dit te doen in overeenstemming met de toepasselijke wetgeving. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in ons Trust Center. |
In het geval dat een AI-systeem ondersteund wordt door een derde partij: hoe gebruikt deze derde partij persoonlijke gegevens? | Er wordt slechts beperkte cursusinformatie gegeven om Microsoft voor de Azure OpenAI Service. Dit mag over het algemeen geen persoonlijke gegevens bevatten (behalve in gevallen waarin persoonlijke gegevens zijn opgenomen in het onderwerp, de velden AI-persona of Persoonlijkheid, of de vragen en antwoorden van de student op de AI-bot). Daarnaast is alle informatie die de cursusleiders hebben toegevoegd aan de vraag toegankelijk. Microsoft gebruikt geen Anthology-gegevens of Anthology-clientgegevens waartoe ze toegang hebben (als onderdeel van de Azure OpenAI Service) om de OpenAI-modellen te verbeteren, de services van zijn eigen producten of van derden te verbeteren, of om de Azure OpenAI-modellen automatisch te verbeteren voor gebruik door Anthology in hulpmiddelen van Anthology. De modellen zijn staatloos. Microsoft controleert prompts en resultaten voor het filteren van inhoud. Prompts en resultaten worden maximaal 30 dagen opgeslagen. Meer informatie over de procedures voor gegevensprivacy met betrekking tot de Azure OpenAI Service vind je in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service. |
Is bij het ontwerp van het AI-systeem rekening gehouden met toegankelijkheid? | Ja, onze engineers voor toegankelijkheid hebben samengewerkt met productteams om ontwerpen te controleren, belangrijke toegankelijkheidsoverwegingen te communiceren en de nieuwe functies specifiek op toegankelijkheid testen. We blijven toegankelijkheid als integraal onderdeel beschouwen van onze Trustworthy AI-aanpak. |
Overwegingen en aanbevelingen voor instellingen
Bedoelde praktijkscenario’s
AI-gesprek is alleen bedoeld ter ondersteuning van de hierboven vermelde functionaliteiten. Deze functionaliteiten worden aangeboden aan en zijn bedoeld voor de cursusleiders en studenten van onze klant, met als doel het verbeteren van het leerproces van studenten door middel van activiteiten die door AI worden ondersteund.
Praktijkscenario's buiten het bereik
Omdat AI-gesprek wordt aangedreven door Microsoft met een zeer breed scala aan praktijkscenario’s, is het mogelijk om de promptfunctionaliteit van AI-gesprek te gebruiken om resultaten op te vragen buiten de bedoelde functionaliteiten. We raden klanten sterk af om AI-gesprek te gebruiken voor enig doel dat buiten het bereik van de bedoelde functionaliteiten valt. Hierdoor kunnen er resultaten worden geproduceerd die niet geschikt zijn voor of compatibel zijn met de Blackboard-omgeving en de maatregelen die we hebben genomen om onnauwkeurige resultaten te minimaliseren.
De onderstaande punten moeten met name worden gevolgd bij het maken van prompts:
- Gebruik alleen prompts die zijn bedoeld om het gesprek voort te zetten met betrekking tot het toegewezen onderwerp voor AI-gesprek. Reageer bijvoorbeeld op de vragen en prompts van de AI-bot of stel de AI-bot vragen over het toegewezen onderwerp.
- Gebruik geen prompts om prestaties te verbeteren die verdergaan dan de bedoelde functionaliteit. Je moet bijvoorbeeld niet de prompt gebruiken om bronnen of referenties voor de resultaten aan te vragen. Tijdens onze tests hebben we vastgesteld dat er nauwkeurigheidsproblemen zijn met dergelijke resultaten.
- Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot schending van intellectuele eigendomsrechten.
- De resultaten voor gevoelige onderwerpen kunnen beperkt zijn. Azure OpenAI Service is getraind en geïmplementeerd om illegale en schadelijke inhoud te minimaliseren. Dit omvat een functionaliteit voor het filteren van inhoud. Dit kan leiden tot beperkte resultaten of foutberichten wanneer AI-gesprek wordt gebruikt voor cursussen die te maken hebben met gevoelige onderwerpen (bijvoorbeeld voor zelfbeschadiging, geweld, haat of seks). Gebruik geen prompts die in strijd zijn met de voorwaarden van de overeenkomst van je instelling met Anthology of die in strijd zijn met de gedragsregels van Microsoft voor de Azure OpenAI Service en het beleid inzake acceptabel gebruik in de Voorwaarden voor onlineservices van Microsoft.
Voor Rollenspel: Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en het nagebootste gesprek bekijken, aangezien de persoonlijkheidskenmerken de toon en inhoud van het gesprek aanzienlijk beïnvloeden. Zie de functiebeschrijving hierboven voor meer informatie.
Trustworthy AI-principes in de praktijk
Anthology is van mening dat het wettelijke, ethische en verantwoordelijk gebruik van AI een belangrijke prioriteit is. In dit gedeelte wordt uitgelegd hoe Anthology en Microsoft hebben gewerkt om het toepasselijke risico voor het wettelijke, ethische en verantwoordelijk gebruik van AI aan te pakken en de Anthology Trustworthy AI-principes te implementeren. Het stelt ook stappen voor waar onze klanten rekening mee kunnen houden bij het uitvoeren van hun eigen beoordelingen van ethische AI-risico's.
Transparantie en uitleg
- We maken in de Blackboard-beheerdersconsole duidelijk dat AI-gesprek een door AI-gefaciliteerde functionaliteit is.
- In de gebruikersinterface voor cursusleiders worden de functionaliteiten van AI-gesprek duidelijk gemarkeerd als AI-functionaliteiten. Cursusleiders kunnen het gesprek vooraf bekijken en uitproberen voordat ze het beschikbaar stellen aan studenten.
- Naast de informatie in dit document over hoe AI-gesprek en de Azure OpenAI Service-modellen werken, biedt Microsoft aanvullende informatie over de Azure OpenAI Service in de Transparantie-opmerking.
- We moedigen klanten aan om transparant te zijn over het gebruik van AI binnen het AI-gesprek. Bied cursusleiders, studenten en andere belanghebbenden indien nodig de relevante informatie uit dit document en de documentatie die hierin is gekoppeld.
Betrouwbaarheid en nauwkeurigheid
- We maken in de Blackboard-beheerdersconsole duidelijk dat AI-gesprek een door AI-gefaciliteerde functionaliteit is die onnauwkeurige of ongewenste resultaten kan produceren. Dergelijke resultaten moeten altijd worden gecontroleerd.
- In de gebruikersinterface zien cursusleiders die een voorbeeldweergave bekijken en studenten die AI-gesprekken gebruiken dat antwoorden worden gegenereerd door AI en dus vooroordelen kunnen bevatten of mogelijk niet juist zijn.
- Rollenspel: Cursusleiders moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van de AI-persona vorm geven aan de reacties en interacties met studenten en van invloed kunnen zijn op de betrouwbaarheid en nauwkeurigheid van de resultaten (inclusief een verhoogd risico op hallucinaties). Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie de functiebeschrijving voor meer informatie.
- Zoals nauwkeurig beschreven in de sectie Beperkingen van de Transparantie-opmerking van Azure OpenAI Service, bestaat er een risico van onnauwkeurige resultaten (inclusief hallucinaties). Hoewel de specifieke aard van AI-gesprek en onze implementatie bedoeld is om onnauwkeurigheden te minimaliseren, is het de verantwoordelijkheid van onze klanten om de resultaten te controleren op nauwkeurigheid, vooroordelen, en andere mogelijke problemen. Als er sprake is van problemen, hoeft AI-gesprek niet te worden gebruikt met studenten. Dit is een optionele functionaliteit van de cursus die kan worden gebruikt naar goeddunken van de cursusleider.
- Zoals hierboven vermeld, dienen klanten de prompt niet te gebruiken buiten die hiervoor bedoelde praktijkscenario’s, aangezien dit kan leiden tot onnauwkeurige resultaten (bijvoorbeeld als er om referenties en bronnen wordt gevraagd).
- Als onderdeel van hun communicatie met betrekking tot AI-gesprek, moeten klanten hun cursusleiders en studenten bewust maken van deze potentiële beperkingen en risico’s.
- Cursusleiders kunnen de aanvullende prompts en instellingen in de generatieve werkstromen gebruiken om meer context te bieden aan AI-gesprek om de overeenstemming en nauwkeurigheid te verbeteren.
- Klanten kunnen alle onnauwkeurige resultaten aan ons melden via de kanalen die in de introductie van deze opmerking worden vermeld.
Eerlijkheid
- Grote taalmodellen brengen inherent risico's met betrekking tot stereotypering, over- of ondervertegenwoordiging, en andere vormen van schadelijke vooroordelen met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Gezien deze risico's hebben we de functionaliteiten van AI-gesprek zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor schadelijke vooroordelen of waarin de impact van dergelijke vooroordelen groter kan zijn.
- Rollenspel: Cursusleiders moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van de AI-persona vorm geven aan de reacties en interacties met studenten en kan leiden tot resultaten die stereotypen, over- of ondervertegenwoordiging en andere vormen van schadelijke vooroordelen kunnen bevatten. Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie functiebeschrijving voor meer informatie.
- Toch kan niet worden uitgesloten dat een deel van de resultaten door schadelijke vooroordelen kan worden beïnvloed. Zoals hierboven vermeld onder 'Nauwkeurigheid, worden cursusleiders gevraagd de resultaten te controleren, wat kan helpen om eventuele schadelijke vooroordelen te voorkomen.
- Als onderdeel van hun communicatie met betrekking tot AI-gesprek, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
- Klanten kunnen potentiële schadelijke vooroordelen aan ons melden via de contactkanalen die in de introductie van deze opmerking worden vermeld.
Privacy en beveiliging
- Zoals hierboven is beschreven in de sectie 'Belangrijkste feiten', worden alleen beperkte persoonlijke gegevens gebruikt voor AI-gesprek en zijn deze beperkt toegankelijk voor Microsoft. De sectie beschrijft ook onze toewijding en die van Microsoft met betrekking tot het gebruik van persoonlijke gegevens. Gezien de aard van AI-gesprek zullen naar verwachting ook persoonlijke gegevens in de gegenereerde resultaten beperkt zijn.
- Ons Blackboard SaaS-product is ISO 27001/27017/27018 en ISO 27701 gecertificeerd. Deze certificeringen omvatten persoonlijke gegevens die met AI-gesprek te maken hebben, die worden beheerd door Anthology. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy en beveiliging in ons Trust Center.
- Microsoft beschrijft de procedures en toezeggingen voor gegevensprivacy en beveiliging in de documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.
- Ongeacht de toewijding van Anthology en Microsoft met betrekking tot gegevensprivacy en het niet gebruiken van invoer om de modellen te hertrainen, moeten klanten mogelijk hun cursusleiders en studenten adviseren om geen persoonlijke gegevens of andere gevoelige informatie in de prompts of in het gesprek in te voeren.
Veiligheid
- Grote taalmodellen brengen inherent risico’s met betrekking tot resultaten die ongepast, aanstootgevend, of anderszins onveilig zijn met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Gezien deze risico's hebben we de functionaliteiten van AI-gesprek zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor onveilige resultaten of waarin de impact van dergelijke resultaten groter kan zijn.
- Rollenspel: Cursusleiders moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van een AI-persona een bepaalde vorm geven aan de reacties en interacties met studenten en dat dit kan leiden tot resultaten die als ongepast, aanstootgevend of anderszins onveilig kunnen worden beschouwd. Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie functiebeschrijving voor meer informatie.
- Toch kan niet worden uitgesloten dat een deel van de resultaten van AI-gesprek onveilig kan zijn. Zoals hierboven vermeld onder 'Nauwkeurigheid' worden cursusleiders gevraagd de resultaten te controleren, wat verder kan helpen om de risico’s van onveilige resultaten te voorkomen.
- Als onderdeel van hun communicatie met betrekking tot AI-gesprek, moeten klanten hun cursusleiders en studenten bewust maken van deze potentiële beperking.
- Klanten moeten alle potentiële onveilige resultaten aan ons melden via de kanalen die in de introductie van deze opmerking worden vermeld.
Menselijk beheer
- Om de risico’s te verminderen met betrekking tot het gebruik van generatieve AI voor onze klanten en hun gebruikers, hebben we opzettelijk klanten de controle gegeven over de functionaliteiten van AI-gesprek. Je moet AI-gesprek daarom inschakelen. Beheerders moeten AI-gesprek activeren en kunnen vervolgens elke functionaliteit afzonderlijk activeren. Ze kunnen ook AI-gesprek als geheel of elk van de afzonderlijke functionaliteiten deactiveren.
- AI-gesprek omvat geen geautomatiseerde besluitvorming die wettelijke of anderszins significante gevolgen kan hebben voor studenten of andere personen.
- We raden klanten aan om dit document inclusief de informatiekoppelingen in dit document zorgvuldig te bekijken om er zeker van te zijn dat ze de mogelijkheden en beperkingen van AI-gesprek en de onderliggende Azure OpenAI Service begrijpen voordat ze AI-gesprek activeren in de productieomgeving.
Aansluiting van waarden
- Grote taalmodellen brengen inherent risico's met zich mee met betrekking tot resultaten die bevooroordeeld, ongepast, of die anderszins niet overeengestemd zijn met de waarden van Anthology of de waarden van onze klanten en studenten. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
- Daarnaast bestaat het risico dat grote taalmodellen (net als elke technologie die een breed doel dient) worden misbruikt voor scenario’s die niet overeenstemmen met de waarden van Anthology, onze klanten of hun eindgebruikers, en die van de samenleving in bredere zin (bijvoorbeeld voor criminele activiteiten, om schadelijke of anderszins ongepaste resultaten te creëren).
- Gezien deze risico's, hebben we de functionaliteiten van ons AI-gesprek zorgvuldig ontworpen en geïmplementeerd om het risico van niet-afgestemde resultaten te minimaliseren. We hebben ook bewust functionaliteiten uitgesloten die potentieel van groot belang zijn.
- Microsoft controleert ook prompts en resultaten als onderdeel van de functie filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen.
Intellectueel eigendom
- Grote taalmodellen brengen inherent risico's met zich mee betrekking tot mogelijke inbreuk op intellectuele eigendomsrechten. De meeste intellectuele eigendomsrechten over de hele wereld hebben niet volledig voorzien en zijn niet aangepast aan de opkomst van grote taalmodellen en de complexiteit van de problemen die zich voordoen door het gebruik ervan. Hierdoor is er op dit moment geen duidelijk juridisch kader of een duidelijke richtlijn voor de kwesties en risico's op het gebied van intellectueel eigendom die voortkomen uit het gebruik van deze modellen.
- Uiteindelijk is het de verantwoordelijkheid van onze klant om de resultaten van AI-gesprek te controleren op mogelijke inbreuk op intellectueel eigendomsrecht. Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot hogere schending van intellectuele eigendomsrechten.
Toegankelijkheid
We hebben AI-gesprek ontworpen en ontwikkeld met toegankelijkheid in het achterhoofd, net als bij Blackboard en onze andere producten. Voorafgaand aan de release van AI-gesprek hebben we doelbewust de toegankelijkheid verbeterd van de semantische structuur, navigatie, toetsenbordbediening, labels, aangepaste componenten en afbeeldingswerkstromen, om een paar gebieden te noemen. Toegankelijkheid blijft de prioriteit terwijl we in de toekomst gebruikmaken van AI.
Verantwoordelijkheid
- Anthology heeft een Trustworthy AI-programma dat is ontworpen om het wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Duidelijke interne aansprakelijkheid en de systematische ethische AI-controle of functionaliteiten zoals die van AI-gesprek zijn belangrijke steunpilaren van het programma.
- Voor de levering van AI-gesprek werken we samen met Microsoft om gebruik te maken van de Azure OpenAI Service die de basis vormt voor AI-gesprek. Microsoft zet zich al lang in voor het ethische gebruik van AI.
- Klanten moeten overwegen om intern beleid, procedures en evaluatie van AI-toepassingen van derden te implementeren om hun eigen wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Deze informatie is bedoeld om de beoordeling van AI-gesprek door onze klanten te ondersteunen.
Meer informatie
- Trustworthy AI-aanpak van Anthology
- Lijst met generatieve AI-functies van Anthology
- Pagina over verantwoorde AI van Microsoft
- Transparantie-opmerking van Microsoft voor Azure Vision Service
- Microsoft-pagina over gegevens, privacy en beveiliging voor Azure Vision Service