Lovlig, etisk og ansvarlig bruk av kunstig intelligens (AI) er en hovedprioritet for Anthology. Derfor har vi utviklet og implementert et pålitelig AI-program.t Du finner informasjon om programmet vårt og den generelle tilnærmingen til pålitelig AI i klareringssenteret vårt , og mer informasjon om generative AI-funksjoner i listen over generative AI-funksjoner.
Som en del av våre pålitelige AI-prinsipper forplikter vi oss til transparens, forklarbarhet og ansvarlighet. Denne siden er ment å gi nødvendig åpenhet og forklaringer for å hjelpe kundene våre med implementeringen av den alternative AI-tekstassistenten. Vi anbefaler at administratorer går nøye gjennom denne siden og sørger for at instruktørene er klar over vurderingene og anbefalingene nedenfor, før du aktiverer funksjonaliteten for alternativ tekstassistent for AI for institusjonen din.
Slik kontakter du oss:
- For spørsmål eller tilbakemeldinger om vår generelle tilnærming til pålitelig AI eller hvordan vi kan gjøre denne siden mer nyttig for kundene våre, send oss en e-post på [email protected].
- Hvis du har spørsmål eller tilbakemelding om funksjonaliteten eller utdataene til den alternative tekstassistenten for AI, kan du sende inn en henvendelse til kundestøtte via Behind the Blackboard.
AI-tilrettelagte funksjoner
Med den alternative AI-tekstassistenten får undervisere forslag til alternativ tekst for bilder som brukes i nettemnene deres via arbeidsflyten for Ally-undervisertilbakemelding. Den er ment å inspirere undervisere og gjøre tilgjengelighetskorrigeringer mer effektive. Anthology har inngått et samarbeid med Microsoft for å tilby denne funksjonaliteten, ikke minst fordi Microsoft har en langvarig forpliktelse til etisk bruk av AI.
Den alternative AI-tekstassistenten har følgende generative AI-tilrettelagte funksjoner:
- Generer en alternativ tekst for bilder. Foreslår alternativ tekst i Ally-undervisertilbakemelding når undervisere fikser bilder uten alternativ tekst.
Disse funksjonene er underlagt begrensningene og tilgjengeligheten til Azure AI Vision-tjenesten og kan endres. Se relevante versjonsmerknader for mer informasjon.
Viktige fakta
Spørsmål | Svare |
---|---|
Hvilke Ally-funksjonaliteter bruker AI-systemer? | Forslag til alternativ tekst via AI i Ally-underviserilbakemeldingspanelet, når et bilde har blitt flagget av Ally fordi det ikke har alternativ tekst. |
Er dette et tredjepartsstøttet AI-system? | Ja – AI alternativ AI-tekstassistent drives av Microsofts Azure Vision-tjeneste. |
Hvordan fungerer AI-systemet? | Alternativ AI-tekstassistent bruker Microsoft Azure Vision-tjeneste for å generere utdata automatisk. Dette oppnås ved å bruke bildet til å generere en alternativ tekst som sendes via Azure Vision-API. Ingen ytterligere informasjon brukes (f.eks. kurstittel, emnebeskrivelse). Bilder brukes ikke til å lære opp Microsoft Azure Vision-modeller, og Azure Vision-tjenesten genererer utdataene basert på hvert bilde som lastes opp til alternativ AI-tekstassistent. Ingen ledetekster brukes. Merk at for sluttbrukere som har sine LMS-forekomster konfigurert på andre språk enn engelsk, blir utdataene fra alternativ AI-tekst oversatt ved hjelp av AWS Translate. Hvis du ønsker en forklaring på hvordan språkmodellene for Azure AI Vision fungerer i detalj, kan du se delen Introduksjon i Microsofts gjennomsiktighetsmerknad og lenkene i det. |
Hvor er AI-systemet drevet? | Anthology bruker for øyeblikket flere globale forekomster av Azure Vision Service. Den primære forekomsten drives i USA, men noen ganger kan vi bruke ressurser andre steder, for eksempel Frankrike og APAC, for å tilby det beste tilgjengelighetsalternativet for Azure AI Vision for kundene våre. Alle klientutdata som genereres av den alternative AI-tekstassistenten, lagres i hver klients eksisterende Ally-database som administreres av Anthology. |
Er dette en valgfri funksjonalitet? | Ja. Administratorer må aktivere den alternative AI-tekstassistenten i LMS Ally-konfigurasjonsalternativene. Velg AI-generering av alternative beskrivelser for bilder under Funksjoner-kategorien. Administratorer kan aktivere eller deaktivere denne funksjonaliteten når som helst. |
Hvordan trenes AI-systemet? | Anthology er ikke involvert i opplæring av modeller som driver de alternative AI-tekstgjenkjenningsfunksjonene. Disse modellene er opplært av Microsoft som en del av Azure Vision-tjenesten. Microsoft gir informasjon om hvordan de store språkmodellene læres i introduksjonsdelen av Microsofts åpenhetsmerknad og koblingene i den. Anthology fininnstiller ikke Azure Vision-tjenesten ytterligere ved hjelp av våre egne eller våre kunders data. |
Brukes klientdata til å lære opp igjen AI-systemet? | Nei. Microsoft forplikter seg kontraktsmessig i vilkårene for Azure Vision med Anthology til ikke å bruke inndata i, eller utdata fra, Azure Vision for (ny)opplæring av den store språkmodellen. Den samme forpliktelsen er foretatt i Microsoft-dokumentasjonen om data, personvern og sikkerhet for Azure Vision-tjeneste. Bare forhåndsbygde modeller brukes. |
Hvordan bruker Anthology Ally personlig informasjon med hensyn til levering av AI-tekstassistentsystemet? | Anthology Ally bruker kun bilder som er samlet inn i forbindelse med alternativ AI-tekstassistent for å levere, vedlikeholde og støtte alternativ AI-tekstassistent. Du finner mer informasjon om Anthologys tilnærming til datavern i Anthologs klareringssenter. Bare bilder brukes til å drive denne funksjonen. Ingen ytterligere informasjon deles med Microsofts Azure Vision-tjeneste. Microsoft bruker ikke Anthology-data eller Anthology-klientdata de har tilgang til (som en del av Azure Vision-tjenesten) til å forbedre Vision-modellene, til å forbedre egne eller tredjeparts produkttjenester, og heller ikke til automatisk å forbedre Azure Vision-modellene for Anthology-bruk i Anthologys ressurs (modellene er tilstandsløse). Du finner mer informasjon om personvernpraksisene til Azure Vision-tjenesten i Microsoft dokumentasjonen om data, personvern og sikkerhet for Azure Vision-tjenesten. |
Ble tilgjengelighet vurdert i utformingen av det alternative tekstsystemet for AI? | Ja, tilgjengelighetsingeniørene våre har samarbeidet med produktteam for å gjennomgå design, kommunisere viktige tilgjengelighetshensyn og teste de nye funksjonene spesifikt med tanke på tilgjengelighet. Vi vil fortsette å vurdere tilgjengelighet som en integrert del av vår pålitelige AI-tilnærming. |
Vurderinger og anbefalinger for institusjoner
Tiltenkte brukstilfeller
Den alternative tekstassistenten for AI er bare ment å støtte funksjonaliteten som er oppført ovenfor. Disse funksjonene leveres til og er ment for våre kunders instruktører for å støtte dem med å fikse bilders tilgjengelighetsproblemer flagget av Ally.
Brukstilfeller utenfor omfanget
Den alternative tekstassistenten for AI er ikke beregnet på å gjøre alle bilder tilgjengelige med perfekt alternativ tekst, siden det fortsatt er opp til læreren å justere eller godkjenne den alternative teksten basert på konteksten til innholdet i emnet.
Troverdige AI-prinsipper i praksis
Anthology og Microsoft mener at lovlig, etisk og ansvarlig bruk av AI er en nøkkelprioritet. Denne delen forklarer hvordan Anthology og Microsoft har jobbet for å håndtere den nåværende risikoen for juridisk, etisk og ansvarlig bruk av AI og implementere Anthologys pålitelig AI-prinsipper. Det foreslår også trinn kundene våre kan vurdere når de foretar egen AI og juridiske vurderinger av etiske AI-risikoer ved implementeringen.
Transparens og forklarbarhet
- Vi gjør det tydelig i Ally-administrasjonskonfigurasjonsalternativene at dette er en AI-tilrettelagt funksjonalitet
- I brukergrensesnittet for undervisere er funksjonene i alternativ AI-tekstassistent tydelig merket som «Generative» funksjonaliteter. Undervisere blir også bedt om å gå gjennom tekstutdataene før bruk. · Metadataene for utdataene som opprettes av alternativ AI-tekstfunksjoner, vises i hver klients Ally-bruksrapport med et felt for automatisk generert innhold. Det viser også om utdataene senere ble redigert av underviseren.
- Foruten informasjonen i dette dokumentet om hvordan alternativ AI-tekstassistent og Azure Vision-tjenestemodellene fungerer, gir Microsoft tilleggsinformasjon om Azure Vision-tjenesten i gjennomsiktighetsmerknaden.
- Vi oppfordrer kunder til å være åpne om bruken av AI i alternativ AI-tekstassistent og gi undervisere og andre interessenter relevant informasjon fra dette dokumentet og dokumentasjonen det er lenket til her.
Pålitelighet og nøyaktighet
- Vi gjør det tydelig i Ally-administrasjonskonfigurasjonsalternativer og vilkår for bruk at dette er en AI-tilrettelagt funksjonalitet som kan gi unøyaktige eller uønskede utdata, og at slike utdata alltid skal gjennomgås av underviseren.
- I brukergrensesnittet blir undervisere bedt om å gå gjennom tekstutdataene for å påse at teksten er nøyaktig.
- Som beskrevet i Begrensninger-delen i gjennomsiktighetsmerknaden for Azure Vision-tjenesten, er det en risiko for unøyaktige utdata. Selv om den spesifikke arten til alternativ AI-tekstassistent og implementeringen vår er ment å minimere unøyaktighet, er det kundens ansvar å gjennomgå utdataene for nøyaktighet, skjevhet og andre potensielle problemer.
- Som en del av kommunikasjonen deres angående alternativ AI-tekstassistent, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
- Undervisere kan bruke eksisterende Ally-grensesnitt for å redigere alternativ AI-tekstassistent-utdata manuelt før de publiserer utdataene til studentene.
- Kunder kan rapportere eventuelle unøyaktige utdata til oss ved å bruke kanalene som er oppført i introduksjonen.
Rettferdighet
- Store språkmodeller er i en selv innebygd risiko knyttet til stereotypier, over-/underrepresentasjon og andre former for skadelige fordommer. Microsoft beskriver disse risikoene i delen Begrensninger i innsynsnotatet for Azure Vision-tjenesten.
- På grunn av disse risikoene har vi nøye valgt alternativ AI-tekstassistansefunksjonalitetene for å unngå brukstilfeller som kan være mer utsatt for skadelig skjevhet eller der virkningen av slik skjevhet kan være mer betydelig.
- Det kan derimot ikke utelukkes at noe av produksjonen kan være påvirket av skadelige skjevheter. Som nevnt ovenfor under "Nøyaktighet", blir undervisere bedt om å gjennomgå utdata, noe som kan bidra til å redusere skadelig skjevhet.
- Som en del av kommunikasjonen deres angående alternativ AI-tekstassistent, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
- Kunder kan rapportere eventuelle potensielt skadelige skjevheter til oss ved å bruke kontaktkanalene som er oppført i introduksjonen.
Personvern og sikkerhet
- Som beskrevet i delen «Nøkkelfakta»-delen over, er det bare bildet som brukes til alternativ AI-tekstassistent og er tilgjengelig for Microsoft. Delen beskriver også vår og Microsoft forpliktelse angående bruken av personlig informasjon.
- Ally er ISO 27001/27017/27018/27701-sertifisert. Disse sertifiseringene inkluderer alternativ AI-tekstassistentrelaterte utdata som administreres av Anthology. Du finner mer informasjon om Anthologys tilnærming til personvern og sikkerhet i vårt klareringssenter.
- Microsoft beskriver sine praksiser og forpliktelser for datavern og sikkerhet i dokumentasjonen om data, personvern og sikkerhet for Azure Vision-tjeneste.
- Uavhengig av Anthologys og Microsofts forpliktelse til personvern og til å ikke bruke innspill til å lære (opp igjen) modellene, kan kunder råde sine undervisere til ikke å inkludere personlig informasjon eller annen konfidensiell informasjon i bildene.
Sikkerhet
- Store språkmodeller utgjør i seg selv en risiko for utdata som kan være upassende, støtende eller på andre måter utrygge. Microsoft beskriver disse risikoene i delen Begrensninger i gjennomsiktighetsmerknaden for Azure Vision-tjenesten.
- På grunn av disse risikoene har vi nøye valgt alternativ AI-tekstfunksjonalitetene for å unngå brukstilfeller som kan være mer utsatt for usikre utdata, eller der virkningen av slike utdata kan være mer betydelig.
- Det kan likevel ikke utelukkes at noe av produksjonen kan være usikker. Som nevnt ovenfor under «Nøyaktighet», blir undervisere bedt om å gå gjennom utdataene, noe som kan bidra til å ytterligere redusere risikoen for usikre utdata.
- Som en del av kommunikasjonen deres angående alternativ AI-tekstassistent, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
- Kunder bør rapportere potensielt usikre utdata til oss ved å bruke kanalene som er oppført i introduksjonen.
Mennesker har kontroll
- For å minimere risikoen relatert til bruken av generativ AI for våre kunder og deres brukere, gir vi bevisst klienter kontroll over alternativ AI-tekstassistentfunksjonalitet. Alternativ AI-tekstassistent er derfor en valgfri funksjon. Administratorer kan når som helst aktivere eller deaktivere alternativ AI-tekstassistent.
- Undervisere har dessuten kontroll over utdataene, noe som betyr at de blir bedt om å gjennomgå tekstutdata og kan redigere tekstutdata etter behov.
- Alternativ AI-tekstassistent inkluderer ingen automatisert beslutningstaking som kan ha en juridisk eller annen betydelig effekt på elever eller andre personer.
- Vi oppfordrer kunder til å lese nøye gjennom dette dokumentet, inkludert informasjonslenkene som er angitt her, for å være trygge på at de forstår egenskapene og begrensningene til alternativ AI-tekstassistent og den underliggende Azure Vision-tjenesten, før de aktiverer alternativ AI-tekstassistent.
Innretting av verdier
- Store språkmodeller har i seg selv innebygd risiko med hensyn til produksjon som er skjev, upassende eller på annen måte ikke i tråd med Anthology-verdier eller verdiene til våre kunder og elever. Microsoft beskriver disse risikoene i delen Begrensninger i innsynsnotatet for Azure Vision-tjenesten.
- I tillegg har store språkmodeller (som alle teknologier med brede formål) en risiko for at de generelt kan misbrukes til brukstilfeller som ikke samsvarer med verdiene til Anthology, våre kunder eller deres sluttbrukere og samfunnets verdier generelt (f.eks. for kriminelle aktiviteter, for å skape skadelige eller på annen måte upassende utdata).
- På grunn av disse risikoene har vi nøye utformet og implementert alternativ AI-tekstassistentfunksjoner på en måte som minimerer risikoen for feiljusterte utdata. Vi har for eksempel fokusert på funksjonalitet for undervisere i stedet for studenter. Vi har også tilsiktet utelatt funksjonaliteter med potensielt høy innsats.
Immaterielle rettigheter
- Store språkmodeller utgjør i seg selv risiko knyttet til potensielle krenkelser av immaterielle rettigheter. De fleste åndsrettslover i verden har ikke fullt ut forutsett eller tilpasset seg fremveksten av store språkmodeller og kompleksiteten i problemene som oppstår gjennom bruken av dem. Derfor finnes det for øyeblikket ikke noe klart juridisk rammeverk eller veiledning som adresserer åndsrettsproblemer og risikoer som oppstår ved bruk av disse modellene.
- Når alt kommer til alt, er det kundens ansvar å gjennomgå utdata generert av alternativ AI-tekstassistent for eventuelle potensielle krenkelser av immaterielle rettigheter.
Tilgjengelighet
- Vi designet og utviklet alternativ AI-tekstassistent med tilgjengelighet i tankene på samme måte som vi gjør i Learn og de andre produktene våre. Før utgivelsen av alternativ AI-tekstassistent har vi målrettet forbedret tilgjengeligheten for semantisk struktur, navigasjon, tastaturkontroller, etiketter, egendefinerte komponenter og bildearbeidsflyter, for å nevne noen områder. Vi vil fortsatt prioritere tilgjengelighet når vi bruker AI i fremtiden.
Ansvarlighet
- Anthology har et pålitelig AI-program som er utviklet for å sikre lovlig, etisk og ansvarlig bruk av AI. Tydelig intern ansvarliggjøring og den systematiske etiske AI-gjennomgangen eller funksjonaliteter som de som tilbys av alternativ AI-tekstassistent er viktige pilarer i programmet.
- For å levere alternativ AI-tekstassistent samarbeidet vi med Microsoft for å utnytte Azure Vision-tjenesten som driver alternativ AI-tekstassistent. Microsoft hadde en langvarig forpliktelse til etisk bruk av AI.
- Kunder bør vurdere å implementere interne retningslinjer, prosedyrer og gjennomgang av tredjeparts AI-applikasjoner for å sikre egen juridisk, etisk og ansvarlig bruk av AI. Denne informasjonen gis for å støtte våre kunders gjennomgang av alternativ AI-tekstassistent.
Mer informasjon
- Anthologys pålitelige AI-tilnærming
- Anthologys liste over generative AI-funksjoner
- Microsofts ansvarlige AI-side
- Microsoftsgjennomsiktighetsmerknad for Azure Vision Service
- Microsofts side om data, personvern og sikkerhet for Azure Vision Service