L'ús legal, ètic i responsable de la intel·ligència artificial (IA) és una prioritat clau per a Anthology. Per tant, hem desenvolupat i implementat un programa d'IA de confiança. Podeu trobar informació sobre el programa i l'enfocament general de la IA de confiança al nostre Centre de confiança i més informació sobre les funcions d'IA generativa a la nostra llista de funcions d'IA generativa.

Com a part dels nostres principis de la IA de confiança, ens comprometem amb la transparència, l'explicabilitat i la responsabilitat. Aquesta pàgina pretén proporcionar la transparència i les explicacions necessàries per ajudar els nostres clients amb la implementació de l'Assistent de text alternatiu amb tecnologia d'IA. Recomanem que els administradors revisin minuciosament aquesta pàgina i s'assegurin que els instructors coneguin les consideracions i recomanacions següents abans d'activar les funcionalitats de l'Asistent de text alternatiu amb tecnologia d'IA per a la vostra institució.

Com posar-vos en contacte amb nosaltres:

  • Si voleu fer preguntes o comentaris sobre el nostre enfocament general de la IA de confiança o sobre com podem fer que aquesta pàgina sigui més útil per als nostres clients, envieu-nos un correu electrònic a [email protected].
  • Si voleu fer preguntes o comentaris sobre la funcionalitat o sobre els resultats de l'Assistent de text alternatiu amb tecnologia d'IA, envieu un tiquet d'assistència del client amb Behind the Blackboard.

Funcionalitats facilitades per la IA

L'assistent de text alternatiu amb tecnologia d'IA proporciona als instructors suggeriments sobre text alternatiu per a les imatges utilitzades als seus cursos en línia mitjançant el flux de treball de comentaris de l'instructor d'Ally. Està dissenyat per inspirar els instructors i fer que les correccions d'accessibilitat siguin més eficients. Anthology s'ha associat amb Microsoft per proporcionar aquesta funcionalitat, entre altres motius perquè Microsoft fa temps que ha adquirit un compromís amb l'ús ètic de la IA.

L'assistent de text alternatiu amb tecnologia d'IA ofereix les següents funcionalitats facilitades per la IA generativa:

  • Genera un text alternatiu per a les imatges.  Suggereix un text alternatiu als comentaris de l'instructor d'Ally quan els instructors estan corregint imatges sense text alternatiu.

Aquestes funcionalitats estan subjectes a les limitacions i la disponibilitat del servei d'Azure AI Vision i a canvis. Consulteu les notes de la versió rellevants per obtenir més informació.

Dades clau

Taula d'exemple
PreguntaResposta
Quines funcionalitats d'Ally utilitzen sistemes d'IA?Suggeriment de text alternatiu amb la IA al tauler de comentaris de l'instructor d'Ally, quan Ally ha determinat que una imatge no té text alternatiu.
Es tracta d'un sistema d'IA amb tecnologia de tercers?Sí. L'assistent de text alternatiu amb tecnologia d'IA funciona amb el servei d'Azure Vision de Microsoft. 
Com funciona el sistema d'IA?

L'assistent de text alternatiu amb tecnologia d'IA aprofita el servei d'Azure Vision de Microsoft per generar resultats automàticament. Això s'assoleix utilitzant la imatge per generar un text alternatiu que s'envia amb l'API d'Azure Vision. No es fa servir més informació (per exemple, el títol o la descripció del curs). Les imatges no s'utilitzen per entrenar els models de Microsoft Azure Vision i el servei d'Azure Vision genera els resultats en funció de cada imatge que es carrega a l'assistent de text alternatiu amb tecnologia d'IA. No es fan servir sol·licituds.

Tingueu en compte que per als usuaris finals que tinguin les instàncies del sistema de gestió de l'aprenentatge configurades en idiomes diferents de l'anglès, els resultats de text alternatiu de la IA es traduiran amb AWS Translate.

Per obtenir una explicació detallada sobre com funcionen els models de llenguatge d'Azure AI Vision, consulteu la secció introductòria de la nota de transparència de Microsoft i els enllaços que s'hi proporcionen.  

On s'allotja el sistema d'IA?Actualment, Anthology utilitza diverses instàncies globals del servei d'Azure Vision. La instància principal està allotjada als Estats Units, però de vegades podem fer servir recursos en altres ubicacions, com ara França o la regió d'Àsia-Pacífic, per oferir la millor opció de disponibilitat d'Azure AI Vision als nostres clients.

Tots els resultats del client generats per l'assistent de text alternatiu amb tecnologia d'IA s'emmagatzemen a la base de dades d'Ally existent de cada client, gestionada per Anthology.
És una funcionalitat que s'activa?Sí. Els administradors han d'activar l'assistent de text alternatiu amb tecnologia d'IA a les opcions de configuració d'Ally per a sistemes de gestió d'aprenentatge. Seleccioneu Generació de descripcions alternatives per a imatges amb IA a la pestanya Funcions. Els administradors poden activar o desactivar aquesta funcionalitat en qualsevol moment.
Com s'entrena el sistema d'IA?

Anthology no participa en l'entrenament dels models que fan anar les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA. Microsoft és qui entrena aquests models com a part del servei d'Azure Vision. Microsoft facilita informació sobre com s'entrenen els models de llenguatge extensos a la secció introductòria de la nota de transparència de Microsoft i els enllaços que s'hi proporcionen.

Anthology no ajusta encara més el servei d'Azure Vision amb les nostres dades o les dades dels nostres clients.

S'utilitzen les dades dels clients per tornar a entrenar el sistema d'IA?No. Microsoft es compromet amb Anthology contractualment mitjançant les condicions d'Azure Vision a no fer servir cap entrada o sortida d'Azure Vision per tornar a entrenar el model de llenguatge extens. El mateix compromís s'especifica a la documentació de Microsoft sobre dades, privadesa i seguretat per al servei d'Azure Vision. Només s'utilitzen models pregenerats.
Com fa servir Anthology Ally la informació personal pel que fa a la posada a disposició del sistema de l'assistent de text alternatiu amb tecnologia d'IA?

Anthology Ally només utilitza les imatges recopilades en relació amb l'assistent de text alternatiu amb tecnologia d'IA per oferir, mantenir i prestar suport a l'assistent de text alternatiu amb tecnologia d'IA. Podeu trobar més informació sobre l'enfocament d'Anthology pel que fa a la privadesa de les dades al Centre de confiança d'Anthology.

Només s'utilitzen les imatges per fer anar aquesta funció. No es comparteix més informació amb el servei de Microsoft Azure Vision.  

Microsoft no fa servir les dades d'Anthology ni les dades dels clients d'Anthology a les quals té accés (com a part del servei d'Azure Vision ) per millorar els models de Vision o els serveis de productes propis o de tercers, ni tampoc per millorar automàticament els models d'Azure Vision per a l'ús d'Anthology al recurs d'Anthology (els models no tenen estat).

Podeu trobar més informació sobre les pràctiques de privadesa de dades relacionades amb el servei d'Azure Vision a la documentació de Microsoft sobre dades, privadesa i seguretat per al servei d'Azure Vision.

S'ha tingut en compte l'accessibilitat en el disseny del sistema de text alternatiu d'IA?Sí, els nostres enginyers d'accessibilitat han col·laborat amb els equips de producte per revisar els dissenys, comunicar consideracions importants d'accessibilitat i provar les noves funcions específicament per a l'accessibilitat. Continuarem considerant l'accessibilitat com una part integral del nostre enfocament d'IA de confiança.

Consideracions i recomanacions per a les institucions

Casos d'ús previstos

L'assistent de text alternatiu amb tecnologia d'IA només està dissenyat per admetre les funcionalitats esmentades anteriorment. Aquestes funcionalitats s'ofereixen als instructors dels nostres clients i han estat dissenyades per a aquests usuaris, per donar-los suport amb la correcció dels problemes d'accessibilitat de les imatges detectats per Ally.

Casos d'ús no previstos

L'assistent de text alternatiu amb tecnologia d'IA no ha estat dissenyat perquè totes les imatges siguin accessibles amb un text alternatiu perfecte, ni tampoc ho garanteix, ja que, així i tot, depèn de l'instructor ajustar o aprovar el text alternatiu segons el context del contingut del curs. 

Posada en pràctica dels principis de la IA de confiança

Anthology i Microsoft creuen que l'ús legal, ètic i responsable de la IA és una prioritat clau. En aquesta secció s'explica com Anthology i Microsoft han treballat per tractar el risc aplicable a l'ús legal, ètic i responsable de la IA i implementar els principis de la IA de confiança d'Anthology. També se suggereixen passos que els nostres clients poden tenir en compte a l'hora de dur a terme les seves revisions legals i d'IA dels riscos ètics de la seva implementació relacionats amb la IA.

Transparència i explicabilitat

  • Deixem clar a les opcions de configuració d'administració d'Ally que es tracta d'una funcionalitat facilitada per la IA
  • A la interfície d'usuari dels instructors, les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA estan clarament marcades com a funcionalitats "generatives". També es demana als instructors que revisin els resultats de text abans d'utilitzar-los. Les metadades dels resultats creades per les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA s'exposen a l'informe d'ús d'Ally de cada client amb un camp per al contingut generat automàticament. També es mostra si l'instructor ha editat posteriorment els resultats.
  • A més de la informació proporcionada en aquest document sobre com funcionen els models de l'assistent de text alternatiu amb tecnologia d'IA i el servei d'Azure Vision, Microsoft facilita informació addicional sobre el servei d'Azure Vision a la seva nota de transparència.
  • Animem els clients a ser transparents sobre l'ús de la IA a l'assistent de text alternatiu amb tecnologia d'IA i a proporcionar als seus instructors i a altres parts interessades, segons correspongui, la informació rellevant d'aquest document i la documentació enllaçada aquí.

Fiabilitat i precisió

  • Deixem clar a les opcions de configuració d'administració d'Ally i a les condicions d'ús que es tracta d'una funcionalitat facilitada per la IA que pot generar resultats inexactes o no desitjats i que l'instructor sempre ha de revisar aquest resultat.
  • A la interfície d'usuari, es demana als instructors que revisin la precisió dels resultats de text.
  • Com es detalla a la secció Limitacions de la nota de transparència del servei d'Azure Vision, existeix el risc d'obtenir resultats inexactes. Tot i que l'assistent de text alternatiu amb tecnologia d'IA i la nostra implementació han estat dissenyats específicament per minimitzar la inexactitud, és responsabilitat del nostre client comprovar que no hi hagi inexactituds, biaixos o altres possibles problemes als resultats.
  • Com a part de la comunicació sobre l'assistent de text alternatiu amb tecnologia d'IA, els clients han de fer que els instructors siguin conscients d'aquesta possible limitació.
  • Els instructors poden utilitzar la interfície existent d'Ally per editar manualment els resultats de l'assistent de text alternatiu amb tecnologia d'IA abans de publicar-los per als estudiants.
  • Els clients poden informar-nos de qualsevol resultat inexacte amb els canals que s'indiquen a la introducció.

Equitat

  • Els models lingüístics extensos presenten inherentment riscos relacionats amb els estereotips, la sobrerepresentació, la infrarepresentació i altres formes de biaix nociu. Microsoft descriu aquests riscos a la secció Limitacions de la nota de transparència del servei d'Azure Vision.
  • Tenint en compte aquests riscos, hem escollit les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA curosament per evitar casos d'ús que puguin ser més propensos als biaixos nocius o en els quals l'impacte d'aquest tipus de biaix sigui més significatiu.
  • No obstant això, no es pot descartar que part dels resultats es puguin veure afectats per un biaix nociu. Com s'ha esmentat anteriorment a "Precisió", es demana als instructors que revisin els resultats, cosa que pot ajudar a reduir els biaixos nocius.
  • Com a part de la comunicació sobre l'assistent de text alternatiu amb tecnologia d'IA, els clients han de fer que els instructors siguin conscients d'aquesta possible limitació.
  • Els clients poden informar-nos de qualsevol biaix potencialment perjudicial mitjançant els canals de contacte que s'indiquen a la introducció.

Privacitat i seguretat

  • Tal com es descriu a la secció "Dades clau" anterior, només la imatge s'utilitza per a l'assistent de text alternatiu amb tecnologia d'IA i és accessible per a Microsoft. A la secció també es descriu el nostre compromís i el de Microsoft pel que fa a l'ús de qualsevol informació personal.  
  • Ally té la certificació ISO 27001/27017/27018/27701. Aquestes certificacions inclouran els resultats relacionats amb l'assistent de text alternatiu amb tecnologia d'IA gestionats per Anthology. Podeu trobar més informació sobre l'enfocament d'Anthology en matèria de privadesa i seguretat de les dades al nostre Centre de confiança.
  • Microsoft descriu les seves pràctiques i els seus compromisos de privadesa i seguretat de dades a la documentació sobre dades, privadesa i seguretat per al servei d'Azure Vision.
  • Independentment del compromís d'Anthology i Microsoft pel que fa a la privadesa de les dades i a no utilitzar les entrades per tornar a entrenar els models, és possible que els clients contemplin la possibilitat de recomanar als instructors que no incloguin dades personals o altres dades confidencials a les imatges.

Seguretat

  • Els models de llenguatge extensos presenten inherentment un risc de proporcionar resultats que poden ser inadequats, ofensius o perillosos. Microsoft descriu aquests riscos a la secció Limitacions de la nota de transparència del servei d'Azure Vision.
  • Tenint en compte aquests riscos, hem escollit les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA curosament per evitar casos d'ús que puguin ser més propensos als resultats perillosos o amb un impacte més significatiu d'aquest tipus de resultat.
  • No obstant això, no es pot descartar que part dels resultats puguin ser perillosos. Com s'ha esmentat anteriorment a "Precisió", es demana als instructors que revisin els resultats, cosa que pot ajudar a reduir el risc de resultats perillosos.
  • Com a part de la comunicació sobre l'assistent de text alternatiu amb tecnologia d'IA, els clients han de fer que els instructors siguin conscients d'aquesta possible limitació.
  • Els clients han d'informar-nos de qualsevol resultat potencialment perillós amb els canals que s'indiquen a la introducció.

Els humans tenen el control

  • Per minimitzar el risc relacionat amb l'ús de la IA generativa per als nostres clients i els seus usuaris, deixem el control de les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA a les mans dels clients intencionadament. Per tant, l'assistent de text alternatiu amb tecnologia d'IA és una funció que s'activa. Els administradors poden activar o desactivar l'assistent de text alternatiu amb tecnologia d'IA en qualsevol moment.  
  • A més, els instructors controlen els resultats, és a dir, se'ls demana que revisin els resultats de text i poden editar-los quan calgui.
  • L'assistent de text alternatiu amb tecnologia d'IA no inclou cap presa de decisions automatitzada que pugui tenir un impacte legal o significatiu en els estudiants o altres persones.
  • Recomanem als clients que revisin detingudament aquest document, inclosos els enllaços d'informació que es proporcionen aquí, per assegurar-se que entenen les funcions i limitacions de l'assistent de text alternatiu amb tecnologia d'IA i del servei d'Azure Vision subjacent abans d'activar l'assistent de text alternatiu amb tecnologia d'IA.

Coherència amb els valors

  • Inherentment, els models de llenguatge extensos presenten riscos pel que fa als resultats esbiaixats, inadequats o que no estan en coherència amb els valors d'Anthology o dels nostres clients i estudiants. Microsoft descriu aquests riscos a la secció Limitacions de la nota de transparència del servei d'Azure Vision.
  • A més, els models de llenguatge extensos (igual que succeeix amb totes les tecnologies que s'utilitzen per a diverses finalitats) presenten el risc que generalment es puguin fer servir de manera indeguda per a casos d'ús que no estan en coherència amb els valors d'Anthology, dels nostres clients o dels seus clients finals, o de la societat en general (per exemple, per a activitats delictives o per crear resultats perjudicials o inadequats).
  • Tenint en compte aquests riscos, hem dissenyat i implementat curosament les funcionalitats de l'assistent de text alternatiu amb tecnologia d'IA de manera que minimitzin el risc de resultats que no siguin coherents. Per exemple, en lloc de centrar-nos en les funcionalitats per als estudiants, ens hem centrat en les funcionalitats per als instructors. També hem omès de manera intencionada funcionalitats potencialment crítiques.

Propietat intel·lectual

  • Inherentment, els models de llenguatge extensos presenten riscos relacionats amb la possible vulneració dels drets de propietat intel·lectual. La majoria de les lleis de propietat intel·lectual del món no s'han anticipat ni s'han adaptat del tot a l'aparició dels models lingüístics extensos ni a la complexitat dels problemes que sorgeixen amb el seu ús. Com a conseqüència, actualment no hi ha un marc legal ni unes orientacions que tractin amb claredat els problemes de propietat intel·lectual i els riscos que sorgeixen amb l'ús d'aquests models.
  • En última instància, és responsabilitat del nostre client revisar els resultats generats per l'assistent de text alternatiu amb tecnologia d'IA a fi de detectar qualsevol possible vulneració dels drets de propietat intel·lectual.  

Accessibilitat

  • Hem dissenyat i desenvolupat l'assistent de text alternatiu amb tecnologia d'IA tenint en compte l'accessibilitat, de la mateixa manera que ho hem fet amb Learn i la resta dels nostres productes. Abans de la publicació de l'assistent de text alternatiu amb tecnologia d'IA, s'ha millorat de manera intencionada l'accessibilitat de l'estructura semàntica, la navegació, els controls del teclat, les etiquetes, els components personalitzats i els fluxos de treball d'imatges, per citar algunes àrees. L'accessibilitat continuarà sent una prioritat mentre aprofitem la IA en el futur.

Responsabilitat

  • Anthology té un programa d'IA de confiança dissenyat per garantir l'ús legal, ètic i responsable de la IA. La responsabilitat interna clara i la revisió ètica sistemàtica de la IA o les funcionalitats com les proporcionades per l'assistent de text alternatiu amb tecnologia d'IA són elements fonamentals del programa.
  • A fi d'oferir l'assistent de text alternatiu amb tecnologia d'IA, ens hem associat amb Microsoft per aprofitar el servei d'Azure Vision, que fa anar l'assistent de text alternatiu amb tecnologia d'IA. Microsoft feia temps que havia adquirit un compromís amb l'ús ètic de la IA.
  • Els clients haurien de contemplar la possibilitat d'implementar polítiques internes, procediments i la revisió d'aplicacions d'IA de tercers per garantir un ús legal, ètic i responsable de la IA per part seva. Aquesta informació es proporciona per donar suport als nostres clients en la revisió de l'assistent de text alternatiu amb tecnologia d'IA.

Més informació