L'uso lecito, etico e responsabile dell'intelligenza artificiale (IA) è una priorità fondamentale per Anthology. Pertanto, abbiamo sviluppato e implementato il programma Trustworthy AI. Puoi trovare informazioni sul nostro programma e sull'approccio generale alla Trustworthy AI nel nostro Trust Center e ulteriori informazioni sulle funzionalità dell'IA generativa nel nostro Elenco delle funzionalità di IA generativa.
Nell'ambito dei nostri principi di Trustworthy AI, ci impegniamo per la trasparenza, la possibilità di spiegare e la responsabilità. Questa pagina ha lo scopo di fornire la trasparenza e le spiegazioni necessarie per aiutare i nostri clienti nell'implementazione di AI Alt Text Assistant. Consigliamo agli amministratori di leggere attentamente questa pagina e di assicurarsi che i docenti siano a conoscenza delle considerazioni e dei consigli riportati di seguito prima di attivare le funzionalità di AI Alt Text Assistant per l'istituto.
Come contattarci:
- Per domande o feedback sul nostro approccio generale alla Trustworthy AI o su come possiamo rendere questa pagina più utile per i nostri clienti, inviaci un'e-mail all'indirizzo [email protected].
- Per domande o feedback sulla funzionalità o sull'output di AI Alt Text Assistant, invia un ticket di assistenza clienti tramite Behind the Blackboard.
Funzionalità semplificate dall'IA
AI Alt Text Assistant fornisce ai docenti suggerimenti sul testo alternativo per le immagini utilizzate all'interno dei corsi online tramite il flusso di lavoro Feedback del docente Ally. Ha lo scopo di ispirare i docenti e rendere più efficienti le correzioni dell'accessibilità. Anthology ha collaborato con Microsoft per fornire questa funzionalità, anche perché Microsoft ha un impegno di lunga data per l'uso etico dell'IA.
AI Alt Text Assistant offre le seguenti funzionalità facilitate dall'IA generativa:
- Genera un testo alternativo per le immagini. Suggerisce un testo alternativo all'interno del feedback del docente Ally quando i docenti correggono immagini senza testo alternativo.
Queste funzionalità sono soggette alle limitazioni e alla disponibilità di del servizio di IA Visione di Azure e sono soggette a modifiche. Per ulteriori informazioni, consulta le note di rilascio pertinenti.
Fatti salienti
Domanda | Risposta |
---|---|
Quali funzionalità di Ally utilizzano i sistemi di IA? | Suggerimento di testo alternativo tramite IA nel pannello Feedback docenti di Ally, quando un'immagine è stata contrassegnata da Ally perché priva di testo alternativo. |
Si tratta di un sistema di IA supportato da terze parti? | Sì: AI Alt Text Assistant è basato sul servizio Microsoft Visione di Azure. |
Come funziona il sistema di IA? | AI Alt Text Assistant utilizza il servizio di Microsoft Visione di Azure per generare automaticamente gli output. A tale scopo, è possibile usare l'immagine per generare un testo alternativo inviato tramite l'API Visione di Azure. Non vengono utilizzate ulteriori informazioni (ad es. titolo del corso, descrizione del corso). Le immagini non vengono usate per eseguire il training dei modelli di Microsoft Visione di Azure e il servizio Visione di Azure genera l'output in base a ogni immagine caricata in AI Alt Text Assistant. Non vengono utilizzati prompt. Tieni presente che per gli utenti finali che hanno le loro istanze LMS configurate in lingue diverse dall'inglese, l'output del testo alternativo basato sull'intelligenza artificiale verrà tradotto utilizzando AWS Translate. Per una spiegazione dettagliata del funzionamento dei modelli linguistici di AI di Visione di Azure, consulta la sezione Introduzione dell'Informativa sulla trasparenza di Microsoft e i collegamenti forniti al suo interno. |
Dove è ospitato il sistema di IA? | Anthology attualmente usa più istanze globali del servizio Visione di Azure. L'istanza primaria è ospitata negli Stati Uniti, ma a volte è possibile usare le risorse in altre località, ad esempio Francia e area APAC, per offrire ai clienti l'opzione di disponibilità migliore per IA di Visione di Azure per i nostri clienti. Tutto l'output dei clienti generato da AI Alt Text Assistant viene archiviato nel database Ally esistente di ciascun cliente gestito da Anthology. |
Si tratta di una funzionalità di opt-in? | Sì. Gli amministratori devono attivare AI Alt Text Assistant nelle opzioni di configurazione dell'LMS Ally. Seleziona Generazione IA di descrizioni alternative per le immagini nella scheda Funzioni. Gli amministratori possono attivare o disattivare questa funzionalità in qualsiasi momento. |
Come avviene il training del sistema di IA? | Anthology non è coinvolta nel training dei modelli che alimentano le funzionalità AI Alt Text Assistant. Questi modelli vengono sottoposti a training da Microsoft come parte del servizio Visione di Azure AI. Microsoft fornisce informazioni su come vengono addestrati i modelli linguistici di grandi dimensioni nella sezione Introduzione dell'informativa sulla trasparenza di Microsoft e nei collegamenti forniti al suo interno. Anthology non ottimizza ulteriormente il servizio Visione di Azure usando i propri dati o quelli dei clienti. |
I dati dei clienti vengono utilizzati per (ri)addestrare il sistema di IA? | No. Microsoft si impegna contrattualmente nei termini di Visione di Azure con Anthology a non usare alcun input o output di Visione di Azure per il (ri)addestramento del modello linguistico di grandi dimensioni. Lo stesso impegno viene assunto nella documentazione Microsoft su dati, privacy e sicurezza per il servizio Visione di Azure. Vengono utilizzati solo modelli predefiniti. |
In che modo Anthology Ally utilizza le informazioni personali in relazione alla fornitura del sistema AI Al Text Assistant? | Anthology Ally utilizza solo le immagini raccolte in connessione con AI Alt Text Assistant per fornire, gestire e supportare AI Alt Text Assistant. Puoi trovare ulteriori informazioni sull'approccio di Anthology alla privacy dei dati nel Trust Center di Anthology. Per alimentare questa funzione vengono utilizzate solo le immagini. Non vengono condivise altre informazioni con il servizio Visione di Azure di Microsoft. Microsoft non usa i dati Anthology né i dati dei clienti Anthology a cui ha accesso (come parte del servizio Visione di Azure) per migliorare i modelli di Visione, per migliorare i propri servizi di prodotti o di terze parti, né per migliorare automaticamente i modelli di Visione di Azure per l'uso da parte di Anthology nella risorsa di Anthology (i modelli sono senza stato). Per altre informazioni sulle procedure relative alla privacy dei dati relative al servizio Visione di Azure, vedere la documentazione Microsoft su dati, privacy e sicurezza per il servizio Visione di Azure. |
L'accessibilità è stata presa in considerazione nella progettazione di AI Alt Text System? | Sì, i nostri ingegneri dell'accessibilità hanno collaborato con i team di prodotto per esaminare i progetti, comunicare importanti considerazioni sull'accessibilità e testare le nuove funzionalità in modo specifico per l'accessibilità. Continueremo a considerare l'accessibilità come parte integrante del nostro approccio Trustworthy AI. |
Considerazioni e raccomandazioni per gli istituti
Casi d'uso previsti
AI Alt Text Assistant è destinato esclusivamente a supportare le funzionalità sopra elencate. Queste funzionalità sono fornite e destinate ai docenti dei nostri clienti per supportarli nella risoluzione dei problemi di accessibilità delle immagini segnalati da Ally.
Casi d'uso al di fuori dell'ambito previsto
AI Alt Text Assistant non ha lo scopo né è garantito per rendere ogni immagine accessibile con un testo alternativo perfetto, in quanto spetta comunque al docente modificare o approvare il testo alternativo in base al contesto del contenuto del corso.
I principi di Trustworthy AI nella pratica
Anthology e Microsoft ritengono che l'uso lecito, etico e responsabile dell'IA sia una priorità fondamentale. Questa sezione spiega in che modo Anthology e Microsoft hanno lavorato per affrontare il rischio applicabile all'uso legale, etico e responsabile dell'IA e implementare i principi del programma Trustworthy AI di Anthology. Suggerisce inoltre i passaggi che i nostri clienti possono prendere in considerazione quando intraprendono le proprie revisioni dell'IA e legali relativamente ai rischi etici dell'IA della loro implementazione.
Trasparenza e spiegabilità
- Nelle opzioni di configurazione dell'amministrazione Ally viene chiarito che si tratta di una funzionalità facilitata dall'IA
- Nell'interfaccia utente per i docenti, le funzionalità AI Alt Text Assistant sono chiaramente contrassegnate come funzionalità "Generative". Ai docenti viene richiesto, inoltre, di rivedere l'output del testo prima dell'uso. · I metadati dell'output creato dalle funzionalità di AI Alt Text Assistant sono esposti nel report di utilizzo Ally di ciascun cliente con un campo per i contenuti generati automaticamente. Mostra anche se l'output è stato successivamente modificato dal docente.
- Oltre alle informazioni fornite in questo documento sul funzionamento di AI Alt Text Assistant e dei modelli del servizio Visione di Azure, Microsoft fornisce informazioni aggiuntive sul servizio Visione di Azure nell'informativa sulla trasparenza.
- Incoraggiamo i clienti a essere trasparenti sull'uso dell'IA all'interno di AI Alt Text Assistant e a fornire ai docenti e alle altre parti interessate, a seconda dei casi, le informazioni pertinenti contenute in questo documento e nella documentazione in esso collegata.
Affidabilità e precisione
- Nelle opzioni di configurazione dell'amministrazione e nei Termini d'uso di Ally chiariamo che si tratta di una funzionalità facilitata dall'IA che potrebbe produrre un output impreciso o indesiderato e che tale output deve sempre essere rivisto dal docente.
- Nell'interfaccia utente, i docenti sono invitati a rivedere l'output del testo per verificarne l'accuratezza.
- Come descritto in dettaglio nella sezione Limitazioni dell'informativa sulla trasparenza del servizio Visione di Azure, esiste il rischio di un output impreciso. Sebbene la natura specifica di AI Alt Text Assistant e della nostra implementazione abbia lo scopo di ridurre al minimo le imprecisioni, è responsabilità del nostro cliente esaminare l'output per verificarne l'accuratezza, le distorsioni e altri potenziali problemi.
- Nell'ambito della comunicazione relativa ad AI Alt Text Assistant, i clienti devono informare i propri docenti di questa potenziale limitazione.
- I docenti possono utilizzare l'interfaccia Ally esistente per modificare manualmente gli output di AI Alt Text Assistant prima di pubblicarli per gli studenti.
- I clienti possono segnalarci qualsiasi output impreciso utilizzando i canali elencati nell'introduzione.
Equità
- I modelli linguistici di grandi dimensioni presentano intrinsecamente rischi legati a stereotipi, sovra/sottorappresentazione e altre forme di pregiudizi dannosi. Microsoft descrive questi rischi nella sezione Limitazioni dell'Informativa sulla trasparenza del servizio Visione di Azure.
- Alla luce di questi rischi, abbiamo scelto con cura le funzionalità di AI Alt Text Assistant per evitare casi d'uso che potrebbero essere più soggetti a pregiudizi dannosi o in cui l'impatto di tali pregiudizi potrebbe essere più significativo.
- Ciononostante, non si può escludere che parte della produzione possa essere influenzata da pregiudizi dannosi. Come accennato in precedenza alla voce "Accuratezza", i docenti sono tenuti a rivedere i risultati, il che può aiutare a ridurre eventuali pregiudizi dannosi.
- Nell'ambito della comunicazione relativa ad AI Alt Text Assistant, i clienti devono informare i propri docenti di questa potenziale limitazione.
- I clienti possono segnalarci qualsiasi pregiudizio potenzialmente dannoso utilizzando i canali di contatto elencati nell'introduzione.
Privacy e sicurezza
- Come descritto nella sezione "Fatti chiave" di cui sopra, solo l'immagine è accessibile a Microsoft e viene utilizzata per AI Alt Text Assistant. La sezione descrive inoltre l'impegno nostro e di Microsoft in merito all'uso di qualsiasi informazione personale.
- Ally ha le certificazioni ISO 27001/27017/27018/27701. Queste certificazioni includeranno l'output relativo ad AI Alt Text Assistant gestito da Anthology. Puoi trovare maggiori informazioni sull'approccio di Anthology alla privacy e alla sicurezza dei dati nel nostro Trust Center.
- Microsoft descrive le pratiche e gli impegni relativi alla privacy e alla sicurezza dei dati nella documentazione relativa a dati, privacy e sicurezza per il servizio Visione di Azure.
- Indipendentemente dall'impegno di Anthology e Microsoft per quanto riguarda la privacy dei dati e il non utilizzo di input per (ri)addestrare i modelli, i clienti potrebbero voler consigliare ai loro docenti di non includere informazioni personali o altre informazioni riservate nelle immagini.
Sicurezza
- I modelli linguistici di grandi dimensioni presentano intrinsecamente il rischio di output che possono essere inappropriati, offensivi o non sicuri in altri modi. Microsoft descrive questi rischi nella sezione Limitazioni dell'Informativa sulla trasparenza del servizio Visione di Azure.
- Alla luce di questi rischi, abbiamo scelto con cura le funzionalità di AI Alt Text Assistant per evitare casi d'uso che potrebbero essere più soggetti a output non sicuri o in cui l'impatto di tali output potrebbe essere più significativo.
- Ciononostante, non si può escludere che parte dell'output possa essere pericoloso. Come accennato in precedenza alla voce "Accuratezza", i docenti sono tenuti a rivedere l'output, il che può contribuire ulteriormente a ridurre il rischio di output non sicuro.
- Nell'ambito della comunicazione relativa ad AI Alt Text Assistant, i clienti devono informare i propri docenti di questa potenziale limitazione.
- I clienti devono segnalarci qualsiasi output potenzialmente pericoloso utilizzando i canali elencati nell'introduzione.
Il controllo è nelle mani dell'uomo
- Per ridurre al minimo il rischio legato all'uso dell'IA generativa per i nostri clienti e i loro utenti, diamo intenzionalmente ai clienti il controllo delle funzionalità di AI Alt Text Assistant. Per questo, AI Alt Text Assistant è una funzione opt-in. Gli amministratori possono attivare o disattivare AI Alt Text Assistant in qualsiasi momento.
- Inoltre, i docenti hanno il controllo dell'output, il che significa che sono tenuti a rivedere l'output di testo e, se necessario, modificarlo.
- AI Alt Text Assistant non include alcun processo decisionale automatizzato che possa avere un effetto legale o comunque significativo sugli studenti o su altre persone.
- È consigliabile che i clienti esaminino attentamente questo documento, inclusi i collegamenti informativi forniti nel presente documento, per assicurarsi di comprendere le funzionalità e le limitazioni di AI Alt Text Assistant e del servizio Visione di Azure sottostante prima di attivare AI Alt Text Assistant.
Allineamento dei valori
- I modelli linguistici di grandi dimensioni presentano intrinsecamente rischi in termini di output distorti, inappropriati o comunque non allineati con i valori di Anthology o con i valori dei nostri clienti e studenti. Microsoft descrive questi rischi nella sezione Limitazioni dell'Informativa sulla trasparenza del servizio Visione di Azure.
- Inoltre, i modelli linguistici di grandi dimensioni (come ogni tecnologia che serve a scopi ampi), presentano il rischio che possano essere generalmente utilizzati in modo improprio per casi d'uso che non sono in linea con i valori di Anthology, dei nostri clienti o dei loro utenti finali e con quelli della società più in generale (ad esempio, per attività criminali, per creare output dannosi o altrimenti inappropriati).
- Alla luce di questi rischi, abbiamo progettato e implementato con cura le nostre funzionalità di AI Alt Text Assistant in modo da ridurre al minimo il rischio di output disallineato. Ad esempio, ci siamo concentrati sulle funzionalità per i docenti piuttosto che per gli studenti. Abbiamo anche intenzionalmente omesso funzionalità potenzialmente ad alto rischio. ·
Proprietà intellettuale
- I modelli linguistici di grandi dimensioni presentano intrinsecamente rischi legati alla potenziale violazione dei diritti di proprietà intellettuale. La maggior parte delle leggi sulla proprietà intellettuale in tutto il mondo non ha completamente anticipato né è stata adattata all'emergere di modelli linguistici di grandi dimensioni e alla complessità dei problemi che derivano dal loro utilizzo. Di conseguenza, attualmente non esiste un quadro giuridico chiaro o orientamenti che affrontino le questioni relative alla proprietà intellettuale e i rischi derivanti dall'uso di questi modelli.
- In definitiva, è responsabilità del nostro cliente esaminare l'output generato da AI Alt Text Assistant per verificare la presenza di potenziali violazioni dei diritti di proprietà intellettuale.
Accessibilità
- Abbiamo progettato e sviluppato AI Alt Text Assistant pensando all'accessibilità, così come facciamo in Learn e negli altri nostri prodotti. Prima del rilascio di AI Alt Text Assistant, abbiamo intenzionalmente migliorato l'accessibilità della struttura semantica, della navigazione, dei controlli da tastiera, delle etichette, dei componenti personalizzati e dei flussi di lavoro delle immagini, solo per citare alcune aree. Continueremo a dare priorità all'accessibilità mentre utilizzeremo l'IA in futuro.
Responsabilità
- Anthology dispone di un programma di Trustworthy AI affidabile progettato per garantire l'uso legale, etico e responsabile dell'IA. Una chiara responsabilità interna e la revisione etica sistematica dell'IA o funzionalità come quelle fornite da AI Alt Text Assistant sono pilastri fondamentali del programma.
- Per offrire AI Alt Text Assistant, abbiamo collaborato con Microsoft per utilizzare il servizio Visione di Azure che è alla base di AI Alt Text Assistant. Microsoft aveva un impegno di lunga data relativamente all'uso etico dell'IA.
- I clienti dovrebbero prendere in considerazione l'implementazione di politiche e procedure interne, nonché la revisione delle applicazioni di IA di terze parti per garantire il proprio uso legale, etico e responsabile dell'IA. Queste informazioni sono fornite per supportare la revisione di AI Alt Text Assistant da parte dei clienti.
Ulteriori informazioni
- L'approccio Trustworthy AI di Anthology
- Elenco delle funzionalità di IA generativa di Anthology
- Pagina relativa all'IA responsabile di Microsoft
- Informativa sulla trasparenza per il servizio Visione di Azure di Microsoft
- Pagina di Microsoft su dati, privacy e sicurezza per il servizio Visione di Azure