L'uso legittimo, etico e responsabile dell'intelligenza artificiale (AI) è una priorità fondamentale per Anthology. Pertanto, abbiamo sviluppato e implementato un programma di intelligenza artificiale affidabile. Puoi trovare informazioni sul nostro programma e sull'approccio generale a Trustworthy AI nel nostro Trust Center e ulteriori informazioni sulle funzionalità di IA generativa in Elenco delle funzionalità AI generativa.

Nell'ambito dei nostri principi di intelligenza artificiale affidabile, ci impegniamo a garantire trasparenza, comprensibilità e responsabilità. Questa pagina ha lo scopo di fornire la trasparenza e le spiegazioni necessarie per aiutare i nostri clienti con l'implementazione dell'Assistente AI per il Testo Alternativo. Consigliamo agli amministratori di leggere attentamente questa pagina e di assicurarsi che gli insegnanti siano a conoscenza delle considerazioni e delle raccomandazioni riportate di seguito prima di attivare le funzionalità di Assistente AI per il Testo Alternativo per il tuo istituto.

Come contattarci:

  • Per domande o feedback sul nostro approccio generale all'intelligenza artificiale affidabile o su come possiamo rendere questa pagina più utile per i nostri clienti, inviaci un'e-mail all'indirizzo [email protected].
  • Per domande o feedback sulla funzionalità o sull'output di Assistente AI per il Testo Alternativo, invia un ticket di assistenza clienti tramite Behind the Blackboard.

Funzionalità facilitate dall'intelligenza artificiale

L'Assistente AI per il Testo Alternativo fornisce agli insegnanti suggerimenti su testi alternativi per le immagini utilizzate all'interno dei loro corsi online tramite il flusso di lavoro di feedback dell'insegnante di Ally. Ha lo scopo di ispirare gli insegnanti e rendere più efficienti le correzioni all'accessibilità.  

Anthology ha collaborato con AWS per aggiornare il modello di intelligenza artificiale di Ally per fornire suggerimenti ancora più efficaci, insieme alla capacità di generare suggerimenti di descrizione delle immagini per contenuti più complessi, tra cui STEM, diagrammi/grafici, testo in immagini e immagini scritte a mano. Questa funzionalità è basata su Claude, un modello linguistico di Anthropic, tramite AWS Bedrock. Se il tuo istituto ha sede in Canada, l'assistente utilizzerà il nuovo modello Claude 3 Sonnet. In tutte le altre regioni, utilizzerà Claude Sonnet 3.5. Il modello utilizzato dipende dalla disponibilità nella tua regione AWS. 

L'Assistente AI per il Testo Alternativo fornisce le seguenti funzionalità generative facilitate dall'intelligenza artificiale:

  • Genera un testo alternativo per le immagini.  Suggerisce un testo alternativo all'interno del feedback dell'insegnante Ally quando gli insegnanti correggono le immagini senza testo alternativo.

Queste funzionalità sono soggette alle limitazioni e alla disponibilità del servizio AWS Bedrock e sono soggette a modifiche. Per ulteriori informazioni, consultare le note di rilascio pertinenti.

Informazioni chiave

Tabella di esempio
DomandaRisposta
Quali funzionalità di Ally utilizzano i sistemi di intelligenza artificiale?Suggerimento di testo alternativo tramite l'intelligenza artificiale nel pannello di feedback dell'insegnante di Ally, quando un'immagine è stata segnalata da Ally per mancanza di testo alternativo.
Si tratta di un sistema di intelligenza artificiale supportato da terze parti?Sì. Utilizziamo Claude, un modello sviluppato da Anthropic e offerto tramite AWS Bedrock. Le istituzioni in Canada utilizzano Anthropic Claude 3 Sonnet, mentre altre regioni utilizzano Claude Sonnet 3.5, a seconda di ciò che è supportato in ciascuna regione AWS.
Come funziona il sistema di intelligenza artificiale?Assistente AI per il Testo Alternativo utilizza i modelli Claude di Anthropic e AWS Bedrock per generare automaticamente suggerimenti di testo alternativo. A seconda della sede del tuo istituto, potrebbe essere Anthropic Claude 3 Sonnet (in Canada) o Claude Sonnet 3.5 (in altre regioni). Ciò si ottiene utilizzando l'immagine per generare un testo alternativo inviato tramite l'SDK AWS.   Abbiamo anche aggiunto la possibilità di inviare prompt contestuali in base al contenuto di testo, quando un'immagine è incorporata in un elemento di contenuto avanzato. Non vengono utilizzate ulteriori informazioni (ad esempio, titolo del corso, descrizione del corso). Le immagini non vengono utilizzate per addestrare i modelli AWS Bedrock e Bedrock genera l'output in base a ciascuna immagine caricata su Assistente AI per il Testo Alternativo.
Dove è ospitato il sistema di intelligenza artificiale?

Anthology attualmente utilizza più istanze AWS per Amazon Bedrock, in base alla disponibilità della regione Amazon. AWS fornisce la disponibilità di questa regione per il modello Amazon Bedrock attualmente utilizzato da Ally (Claude Sonnet 3.5) al Supporto del modello da parte della regione AWS in Amazon Bedrock. A volte è possibile utilizzare risorse in altre località come gli Stati Uniti orientali per fornire una migliore opzione di disponibilità per AWS Bedrock per i nostri clienti, nel caso in cui una regione specifica non sia disponibile. 

Tutto l'output del client generato dall'Assistente AI per il Testo Alternativo viene archiviato nel database Ally esistente di ciascun clienti gestito da Anthology.

Si tratta di una funzionalità di opt-in?Sì. Gli amministratori devono attivare l'Assistente AI per il Testo Alternativo nelle opzioni di configurazione di LMS Ally. Seleziona Generazione AI di descrizioni alternative per le immagini nella scheda Caratteristiche. Gli amministratori possono attivare o disattivare questa funzionalità in qualsiasi momento.
Come viene addestrato il sistema di intelligenza artificiale?

Anthology non è coinvolta nella formazione del modello Anthropic che alimenta le funzionalità di Assistente AI per il Testo Alternativo tramite Amazon Bedrock. Questi modelli sono addestrati da Anthropic (Anthropic Claude).

Anthology non perfeziona ulteriormente questi modelli utilizzando i dati nostri o dei nostri clienti.

I dati dei clienti vengono utilizzati per (ri)addestrare il sistema di intelligenza artificiale?Amazon si impegna nella sua documentazione pubblica a non utilizzare alcun input o output di per la (ri) formazione dei modelli linguistici di grandi dimensioni all'interno di Amazon Bedrock. Amazon fornisce informazioni su come vengono addestrati i modelli linguistici di grandi dimensioni nei collegamenti nella sezione «Ulteriori informazioni» sotto. Tutti i dati in input e output vengono crittografati in transito e a riposo.
In che modo Anthology Ally utilizza le informazioni personali per quanto riguarda la fornitura del sistema AI Al Text Assistant?Anthology utilizza le informazioni raccolte in relazione all’Assistente AI per il Testo Alternativo esclusivamente per fornire, mantenere e supportare l’Assistente AI per il Testo Alternativo, e solo laddove disponga dell’autorizzazione contrattuale per farlo. Puoi trovare maggiori informazioni sull'approccio di Anthology alla privacy dei dati nel nostro Trust Center.
Nel caso di un sistema di intelligenza artificiale supportato da terze parti, in che modo la terza parte utilizzerà le informazioni personali?

Per potenziare questa funzionalità vengono utilizzate solo immagini e/o dati contestuali nei contenuti avanzati che circondano un'immagine. Non vengono condivise ulteriori informazioni con AWS Bedrock.  

Né Amazon né alcun fornitore di modelli Amazon Bedrock utilizzano i dati di Anthology o i dati dei clienti di Anthology per migliorare i modelli Amazon Bedrock.  

Puoi trovare ulteriori informazioni in merito alle pratiche sulla privacy dei dati relative alla sicurezza e alla privacy di Amazon Bedrock nella documentazione di Amazon nella AWS AI Security Page, la AWS Machine Learning Blog e nella pagina Amazon Bedrock Security and Privacy.

L'accessibilità è stata presa in considerazione nella progettazione del sistema di testo alternativo AI?Sì, i nostri ingegneri dell'accessibilità hanno collaborato con i team di prodotto per rivedere i progetti, comunicare importanti considerazioni sull'accessibilità e testare le nuove funzionalità specifiche per l'accessibilità. Continueremo a considerare l'accessibilità come parte integrante del nostro approccio all'IA affidabile. 

Considerazioni e raccomandazioni per gli istituti

Casi d'uso previsti

L'Assistente AI per il Testo Alternativo è destinato esclusivamente a supportare le funzionalità sopra elencate. Queste funzionalità sono fornite e destinate agli insegnanti dei nostri clienti per supportarli nella risoluzione dei problemi di accessibilità delle immagini segnalati da Ally.

Casi d'uso fuori ambito

L'Assistente AI per il Testo Alternativo non è destinato né garantito a rendere accessibile ogni immagine con un testo alternativo perfetto, poiché spetta comunque all'insegnante regolare o approvare il testo alternativo in base al contesto del contenuto del corso. 

Principi di IA affidabili nella pratica

Anthology e Amazon ritengono che l'uso legale, etico e responsabile dell'intelligenza artificiale sia una priorità fondamentale. Questa sezione spiega come Anthology e Amazon hanno lavorato per affrontare il rischio applicabile all'uso legale, etico e responsabile dell'IA e implementare i principi di Anthology Trustworthy AI. Suggerisce inoltre le misure che i nostri clienti possono prendere in considerazione in merito alla propria IA e alle revisioni legali dei rischi etici dell'IA legati alla loro implementazione. 

Trasparenza e spiegabilità

  • Nelle opzioni di configurazione dell'amministrazione di Ally chiariamo che si tratta di una funzionalità facilitata dall'intelligenza artificiale
  • Nell'interfaccia utente per gli insegnanti, le funzionalità di Assistente AI per il Testo Alternativo sono chiaramente contrassegnate come funzionalità "Generative". Gli insegnanti sono inoltre pregati di rivedere l'output del testo prima dell'uso. · I metadati dell'output creato dalle funzionalità di Assistente AI per il Testo Alternativo sono esposti nel report di utilizzo di Ally di ciascun client con un campo per i contenuti generati automaticamente. Mostra anche se l'output è stato successivamente modificato dall'insegnante.
  • Il modello alla base di Assistente AI per il Testo Alternativo può variare a seconda di dove si trova l'istituto. In Canada, l'assistente utilizza il modello Claude 3 Sonnet, che offre funzionalità più recenti. Altrove, utilizza Claude Sonnet 3.5. Questa scelta si basa su ciò che AWS Bedrock rende disponibile in ciascuna regione.
  • Incoraggiamo i clienti a essere trasparenti sull'uso dell'intelligenza artificiale all'interno dell'Assistente AI per il Testo Alternativo e a fornire ai loro insegnanti e alle altre parti interessate, a seconda dei casi, le informazioni pertinenti di questo documento e la documentazione qui collegata.

Affidabilità e precisione

  • Nelle opzioni di configurazione dell'amministrazionedi Ally e nei termini di utilizzo e si precisa che si tratta di una funzionalità facilitata dall'intelligenza artificiale che potrebbe produrre risultati imprecisi o indesiderati e che tali risultati devono sempre essere verificati dal docente.‌‌‌‌‌‌‌‌‌‌
  • Nell'interfaccia utente, agli insegnanti viene richiesto di rivedere l'output del testo per verificarne l'accuratezza.
  • Come indicato nelleDomande frequenti su Amazon Bedrock, esiste il rischio di risultati imprecisi. Sebbene la natura specifica dell'Assistente AI per il Testo Alternativo e della nostra implementazione sia intesa a ridurre al minimo le imprecisioni, è responsabilità del nostro cliente esaminare l'output per verificare l'accuratezza, la distorsione e altri potenziali problemi.
  • Gli utenti possono facilmente rigenerare l'output impreciso riformulando la domanda o la frase utilizzata nel prompt di domande e risposte.
  • Come parte della loro comunicazione relativa all'Assistente AI per il Testo Alternativo, i clienti dovrebbero informare i loro insegnanti di questa potenziale limitazione.
  • I clienti possono segnalarci qualsiasi output impreciso utilizzando i canali elencati nell'introduzione.

Equità

  • I modelli linguistici di grandi dimensioni presentano intrinsecamente rischi relativi a stereotipi, sovra/sottorappresentazione e altre forme di pregiudizio dannoso.
  • Alla luce di questi rischi, abbiamo scelto con cura le funzionalità di Assistente AI per il Testo Alternativo per evitare casi d'uso che potrebbero essere più inclini a distorsioni dannose o in cui l'impatto di tali distorsioni potrebbe essere più significativo.
  • Tuttavia, non si può escludere che parte della produzione possa essere influenzata da distorsioni dannose. Come accennato in precedenza alla voce "Accuratezza", gli insegnanti sono tenuti a rivedere l'output, il che può aiutare a ridurre eventuali pregiudizi dannosi.
  • Come parte della loro comunicazione relativa all'Assistente AI per il Testo Alternativo, i clienti dovrebbero informare i loro insegnanti di questa potenziale limitazione.
  • I clienti possono segnalarci qualsiasi pregiudizio potenzialmente dannoso utilizzando i canali di contatto elencati nell'introduzione.

Privacy e sicurezza

  • Come descritto nella sezione "Fatti chiave" precedente, solo l'immagine viene utilizzata per l'Assistente AI per il Testo Alternativo ed è accessibile a Microsoft. La sezione descrive anche l'impegno nostro e di Microsoft in merito all'uso di qualsiasi informazione personale.
  • Amazon descrive le sue pratiche e impegni in materia di privacy e sicurezza dei dati nella documentazione su Amazon Bedrock Security and Privacy.

Sicurezza

  • I modelli linguistici di grandi dimensioni presentano intrinsecamente un rischio di output che possono essere inappropriati, offensivi o altrimenti non sicuri. Amazon descrive questi rischi nella sezione Limitazioni della pagina Responsible AI di Amazon.
  • Alla luce di questi rischi, abbiamo scelto con cura le funzionalità di Assistente AI per il Testo Alternativo per evitare casi d'uso che potrebbero essere più inclini a output non sicuri o in cui l'impatto di tale output potrebbe essere più significativo.
  • Tuttavia, non si può escludere che parte dell'output possa essere non sicuro. Come accennato in precedenza nella sezione "Accuratezza", gli insegnanti sono tenuti a rivedere l'output, il che può aiutare ulteriormente a ridurre il rischio di output non sicuri.
  • Come parte della loro comunicazione relativa all'Assistente AI per il Testo Alternativo, i clienti dovrebbero informare i loro insegnanti di questa potenziale limitazione.
  • I clienti devono segnalarci qualsiasi output potenzialmente non sicuro utilizzando i canali elencati nell'introduzione.

Gli esseri umani hanno il controllo

  • Per ridurre al minimo il rischio legato all'uso dell'IA generativa per i nostri clienti e i loro utenti, abbiamo intenzionalmente messo i clienti al controllo delle funzionalità dell'Assistente AI per il Testo Alternativo. L'Assistente AI per il Testo Alternativo è quindi una funzione opt-in. Gli amministratori possono attivare o disattivare l'Assistente AI per il Testo Alternativo in qualsiasi momento.  
  • Inoltre, gli insegnanti hanno il controllo dell'output, il che significa che sono tenuti a rivedere l'output di testo e possono modificare l'output di testo, se necessario.
  • L'assistente di testo alternativo AI non include alcun processo decisionale automatizzato che possa avere un effetto legale o comunque significativo sugli studenti o su altri individui.
  • Invitiamo i clienti a leggere attentamente questo documento, inclusi i collegamenti informativi forniti nel presente documento, per assicurarsi di comprendere le funzionalità e i limiti dell'Assistente AI per il Testo Alternativo e del sottostante Amazon Bedrock prima di attivare la funzione Assistente AI per il Testo Alternativo.

Allineamento dei valori

  • I modelli linguistici di grandi dimensioni presentano intrinsecamente dei rischi per quanto riguarda l'output potenzialmente distorto, inappropriato o comunque non allineato con i valori di Anthology o con i valori dei nostri clienti e studenti. Amazon descrive questi rischi nei siti Web collegati nella sezione 'ulteriori informazioni' sotto.
  • Inoltre, i modelli linguistici di grandi dimensioni (come ogni tecnologia che serve a scopi ampi), presentano il rischio di essere generalmente utilizzati in modo improprio per casi d'uso che non sono in linea con i valori di Anthology, dei nostri clienti o dei loro utenti finali e con quelli della società in generale (ad esempio, per attività criminali, per creare output dannosi o altrimenti inappropriati).
  • Alla luce di questi rischi, abbiamo attentamente progettato e implementato le nostre funzionalità di AI Assistente AI per il Testo Alternativo in modo da ridurre al minimo il rischio di disallineamento dell'output. Ad esempio, ci siamo concentrati sulle funzionalità per gli insegnanti piuttosto che per gli studenti. Abbiamo anche intenzionalmente omesso funzionalità potenzialmente ad alto rischio.

Proprietà intellettuale

  • I modelli linguistici di grandi dimensioni presentano intrinsecamente rischi relativi a potenziali violazioni dei diritti di proprietà intellettuale. La maggior parte delle leggi sulla proprietà intellettuale in tutto il mondo non ha completamente anticipato né adattato all'emergere di modelli linguistici di grandi dimensioni e alla complessità delle questioni che sorgono attraverso il loro utilizzo. Di conseguenza, attualmente non esiste un quadro giuridico o una guida chiara che affronti le questioni di proprietà intellettuale e i rischi derivanti dall'uso di questi modelli.
  • In definitiva, è responsabilità del nostro cliente esaminare l'output generato da quell'Assistente AI per il Testo Alternativo per qualsiasi potenziale violazione dei diritti di proprietà intellettuale.  

Accessibilità

  • Abbiamo progettato e sviluppato l'Assistente AI per il Testo Alternativo pensando all'accessibilità, come facciamo in Learn e negli altri nostri prodotti. Prima del rilascio dell'Assistente AI per il Testo Alternativo, abbiamo migliorato intenzionalmente l'accessibilità della struttura semantica, della navigazione, dei controlli da tastiera, delle etichette, dei componenti personalizzati e dei flussi di lavoro delle immagini, per citare alcune aree. Continueremo a dare priorità all'accessibilità man mano che sfrutteremo l'intelligenza artificiale in futuro.
  • La funzionalità Assistente AI per il Testo Alternativo sfrutta Amazon Bedrock. AWS rende disponibili i report di conformità sull'accessibilità tramite le pagine di accessibilità AWS.

Responsabilità

  • Anthology ha un programma AI affidabile progettato per garantire l'uso legale, etico e responsabile dell'IA. Una chiara responsabilità interna e la revisione etica sistematica dell'IA di funzionalità come quelle fornite da Assistente AI per il Testo Alternativo sono i pilastri chiave del programma.
  • Per fornire Assistente AI per il Testo Alternativo, abbiamo collaborato con Amazon per utilizzare Amazon Bedrock. AWS è impegnata nell'uso responsabile dell'IA.
  • I clienti dovrebbero prendere in considerazione l'implementazione di politiche interne, procedure e revisione delle applicazioni di intelligenza artificiale di terze parti per garantire il proprio uso legale, etico e responsabile dell'intelligenza artificiale. Queste informazioni vengono fornite per supportare la recensione dei nostri clienti dell'Assistente AI per il Testo Alternativo.

Ulteriori informazioni