El uso legal, ético y responsable de la inteligencia artificial (IA) es una de las principales prioridades de Anthology, por eso desarrollamos e implementamos un programa de IA confiable. Puede encontrar información sobre nuestro programa y enfoque general de la IA confiable en nuestro Centro de confianza y más información sobre las características de la IA generativa en nuestra Lista de características de IA generativa.
Como parte de nuestros principios de IA confiable, nos comprometemos a ofrecer transparencia, claridad y responsabilidad. En esta página, se pretende ofrecer la transparencia y la capacidad de explicación necesarias para ayudar a nuestros clientes a implementar el Asistente de texto alternativo de IA. Aconsejamos a los administradores que revisen detenidamente esta página y se aseguren de que los profesores estén al tanto de las siguientes consideraciones y recomendaciones antes de activar las funcionalidades del Asistente de texto alternativo de IA en su institución.
Cómo ponerse en contacto con nosotros:
- Si tiene preguntas o comentarios sobre nuestro enfoque general de la IA confiable o sobre cómo podemos hacer que esta página sea más útil para nuestros clientes, envíenos un correo electrónico a [email protected].
- Para hacer preguntas o comentarios sobre las funcionalidades o los resultados del Asistente de texto alternativo de IA, envíe una solicitud de asistencia al cliente desde Behind the Blackboard.
Funciones facilitadas con IA
El Asistente de texto alternativo de IA ofrece a los profesores sugerencias sobre texto alternativo para las imágenes que se usan en sus cursos en línea a través del flujo de trabajo Comentarios del profesor de Ally. Se creó para que inspire a los profesores y simplifique la corrección de errores de accesibilidad. Anthology se asoció a Microsoft para ofrecer esta funcionalidad, entre otras cosas porque esta empresa lleva mucho tiempo comprometida con el uso ético de la IA.
El Asistente de texto alternativo de IA ofrece las siguientes funcionalidades generativas facilitadas por la IA:
- Generar un texto alternativo para las imágenes. Sugiere un texto alternativo dentro de los Comentarios del profesor de Ally cuando los profesores corrigen imágenes sin texto alternativo.
Estas funcionalidades están sujetas a cambios, así como a las limitaciones y la disponibilidad de Azure AI Vision Service. Para obtener más información, consulte las notas de la versión relevantes.
Información esencial
Pregunta | Respuesta |
---|---|
¿Qué funcionalidades de Ally utilizan los sistemas de IA? | Sugerencia de texto alternativo a través de IA en el panel Comentarios del profesor de Ally cuando ha marcado una imagen por no tener texto alternativo. |
¿Se trata de un sistema de IA con respaldo de terceros? | Sí, el Asistente de texto alternativo de IA funciona gracias a Azure Vision Service de Microsoft. |
¿Cómo funciona el sistema de IA? | El Asistente de texto alternativo de IA utiliza Azure Vision Service de Microsoft para generar resultados automáticamente. Esto se logra usando la imagen para generar un texto alternativo que se envía a través de la API de Azure Vision. No se utiliza ninguna otra información (p. ej., título del curso, descripción del curso). Las imágenes no se usan para entrenar el modelo de Azure Vision de Microsoft, y Azure Vision Service genera el resultado en función de cada imagen que se carga en el Asistente de texto alternativo de IA. No se utilizan indicaciones. Tenga en cuenta que para los usuarios finales que tengan sus instancias de LMS configuradas en idiomas distintos del inglés, el resultado del texto alternativo de IA se traducirá con AWS Translate. Para obtener una explicación detallada del funcionamiento de los modelos de Azure AI Vision, consulte la sección Introducción de la Nota de transparencia de Microsoft y los enlaces que aparecen allí. |
¿Dónde se aloja el sistema de IA? | En la actualidad, Anthology usa varias instancias globales de Azure Vision Service. La instancia principal está alojada en Estados Unidos, pero algunas veces utilizamos recursos en otras ubicaciones, como Francia, Asia-Pacífico, para ofrecer la mejor opción de disponibilidad de Azure AI Vision Service a nuestros clientes. Todos los resultados del cliente generados por el Asistente de texto alternativo de IA se almacenan en la base de datos de Ally existente de cada cliente administrada por Anthology. |
¿Esta funcionalidad es opcional? | Sí. Los administradores deben activar el Asistente de texto alternativo de IA en las opciones de configuración del LMS de Ally. Seleccione Generación de descripciones alternativas para imágenes de IA en la pestaña Funciones. Los administradores pueden activar o desactivar esta funcionalidad en cualquier momento. |
¿Cómo se entrena el sistema de IA? | Anthology no participa en el entrenamiento de los modelos que se usan para las funcionalidades del Asistente de texto alternativo de IA. Estos modelos los entrena Microsoft como parte de Azure Vision Service. En la sección Introducción de la Nota de transparencia de Microsoft y los enlaces proporcionados en ella, puede encontrar información sobre el entrenamiento de los grandes modelos de lenguaje. Anthology no utiliza datos propios ni de los clientes para mejorar Azure Vision Service. |
¿Se utilizan los datos de los clientes para entrenar o volver a entrenar el sistema de IA? | No. En los términos de Azure Vision con Anthology, Microsoft se compromete por contrato a no usar ningún tipo de información que se ingrese en Azure Vision, o que se genere como resultado del servicio, para entrenar o volver a entrenar el gran modelo de lenguaje. Se asume el mismo compromiso en la documentación de Microsoft sobre Datos, privacidad y seguridad para Azure Vision Service. Solo se utilizan los modelos previamente diseñados. |
¿Cómo Anthology Ally utiliza la información personal en la implementación del sistema del Asistente de texto alternativo de IA? | Anthology Ally solo utiliza las imágenes recopiladas en relación con el Asistente de texto alternativo de IA para proporcionar, mantener y respaldar esta función. Si desea obtener más información sobre el enfoque de Anthology con respecto a la privacidad de datos, diríjase a nuestro Centro de confianza de Anthology. Solo se utilizan imágenes para activar esta función. No se comparte otra información con Azure Vision Service de Microsoft. Microsoft no utiliza ningún dato de Anthology ni los datos de clientes de Anthology a los que tiene acceso (como parte de Azure Vision Service) para mejorar los modelos de Vision, para mejorar sus propios servicios de productos o los de terceros, ni para mejorar automáticamente los modelos de Azure Vision para su uso en el recurso de Anthology (los modelos no tienen estado). Puede encontrar más información sobre las prácticas de privacidad de datos relativas a Azure Vision Service en la documentación de Microsoft sobre Datos, privacidad y seguridad para Azure Vision Service. |
¿Se tuvo en cuenta la accesibilidad en el diseño del sistema de texto alternativo de IA? | Sí, nuestros ingenieros de accesibilidad colaboraron con los equipos de productos para revisar los diseños, informar de las consideraciones importantes al respecto y probar las nuevas funciones específicamente para asegurarse de que sean accesibles. La accesibilidad es una parte integral de nuestro enfoque de IA confiable. |
Consideraciones y sugerencias para las instituciones
Casos de uso previstos
El Asistente de texto alternativo de IA solo está diseñado para admitir las funcionalidades enumeradas anteriormente. Estas funcionalidades se proporcionan a los profesores de nuestros clientes, y están destinadas a ayudarlos en la solución de los problemas de accesibilidad en las imágenes marcados por Ally.
Casos de uso no recomendados
El Asistente de texto alternativo de IA no pretende ni garantiza que haga que todas las imágenes sean accesibles con un texto alternativo perfecto, ya que aún depende del profesor editar o aprobar el texto en función del contexto del contenido del curso.
Principios de IA confiable puestos en práctica
El uso legal, ético y responsable de la IA es una de las principales prioridades de Anthology y Microsoft. En esta sección, se explica cómo ambas empresas trabajaron para abordar el riesgo aplicable a este uso de la IA e implementar los principios de IA confiable de Anthology. También se sugieren los pasos que los clientes pueden considerar a la hora de emprender sus propias revisiones legales y de la IA sobre los riesgos éticos de su aplicación.
Transparencia y explicabilidad
- En las copiones de configuración de administración de Ally, dejamos claro que se trata de una funcionalidad facilitada por la IA
- En la interfaz de usuario para profesores, las funciones del Asistente de texto alternativo de IA se marcan claramente como funcionalidades "Generativas". También se solicita a los profesores que revisen el resultado del texto antes de utilizarlo. Los metadatos de la salida creada por las funcionalidades del Asistente de texto alternativo de IA se muestran en el informe de uso de Ally de cada cliente con un campo para el contenido generado automáticamente. Además, muestra si el profesor editó el resultado posteriormente.
- Además de la información sobre el funcionamiento de los modelos de Azure Vision Service y del Asistente de texto alternativo de IA que se proporciona en este documento, puede encontrar más detalles sobre Azure Vision Service en la Nota de transparencia de Microsoft.
- Aconsejamos a los clientes que utilicen la IA de forma transparente en el Asistente de texto alternativo de IA y que proporcionen a sus profesores y a otras partes interesadas, según corresponda, la información pertinente de este documento y de la documentación vinculada en él.
Fiabilidad y precisión
- En la configuración de administración de Ally y en los términos de uso, dejamos claro que se trata de una funcionalidad facilitada por la IA cuyos resultados pueden ser inexactos o no deseados y siempre debe revisarlos el profesor.
- En la interfaz de usuario, se solicita a los profesores que revisen el texto producido para comprobar su precisión.
- Como se detalla en la sección Limitaciones de la Nota de transparencia de Azure Vision Service, es posible que se generen resultados inexactos. Si bien el Asistente de texto alternativo de IA y nuestra implementación se diseñaron para reducir al mínimo la inexactitud, es responsabilidad de los clientes revisar los resultados para asegurarse de que sean precisos y no presenten sesgos u otros problemas potenciales.
- Como parte de su plan de comunicación con respecto al Asistente de texto alternativo de IA, los clientes deben informar a los profesores sobre esta posible limitación.
- También tienen la posibilidad de utilizar la interfaz de Ally existente para editar manualmente los resultados que genera el Asistente de texto alternativo de IA antes de publicarlos para los estudiantes.
- Los clientes pueden notificarnos cualquier resultado inexacto utilizando los canales que se indican en la introducción.
Imparcialidad
- Los grandes modelos de lenguaje presentan intrínsecamente riesgos relacionados con los estereotipos, las representaciones excesivas o insuficientes y otras formas de sesgos dañinos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure Vision Service.
- Teniendo en cuenta estos riesgos, hemos elegido las funcionalidades del Asistente de texto alternativo de IA con mucho cuidado para evitar que se produzcan casos de uso con más probabilidades de contener sesgos dañinos o en los que el impacto de dichos sesgos pueda ser más significativo.
- Sin embargo, no podemos garantizar que todos los resultados estén exentos de estos sesgos. Como se mencionó anteriormente en el apartado "Precisión", se solicita a los profesores que revisen los resultados, lo cual ayuda a disminuir los sesgos dañinos que pueda haber.
- Como parte de su plan de comunicación con respecto al Asistente de texto alternativo de IA, los clientes deben informar a los profesores sobre esta posible limitación.
- Para informarnos sobre los sesgos potencialmente dañinos, pueden utilizar los canales de contacto que se encuentran en la introducción.
Privacidad y seguridad
- Como se describe en la sección "Información esencial" que aparece más arriba, el Asistente de texto alternativo de IA solo utiliza la imagen y Microsoft puede acceder a ella. En esa sección también se explica nuestro compromiso y el de Microsoft con respecto a su uso.
- Ally cuenta con la certificación ISO 27001/27017/27018/27701. En ellas, se incluirán los resultados relacionados con el Asistente de texto alternativo de IA administrado por Anthology. Para obtener más información sobre el enfoque de Anthology en torno a la privacidad y seguridad de los datos, diríjase a nuestro Centro de confianza.
- Microsoft describe sus prácticas y compromisos de privacidad y seguridad de datos en la documentación sobre Datos, privacidad y seguridad para Azure Vision Service.
- Independientemente del compromiso de Anthology y Microsoft respecto a la privacidad de los datos y a no utilizar los datos de entrada para entrenar o volver a entrenar a los modelos, los clientes pueden aconsejar a los profesores que no incluyan ningún dato personal u otra información confidencial en las imágenes.
Protección
- Los grandes modelos de lenguaje presentan siempre el riesgo de generar resultados que pueden ser inapropiados, ofensivos o peligrosos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure Vision Service.
- Teniendo en cuenta estos riesgos, hemos elegido las funcionalidades del Asistente de texto alternativo de IA con mucho cuidado para evitar que se produzcan casos de uso con más probabilidades de contener sesgos dañinos o en los que el impacto de dichos sesgos pueda ser más significativo.
- Sin embargo, no podemos garantizar que todos los resultados sean seguros. Como se mencionó más arriba en el apartado "Precisión", se solicita a los profesores que revisen los resultados, ya que esto reduce las posibilidades de que se generen resultados peligrosos.
- Como parte de su plan de comunicación con respecto al Asistente de texto alternativo de IA, los clientes deben informar a los profesores sobre esta posible limitación.
- Los clientes deben informarnos sobre los resultados potencialmente peligrosos a través de los canales que se indican en la introducción.
Personas al mando
- Con el objetivo de reducir al mínimo los riesgos relacionados con el uso de la IA generativa para nuestros clientes y sus usuarios, tomamos la decisión de que sean los clientes quienes estén al mando de las funcionalidades del Asistente de texto alternativo de IA. Por lo tanto, hicimos que el Asistente de texto alternativo de IA sea una función opcional. Los administradores pueden activar o desactivar el Asistente de texto alternativo de IA en cualquier momento.
- Además, los profesores tienen el control de los resultados, por lo que se les solicita que los revisen y editen según sea necesario.
- El Asistente de texto alternativo de IA no incluye ninguna toma de decisiones automatizada que pueda afectar de manera legal o considerable a los alumnos o a otras personas.
- Recomendamos que los clientes revisen detenidamente este documento, incluidos los enlaces de información que se proporcionan en él, para asegurarse de que comprenden las capacidades y limitaciones del Asistente de texto alternativo de IA y del servicio Azure Vision Service subyacente antes de activar el Asistente de texto alternativo de IA.
Alineación con los valores
- El uso de grandes modelos de lenguaje conlleva riesgos inherentes en cuanto a resultados sesgados, inapropiados o no acordes con los valores de Anthology o de nuestros clientes y alumnos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure Vision Service.
- Además, estos modelos (como toda tecnología que cumple propósitos amplios) presentan el riesgo de que, en general, puedan utilizarse indebidamente para casos de uso que no se ajusten a los valores de Anthology, de nuestros clientes o de sus usuarios finales ni los de la sociedad en general (por ejemplo, para actividades delictivas o para crear resultados dañinos o inapropiados).
- Teniendo en cuenta estos riesgos, diseñamos e implementamos las funciones del Asistente de texto alternativo de IA con mucho cuidado, con el fin de reducir al mínimo las posibilidades de que se produzcan resultados que no estén alineados con estos valores. Por ejemplo, nos centramos más en las funcionalidades para los profesores que para los alumnos. Además, omitimos intencionalmente aquellas que podrían ser de alto riesgo.
Propiedad intelectual
- Los grandes modelos de lenguaje presentan intrínsecamente riesgos relacionados con posibles violaciones de los derechos de propiedad intelectual. La mayoría de las leyes de propiedad intelectual de todo el mundo no se anticiparon ni adaptaron por completo a la aparición de estos modelos ni a la complejidad de los problemas que surgen a partir de su uso. Como resultado, actualmente no existe un marco jurídico claro ni una orientación que aborde las cuestiones y los riesgos en torno a la propiedad intelectual que aparecen debido al uso de estos modelos.
- En última instancia, es responsabilidad de los clientes revisar los resultados generados con el Asistente de texto alternativo de IA para detectar cualquier posible violación de los derechos de propiedad intelectual.
Accesibilidad
- Diseñamos y desarrollamos el sistema del Asistente de texto alternativo de IA teniendo en cuenta la accesibilidad, tal como lo hacemos en Learn y en el resto de nuestros productos. Incluso antes del lanzamiento de este sistema, siempre hicimos todo lo posible por aumentar la accesibilidad de la estructura semántica, la navegación, los controles del teclado, las etiquetas, los componentes personalizados y los flujos de trabajo de imágenes, entre otras muchas áreas. A medida que avancemos en el uso de la IA, seguiremos dando prioridad a la accesibilidad.
Responsabilidad
- Anthology cuenta con un programa de IA confiable diseñado para garantizar el uso legal, ético y responsable de la IA. La responsabilidad interna clara y la revisión ética sistemática de la IA o las funcionalidades como las que ofrece el Asistente de texto alternativo de IA son elementos fundamentales del programa.
- Con el objeto de distribuir el Asistente de texto alternativo de IA, nos unimos con Microsoft, para aprovechar Azure Vision Service, cuya tecnología es la base del asistente. Microsoft lleva mucho tiempo comprometiéndose con el uso ético de la IA.
- Los clientes deben considerar la implementación de políticas y procedimientos internos y la revisión de las aplicaciones de IA de terceros para garantizar que su propio uso de la IA sea legal, ético y responsable. Esta información se ofrece para respaldar la valoración que nuestros clientes hacen del Asistente de texto alternativo de IA.
Información adicional
- Enfoque confiable de IA de Anthology
- Lista de funciones generativas de IA de Anthology
- Página de Microsoft sobre IA responsable
- Nota de transparencia de Microsoft para Azure Vision Service
- Página de Microsoft sobre Datos, privacidad y seguridad para Azure Vision Service