El uso legal, ético y responsable de la inteligencia artificial (IA) es una de las principales prioridades de Anthology, por eso desarrollamos e implementamos un programa de IA confiable. Puede encontrar información sobre el programa y el enfoque en general en nuestro Centro de confianza.

Como parte de nuestros principios de IA confiable, nos comprometemos a ofrecer transparencia, claridad y responsabilidad. En esta página, se pretende ofrecer la transparencia y la capacidad de explicación necesarias para ayudar a nuestros clientes a implantar el Asistente de diseño de IA. Aconsejamos a los administradores que revisen detenidamente esta página y se aseguren de que los profesores estén al tanto de las siguientes consideraciones y recomendaciones antes de activar las funcionalidades del Asistente de diseño de IA en su institución.

Cómo ponerse en contacto con nosotros:

  • Si tiene preguntas o comentarios sobre nuestro enfoque general de la IA confiable o sobre cómo podemos hacer que esta página sea más útil para nuestros clientes, envíenos un correo electrónico a [email protected].
  • Para hacer preguntas o comentarios sobre las funcionalidades o los resultados del AI Design Assistant, envíe una solicitud de asistencia al cliente.

Funciones facilitadas con IA

El AI Design Assistant ayuda a los profesores a crear y diseñar cursos nuevos. Se creó para que inspire a los profesores y simplifique la creación de cursosAnthology se asoció a Microsoft para ofrecer esta funcionalidad, entre otras cosas porque esta empresa lleva mucho tiempo comprometida con el uso ético de la IA.

El AI Design Assistant ofrece las siguientes funcionalidades generativas facilitadas por la IA en Learn Ultra:

  • Generación de palabras clave para el servicio de imágenes libre de regalías en Learn con tecnología de Unsplash: sugiere palabras clave para la búsqueda en Unsplash con el fin de aumentar la eficiencia de la tarea.
  • Generación de módulos de aprendizaje: ayuda a los profesores sugiriéndoles la estructura de un curso.
  • Generación de imágenes del módulo de aprendizaje: crea y sugiere imágenes para los módulos de aprendizaje.
  • Generación de preguntas de exámenes y bancos de preguntas: a fin de ofrecer inspiración a los profesores, sugiere varias preguntas para un examen o crea un banco de preguntas a partir de un documento de Learn.
  • Generación de rúbricas de calificaciones: recomienda una rúbrica de calificación con estructura y criterios en relación con una evaluación determinada, lo que aumenta la eficiencia del profesor y ofrece a los estudiantes transparencia en torno a la calificación.
  • Generación de imágenes para documentos de Learn: genera imágenes para usar dentro de los documentos de Learn, de modo que resulten más atractivos para los estudiantes.

Estas funcionalidades están sujetas a cambios, así como a las limitaciones y la disponibilidad de Azure OpenAI Service. Para obtener más información, consulte las notas de la versión relevantes.

Información esencial

Preguntas y respuestas sobre el Asistente de diseño de IA
PreguntaRespuesta
¿Qué funcionalidades utilizan los sistemas de IA?Todas las funcionalidades del Asistente de diseño de IA descritas anteriormente (generación de palabras clave para Unsplash, generación de módulos de aprendizaje, preguntas de examen y bancos de preguntas, rúbricas de calificación e imágenes para documentos de Learn).
¿Se trata de un sistema de IA con respaldo de terceros?Sí, el Asistente de diseño de IA funciona gracias a Azure OpenAI Service de Microsoft.
¿Cómo funciona el sistema de IA?

El Asistente de diseño de IA utiliza Azure OpenAI Service de Microsoft para generar resultados automáticamente. Para ello, se utiliza información limitada del curso (p. ej., título del curso, descripción del curso) y se solicita a Azure OpenAI Service a través de la API del servicio Azure OpenAI. Los profesores pueden incluir contexto adicional para generar resultados más personalizados. Azure OpenAI Service produce el resultado en función de la solicitud, y el contenido se muestra en la interfaz del usuario de Learn.

Para obtener una explicación detallada del funcionamiento de Azure OpenAI Service y de los grandes modelos de lenguaje GPT de OpenAI subyacentes, consulte la sección Introducción de la Nota de transparencia de Microsoft y los enlaces que aparecen allí.

¿Dónde se aloja el sistema de IA?En la actualidad, Anthology usa varias instancias globales de Azure OpenAI Service. La instancia principal está alojada en Estados Unidos, pero algunas veces utilizamos recursos en otras ubicaciones, como Canadá, el Reino Unido o Francia, para ofrecer la mejor opción de disponibilidad de Azure OpenAI Service a nuestros clientes.

Anthology almacena todos los datos del curso del cliente que se utilizan para la entrada y todos los resultados generados por el AI Design Assistant en la base de datos de Learn del cliente.
¿Esta funcionalidad es opcional?Sí. Los administradores deben activar el Asistente de diseño de IA en la consola de administración de Learn. Los ajustes del Asistente de diseño de IA están en la categoría Building Blocks. Seleccione Asistente de diseño de IA y Unsplash. Los administradores pueden activar o desactivar cada funcionalidad por separado. También deben asignar privilegios de AI Design Assistant a los roles del curso según sea necesario, por ejemplo, al rol de profesor. Los privilegios que deben asignarse son "Buscar imágenes con Unsplash" y "Usar AI Design Assistant".
¿Cómo se entrena el sistema de IA?

Anthology no participa en el entrenamiento de los grandes modelos de lenguaje que se usan para las funcionalidades del Asistente de diseño de IA. Microsoft se encarga de ello como parte de Azure OpenAI Service, que permite ejecutar las funcionalidades del asistente. En la sección Introducción de la Nota de transparencia de Microsoft y los enlaces proporcionados en ella, puede encontrar información sobre el entrenamiento de los grandes modelos de lenguaje.

Anthology no utiliza datos propios ni de los clientes para mejorar Azure OpenAI Service.

¿Se utilizan los datos de los clientes para entrenar o volver a entrenar el sistema de IA?No. En los términos de Azure OpenAI con Anthology, Microsoft se compromete por contrato a no usar ningún tipo de información que se ingrese en Azure OpenAI, o que se genere como resultado del servicio, para entrenar o volver a entrenar el gran modelo de lenguaje. Se asume el mismo compromiso en la documentación Microsoft sobre Datos, privacidad y seguridad para Azure OpenAI Service.
¿Cómo utiliza Anthology la información personal en la implementación del sistema de IA?Anthology solo utiliza la información recopilada relativa al Asistente de diseño AI para proporcionar, mantener y dar soporte al asistente y siempre que disponga del permiso contractual para hacerlo de conformidad con la legislación aplicable. Si desea obtener más información sobre el enfoque de Anthology con respecto a la privacidad de datos, diríjase a nuestro Centro de confianza.
En el caso de un sistema de IA desarrollado por terceros, ¿cómo se utilizarán los datos personales?

Solo se proporciona a Microsoft información limitada sobre el curso para Azure OpenAI Service. Por lo general, no se deberían incluir datos personales (salvo en los casos en que se incluyan en los títulos, descripciones e información similar de los cursos). Además, se podrá acceder a cualquier información que los profesores decidan incluir en la solicitud. 

Microsoft no utiliza ningún dato de Anthology ni los datos de cliente de Anthology a los que tiene acceso (como parte de Azure OpenAI Service) para mejorar los modelos de OpenAI, para mejorar sus propios servicios de productos o los de terceros, ni para mejorar automáticamente los modelos de Azure OpenAI para su uso en el recurso de Anthology (los modelos no tienen estado). Microsoft revisa las solicitudes y los resultados del filtrado de contenidos para evitar que se cometan abusos y se generen contenidos dañinos. Las solicitudes y los resultados solo se almacenan durante 30 días.

 

Puede encontrar más información sobre las prácticas de privacidad de datos relativas a Azure OpenAI Service en la documentación de Microsoft sobre Datos, privacidad y seguridad para Azure OpenAI Service.

¿Se tuvo en cuenta la accesibilidad en el diseño del sistema de IA?Sí, nuestros ingenieros de accesibilidad colaboraron con los equipos de productos para revisar los diseños, informar de las consideraciones importantes al respecto y probar las nuevas funciones específicamente para asegurarse de que sean accesibles. La accesibilidad es una parte integral de nuestro enfoque de IA confiable.

·

Consideraciones y sugerencias para las instituciones

Casos de uso previstos

El Asistente de diseño de IA solo está diseñado para admitir las funcionalidades mencionadas anteriormente (generación de palabras clave para Unsplash, generación de módulos de aprendizaje, preguntas de examen y bancos de preguntas, rúbricas de calificación e imágenes para documentos de Learn). Estas se proporcionan a los profesores de nuestros clientes para ayudarlos a crear y diseñar cursos en Learn.

Casos de uso no recomendados

Dado que el Asistente de diseño de IA de Learn funciona con Azure OpenAI Service de Microsoft, que tiene una gran variedad de casos de uso, es posible utilizar la función de solicitud del asistente para obtener resultados que no estén incluidos en las funcionalidades previstas. Desaconsejamos totalmente que los clientes usen el Asistente de diseño de IA para cualquier propósito que exceda el ámbito de las funcionalidades establecidas. De hacerlo, podrían generarse resultados que no son adecuados o compatibles con el entorno Learn y las medidas que hemos establecido para minimizar los resultados inexactos.

Concretamente, se deben seguir los puntos que se indican a continuación:

  • Utilice únicamente indicaciones cuyo objetivo sea obtener información más relevante del Asistente de diseño de IA (p. ej., proporcionar más detalles sobre la estructura prevista del curso).
  • No solicite resultados que se encuentren fuera del ámbito de la funcionalidad prevista. Por ejemplo, no debe usar la solicitud para pedir fuentes o referencias de los resultados. En nuestras pruebas, identificamos problemas de precisión con este tipo de información.
  • Tenga en cuenta que las solicitudes de resultados que tengan el estilo de una persona específica o se vean parecidos a elementos protegidos por derechos de autor o marcas registradas podrían generar resultados que conlleven el riesgo de infringir los derechos de propiedad intelectual.
  • Es posible que los resultados sugeridos para temas delicados sean limitados. Azure OpenAI Service se entrenó e implementó para reducir al mínimo el contenido ilegal y dañino. Esto incluye una función de filtrado de contenido. Por ello, podrían producirse resultados limitados o aparecer mensajes de error cuando el Asistente de diseño de IA se utilice para cursos relacionados con temas delicados (por ejemplo, autolesiones, violencia, odio o sexo).
  • No realice solicitudes que infrinjan los términos del acuerdo de su institución con Anthology o que infrinjan el Código de conducta para Azure OpenAI Service de Microsoft y la Política de uso aceptable en las Condiciones de Microsoft Online Services.

Principios de IA confiable puestos en práctica

El uso legal, ético y responsable de la IA es una de las principales prioridades de Anthology y Microsoft. En esta sección, se explica cómo ambas empresas trabajaron para abordar el riesgo aplicable a este uso de la IA e implementar los principios de IA confiable de Anthology. También se sugieren los pasos que los clientes pueden considerar a la hora de emprender sus propias revisiones legales y éticas de los riesgos de la IA en su implementación.

Transparencia y explicabilidad

  • En la consola del administrador de Learn, dejamos claro que se trata de una funcionalidad facilitada por la IA
  • En la interfaz de usuario para profesores, las funciones del Asistente de diseño de IA se marcan claramente como funcionalidades de "Generación". También se solicita a los profesores que revisen el resultado del texto antes de usarlo. · En los metadatos de los resultados creados por las funcionalidades del Asistente de diseño de IA, se incluye un campo en el que se registra el contenido generado automáticamente y, también, si el profesor lo editó después.
  • Además de la información sobre el funcionamiento de los modelos de Azure OpenAI Service y del Asistente de diseño de IA que se proporciona en este documento, puede encontrar más detalles sobre Azure OpenAI Service en la Nota de transparencia de Microsoft.
  • Aconsejamos a los clientes que utilicen la IA de forma transparente en el Asistente de diseño de IA y que proporcionen a sus profesores y a otras partes interesadas, según corresponda, la información pertinente de este documento y de la documentación vinculada en él.

Fiabilidad y precisión

  • En la consola del administrador de Learn, dejamos claro que se trata de una funcionalidad facilitada por la IA cuyos resultados pueden ser inexactos o no deseados y siempre deben revisarse.
  • En la interfaz de usuario, se solicita a los profesores que revisen el texto producido para comprobar su precisión.
  • Como se detalla en la sección Limitaciones de la Nota de transparencia de Azure OpenAI Service, es posible que se generen resultados inexactos (lo que incluye "alucinaciones"). Si bien el Asistente de diseño de IA y nuestra implementación se diseñaron para reducir al mínimo la inexactitud, es responsabilidad de los clientes revisar los resultados para asegurarse de que sean precisos y no presenten sesgos u otros problemas potenciales.
  • Como se mencionó anteriormente, los clientes no deben realizar solicitudes en las que se pidan resultados que no se encuentren incluidos en los casos de uso previstos, sobre todo porque esto podría dar lugar a respuestas inexactas (por ejemplo, cuando se solicitan referencias o fuentes).
  • Como parte de su plan de comunicación con respecto al Asistente de diseño de IA, los clientes deben informar a los profesores sobre esta posible limitación.
  • Los profesores pueden usar las solicitudes y los ajustes adicionales en los flujos de trabajo generativos para ofrecer más contexto al Asistente de diseño de IA y, así, aumentar la alineación y la precisión.
  • También tienen la posibilidad de utilizar los flujos de trabajo existentes en Learn para editar manualmente los resultados que genera el Asistente de diseño de IA antes de publicarlos para los estudiantes.
  • Los clientes pueden notificarnos cualquier resultado inexacto utilizando los canales que se indican en la introducción.

Imparcialidad

  • Los grandes modelos de lenguaje presentan intrínsecamente riesgos relacionados con los estereotipos, las representaciones excesivas o insuficientes y otras formas de sesgos dañinos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure OpenAI Service.
  • Teniendo en cuenta estos riesgos, hemos elegido las funcionalidades del Asistente de diseño de IA con mucho cuidado para evitar que se produzcan casos de uso con más probabilidades de contener sesgos dañinos o en los que el impacto de dichos sesgos pueda ser más significativo.
  • Sin embargo, no podemos garantizar que todos los resultados estén exentos de estos sesgos. Como se mencionó anteriormente en el apartado "Precisión", se solicita a los profesores que revisen los resultados, lo cual ayuda a disminuir los sesgos dañinos que pueda haber.
  • Como parte de su plan de comunicación con respecto al Asistente de diseño de IA, los clientes deben informar a los profesores sobre esta posible limitación.
  • Para informarnos sobre los sesgos potencialmente dañinos, pueden utilizar los canales de contacto que se encuentran en la introducción.

Privacidad y seguridad

  • Como se describe en la sección "Información esencial" que aparece más arriba, la información personal que utiliza el Asistente de diseño de IA y a la que accede Microsoft es limitada. Allí, se explica además nuestro compromiso y el de Microsoft con respecto a su uso. Dada la naturaleza del Asistente de diseño de IA, también se espera que la información personal que aparezca en los resultados generados sea limitada.
  • Nuestro producto Learn SaaS cuenta con las certificaciones ISO 27001, 27017 y 27018 y actualmente se dispone a obtener la certificación ISO 27701. En ellas, se incluirán los aspectos acerca de la información personal relacionada con el Asistente de diseño de IA administrada por Anthology. Para obtener más información sobre el enfoque de Anthology en torno a la privacidad y seguridad de los datos, diríjase a nuestro Centro de confianza.
  • Microsoft describe sus prácticas y compromisos de privacidad y seguridad de datos en la documentación sobre Datos, privacidad y seguridad para Azure OpenAI Service.
  • Independientemente del compromiso de Anthology y Microsoft respecto a la privacidad de los datos y a no utilizar los datos de entrada para entrenar o volver a entrenar a los modelos, los clientes pueden aconsejar a los profesores que no incluyan ningún dato personal u otra información confidencial en las solicitudes.

Protección

  • Los grandes modelos de lenguaje presentan siempre el riesgo de generar resultados que pueden ser inapropiados, ofensivos o peligrosos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure OpenAI Service.
  • Teniendo en cuenta estos riesgos, hemos elegido las funcionalidades del Asistente de diseño de IA con mucho cuidado para evitar que se produzcan casos de uso con más probabilidades de generar resultados peligrosos o en los que el impacto de dichos resultados pueda ser más significativo.
  • Sin embargo, no podemos garantizar que todos los resultados sean seguros. Como se mencionó más arriba en el apartado "Precisión", se solicita a los profesores que revisen los resultados, ya que esto reduce las posibilidades de que se generen resultados peligrosos.
  • Como parte de su plan de comunicación con respecto al Asistente de diseño de IA, los clientes deben informar a los profesores sobre esta posible limitación.
  • Los clientes deben informarnos sobre los resultados potencialmente peligrosos a través de los canales que se indican en la introducción.

Personas al mando

  • Con el objetivo de reducir al mínimo los riesgos relacionados con el uso de la IA generativa para nuestros clientes y sus usuarios, tomamos la decisión de que sean los clientes quienes estén al mando de las funcionalidades del Asistente de diseño de IA. Por lo tanto, hicimos que el AI Design Assistant sea una función opcional. Los administradores deben activar el AI Design Assistant para poder después activar cada funcionalidad por separado. También tienen la posibilidad de desactivar el AI Design Assistant del todo o cada una de las funcionalidades por separado.
  • Además, los profesores tienen el control de los resultados, ya que pueden revisar y editar los textos producidos.
  • El Asistente de diseño de IA no incluye ninguna toma de decisiones automatizada que pueda afectar de manera legal o considerable a los alumnos o a otras personas.
  • Recomendamos que los clientes revisen detenidamente este documento, incluidos los enlaces de información que se proporcionan en él, para asegurarse de que comprenden las capacidades y limitaciones del Asistente de diseño de IA y del servicio Azure OpenAI Service subyacente antes de activar el Asistente de diseño de IA en el entorno de producción.

Alineación con los valores

  • El uso de grandes modelos de lenguaje conlleva riesgos inherentes en cuanto a resultados sesgados, inapropiados o no acordes con los valores de Anthology o de nuestros clientes y alumnos. Microsoft los describe en la sección Limitaciones de la Nota de transparencia de Azure OpenAI Service.
  • Además, estos modelos (como toda tecnología que cumple propósitos amplios) presentan el riesgo de que, en general, puedan utilizarse indebidamente para casos de uso que no se ajusten a los valores de Anthology, de nuestros clientes o de sus usuarios finales ni los de la sociedad en general (por ejemplo, para actividades delictivas o para crear resultados dañinos o inapropiados).
  • Teniendo en cuenta estos riesgos, diseñamos e implementamos las funciones del Asistente de diseño de IA con mucho cuidado, con el fin de reducir al mínimo las posibilidades de que se produzcan resultados que no estén alineados con estos valores. Por ejemplo, nos centramos más en las funcionalidades para los profesores que para los alumnos. Además, omitimos intencionalmente aquellas que podrían ser de alto riesgo.
  • Microsoft también revisa las solicitudes y los resultados para filtrar el contenido y, así, evitar que se realicen abusos o se genere contenido dañino.

Propiedad intelectual

  • Los grandes modelos de lenguaje presentan intrínsecamente riesgos relacionados con posibles violaciones de los derechos de propiedad intelectual. La mayoría de las leyes de propiedad intelectual de todo el mundo no se anticiparon ni adaptaron por completo a la aparición de estos modelos ni a la complejidad de los problemas que surgen a partir de su uso. Como resultado, actualmente no existe un marco jurídico claro ni una orientación que aborde las cuestiones y los riesgos en torno a la propiedad intelectual que aparecen debido al uso de estos modelos.
  • En última instancia, es responsabilidad de los clientes revisar los resultados generados con el Asistente de diseño de IA para detectar cualquier posible violación de los derechos de propiedad intelectual. Tenga en cuenta que las solicitudes de resultados con el estilo de una persona concreta o con un aspecto similar a elementos protegidos por derechos de autor o marcas registradas pueden dar lugar a resultados que supongan un mayor riesgo de infracción.

Accesibilidad

Diseñamos y desarrollamos el sistema de diseño de IA teniendo en cuenta la accesibilidad, tal como lo hacemos en Learn y en el resto de nuestros productos. Incluso antes del lanzamiento de este sistema, siempre hicimos todo lo posible por aumentar la accesibilidad de la estructura semántica, la navegación, los controles del teclado, las etiquetas, los componentes personalizados y los flujos de trabajo de imágenes, entre otras muchas áreas. A medida que avancemos en el uso de la IA, seguiremos dando prioridad a la accesibilidad.

Responsabilidad

  • Anthology cuenta con un programa de IA confiable diseñado para garantizar el uso legal, ético y responsable de la IA. La responsabilidad interna clara y la revisión ética sistemática de la IA o las funcionalidades como las que ofrece el Asistente de Diseño de IA son elementos fundamentales del programa.
  • Con el objeto de distribuir el Asistente de Diseño de IA, nos unimos con Microsoft, para aprovechar Azure OpenAI Service, cuya tecnología es la base del asistente. Microsoft lleva mucho tiempo comprometiéndose con el uso ético de la IA.
  • Los clientes deberían plantearse la implantación de políticas y procedimientos internos y la revisión de las aplicaciones de IA de terceros para garantizar que su propio uso de la IA sea legal, ético y responsable. Esta información se ofrece para respaldar la valoración que nuestros clientes hacen del Asistente de diseño de IA.

Información adicional