Desde Microsoft brindaron información sobre el uso responsable del uso de la nueva herramienta digital para los usuarios
La directora del uso de Inteligencia Artificial de Microsoft, Natasha Crampton, brindó sietes pasos claves sobre la incursión de la herramienta digital en la compañía. Los pasos consisten en garantizar resultados de búsqueda en las respuestas del ChatGPT, comunicar los últimos avances para asegurar el uso compartido con los usuarios.
Te puede interesar: Inteligencia Artificial ¿cómo aborda Microsoft el uso responsable de la IA?
Los siguientes dos pasos del uso responsable de Microsoft sobre la IA. Para conocer los primeros, ingresa aquí.
3. Microsoft trabaja para fundamentar las respuestas en los resultados de búsqueda
“Las alucinaciones son un problema bien conocido con modelos de lenguaje grandes en general. La forma principal en que Microsoft puede abordarlos en el producto Bing es garantizar que la salida del modelo se base en los resultados de búsqueda.
Esto significa que la respuesta proporcionada a la consulta de un usuario se centra en contenido de alto rango de la web, y proporcionamos enlaces a sitios web para que los usuarios puedan obtener más información.
Bing clasifica el contenido de las búsquedas web a través de ponderar en gran medida características como la relevancia, la calidad, la credibilidad y la actualidad. Consideramos que las respuestas fundamentadas son respuestas del nuevo Bing, en las que las afirmaciones están respaldadas por información contenida en fuentes de entrada, como resultados de búsqueda web de la consulta, la base de conocimiento de Bing de información verificada y, para la experiencia de chat, reciente historial de conversaciones de un chat dado. Las respuestas no fundamentadas son aquellas en las que una afirmación no está fundamentada en esas fuentes de entrada.
Sabíamos que surgirían nuevos desafíos cuando invitamos a un pequeño grupo de usuarios a probar el nuevo Bing, por lo que diseñamos la estrategia de lanzamiento para que fuera incremental y pudiéramos aprender de los primeros usuarios. Estamos agradecidos por esos aprendizajes, ya que nos ayudan a fortalecer el producto. A través de este proceso, hemos implementado nuevas mitigaciones y continuamos con la evolución de nuestro enfoque”.
4. El Estándar de IA Responsable de Microsoft está destinado para que todos lo utilicen
“En junio de 2022, decidimos publicar el estándar de IA Responsable. Por lo general no publicamos nuestros estándares internos al público en general, pero creemos que es importante compartir lo que hemos aprendido en este contexto y ayudar a nuestros clientes y socios a navegar a través de lo que a veces puede ser un terreno nuevo para ellos, tanto como lo es para nosotros.
Cuando creamos herramientas dentro de Microsoft para ayudarnos a identificar, medir y mitigar los desafíos de la IA responsable, integramos esas herramientas en nuestra plataforma de desarrollo de aprendizaje automático (Machine Learning – ML, por sus siglas en inglés) de Azure para que nuestros clientes también puedan usarlas para su propio beneficio.
Para algunos de nuestros nuevos productos basados en OpenAI, hemos desarrollado un sistema de seguridad para que nuestros clientes puedan aprovechar nuestra innovación y nuestros aprendizajes en lugar de tener que construir toda esta tecnología por sí mismos desde cero. Queremos asegurarnos de que nuestros clientes y socios estén capacitados para tomar decisiones de implementación responsables”.