Natasha Crampton es la directora de la compañía a cargo del uso responsable de la IA y compartió siete ideas claves sobre su implementación
La Inteligencia Artificial continua su expansión en el mundo, y desde Microsoft, la directora Natasha Crampton, compartió siete claves sobre la implementación responsable de la nueva herramienta. Entre ellas, la creación de una oficina destinada a la IA, comprender las capacidades, conocer los límites del ChatGPT y justificar las respuestas mediante vínculos externos.
¿Cuáles son las primeras dos claves del uso responsable de Microsoft sobre la Inteligencia Artificial?
1. Microsoft tiene una oficina dedicada de IA responsable
“Hemos trabajado de manera ardua en estos temas desde 2017, cuando establecimos nuestro comité Aether dirigido por la investigación (Aether es un acrónimo de AI, Ética y Efectos en Ingeniería e Investigación). Fue aquí donde en verdad comenzamos a profundizar en lo que estos problemas significan para el mundo. A partir de esto, adoptamos un conjunto de principios en 2018 para guiar nuestro trabajo.
La Oficina de IA responsable se estableció en 2019 para garantizar que tuviéramos un enfoque integral de la IA responsable, al igual que lo hacemos con la privacidad, la accesibilidad y la seguridad. Desde entonces, hemos perfeccionado nuestra práctica, dedicamos mucho tiempo a descubrir qué significa en verdad en la práctica un principio como el de responsabilidad.
Luego, podemos brindar a los equipos de ingeniería una guía concreta sobre cómo cumplir con esos principios, y compartimos lo que hemos aprendido con nuestros clientes, así como con la sociedad en general”.
2. La responsabilidad es una parte clave del diseño de IA, no una ocurrencia tardía
“En el verano de 2022, recibimos un nuevo y emocionante modelo de OpenAI. De inmediato reunimos a un grupo de evaluadores e hicimos que la gente probara el modelo en bruto para comprender cuáles eran sus capacidades y sus limitaciones.
Los conocimientos generados a partir de esta investigación ayudaron a Microsoft a pensar cuáles serán las mitigaciones correctas cuando combinemos este modelo con el poder de la búsqueda web. También ayudó a OpenAI, que desarrolla de manera constante su modelo, a tratar de incorporarles más seguridad.
Creamos nuevos canales de prueba en los que pensamos en los daños potenciales del modelo en un contexto de búsqueda web. Luego, desarrollamos enfoques sistemáticos para la medición para poder comprender mejor cuáles son algunos de los principales desafíos que podríamos tener con este tipo de tecnología; un ejemplo es lo que se conoce como «alucinación», donde el modelo puede inventar hechos que en realidad no son ciertos.
Para noviembre, descubrimos cómo podemos medirlos y luego mitigarlos mejor con el tiempo. Diseñamos este producto con controles de IA responsable en su núcleo, por lo que son una parte inherente del producto. Estoy orgulloso de la forma en que todo el ecosistema de IA responsable se unió para trabajar en ello”.