Una de las inteligencias artificiales más populares ha generado un gran debate sobre su uso, y ahora Estados Unidos y China se suman a la lista de países que buscan regularlo.
Los gobiernos de Estados Unidos y China anunciaron la implementación de regulaciones al uso de ChatGPT, ya que no cumple la normativa sobre protección de datos y además porque carece de filtros para menores. De esta manera, ambas potencias se suman a Italia, cuyas autoridades habían tomado una decisión similar por los mismos motivos sobre ese programa, basado en inteligencia artificial.
El gobierno estadounidense dispuso un período de 60 días para recoger ideas sobre cómo legislar contra los efectos no deseados de estos programas, que suponen un riesgo en campos tan dispares como la privacidad, la desinformación o el mercado laboral.
Por su parte, China ya hizo pública una propuesta normativa que exigirá a los proveedores seguridad y legitimidad en estas aplicaciones. En tanto, Alan Davidson, director de la Administración Nacional de Telecomunicaciones e Información de los Estados Unidos, señaló al Wall Streer Journal que “es necesario poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”. “Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial”, explicó el funcionario.
Asimismo, la Administración del Ciberespacio de China dio a conocer también este martes un proyecto de medidas para regular los servicios de inteligencia artificial generativa, y aseguró que quiere que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al público, según la agencia británica Reuters. Las reglas redactadas por este regulador señalan que los proveedores serán responsables de la legitimidad de los datos utilizados para entrenar sus productos de inteligencia artificial generativa y que se deben tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar esos datos.
Más allá de lo sucedido en Italia, la Unión Europea (UE) quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica para alertar a los usuarios, mientras que Alemania, Francia e Irlanda también implementarán regulaciones en el corto plazo.
Además, es importante que las empresas que utilizan ChatGPT u otros modelos de lenguaje tomen medidas adecuadas para proteger la privacidad y seguridad de los datos de sus usuarios, y que establezcan políticas claras sobre el uso y almacenamiento de información personal.