La OCDE detecta crecientes esfuerzos de transparencia entre los principales desarrolladores de IA

0
1

Los principales desarrolladores de IA están tomando medidas importantes para hacer que sus sistemas sean más robustos y seguros, según un nuevo informe de la OCDE.

¿Cómo gestionan los riesgos los desarrolladores de IA? Las perspectivas derivadas de las respuestas al marco de presentación de informes del Código de Conducta del Proceso de IA de Hiroshima  analizan los informes de transparencia voluntarios, conforme al Proceso de IA de Hiroshima del G7, presentados por empresas de tecnología y telecomunicaciones, así como por instituciones de asesoramiento, investigación y educación, como Anthropic, Google, Microsoft, NTT, OpenAI, Salesforce y Fujitsu.

El análisis muestra que muchas organizaciones están desarrollando métodos cada vez más sofisticados para evaluar y mitigar riesgos, incluyendo pruebas adversas y herramientas asistidas por IA para comprender mejor el comportamiento de los modelos y mejorar su fiabilidad. Las empresas tecnológicas más grandes suelen contar con prácticas más avanzadas, especialmente en la evaluación de riesgos sistémicos y sociales.

El informe también concluye que los actores clave de la IA reconocen cada vez más la importancia de compartir información sobre la gestión de riesgos para generar confianza, facilitar el aprendizaje entre pares y crear entornos más predecibles para la innovación y la inversión. Sin embargo, las herramientas de procedencia técnica, como las marcas de agua, las firmas criptográficas y las credenciales de contenido, siguen siendo limitadas más allá de algunas grandes empresas.

Una mayor transparencia es clave para generar confianza en la inteligencia artificial y acelerar su adopción. Al proporcionar puntos de referencia comunes, la presentación voluntaria de informes puede contribuir a difundir las mejores prácticas, reducir la fragmentación regulatoria y promover la adopción de la IA en toda la economía, incluso entre las pequeñas empresas, afirmó Jerry Sheehan, Director de Ciencia, Tecnología e Innovación de la OCDE.

A medida que definimos expectativas comunes de transparencia, el Marco de Informes del Proceso de IA de Hiroshima puede desempeñar un papel valioso al optimizar el proceso de elaboración de informes. De cara al futuro, también podría ayudar a las organizaciones a alinearse con las nuevas expectativas de elaboración de informes a medida que la tecnología de IA y las prácticas de gobernanza siguen avanzando. Amanda Craig, Directora Sénior de Políticas Públicas Responsables de IA, Microsoft.

Desarrollado bajo la Presidencia italiana del G7 en 2024 con la participación de empresas, el mundo académico y la sociedad civil, el marco de presentación de informes voluntarios de la OCDE sienta las bases para enfoques coordinados hacia una IA segura y fiable. Apoya la implementación del Proceso de Hiroshima sobre IA, iniciado bajo la Presidencia japonesa del G7 en 2023.

El informe ”  ¿Cómo gestionan los riesgos los desarrolladores de IA? Perspectivas extraídas de las respuestas al marco de informes del Código de Conducta del Proceso de IA de Hiroshima”  está disponible aquí .

Fuente: OCDE