Inteligencia artificial en la Administración Tributaria de Australia – Dr. Alfredo Collosa

0
65

La Oficina Nacional de Auditoría de Australia (ANAO) es una práctica especializada del sector público que proporciona una gama de servicios de auditoría y aseguramiento al Parlamento y a las entidades de la Commonwealth.

Al 30 de junio de 2024, 56 entidades del Gobierno australiano habían informado a la ANAO que habían adoptado la IA

La mayoría de estas entidades habían adoptado la IA para actividades de investigación y desarrollo, administración de sistemas de TI y datos e informes.

De las 56 entidades que adoptaron la IA, 36 (64%) establecieron políticas internas que rigen específicamente el uso de la IA, mientras que 15 (27 %) establecieron políticas internas con respecto a la garantía del uso de la IA.

El uso de la IA por parte de las entidades incluye: chatbots, asistentes virtuales y agentes en la gestión de servicios; reconocimiento de documentos e imágenes; para apoyar a la aplicación de la ley; mapeo de datos a áreas geográficas; y, como se indica una prueba de Copilot para Microsoft 365.

Recientemente ha publicado los resultados de una auditoría de uso de IA con relación a la Administración Tributaria de Australia (ATO)[1]

A continuación se presenta un resumen de los mensajes clave, incluidos ejemplos de buenas prácticas, que se han identificado en la auditoría a la ATO y que pueden ser relevantes para las operaciones de otras entidades del Gobierno australiano.

  1. JUSTIFICACIÓN DE LA AUDITORIA

Las tecnologías de IA ofrecen a las organizaciones, incluidas las entidades del sector público, una serie de oportunidades.

La IA puede ayudar a las entidades del sector público a impulsar el crecimiento de la productividad, mejorar la prestación de servicios y cumplir con sus objetivos de manera más eficaz.

Por otra parte, las cuestiones que deben gestionarse incluyen el riesgo de sesgo, la falta de transparencia y rendición de cuentas, la privacidad, la seguridad y la legalidad.

La auditoría proporciona una garantía independiente al Parlamento sobre si la ATO cuenta con mecanismos eficaces para respaldar la adopción de la IA.

Seguidamente se presentan los principales hallazgos de la auditoría.

  1. DATOS CLAVE

La Política del Gobierno australiano para el uso responsable de la IA en el gobierno entró en vigor el 1 de septiembre de 2024.

La ATO utiliza la IA en diferentes contextos, entre ellos: para analizar datos para evaluar riesgos de incumplimiento, ayudar en la redacción de comunicaciones y ayudar con las visualizaciones.

Se relevaron 43 Modelos de IA creados por la ATO, a partir del 14 de mayo de 2024.

Existen 8 herramientas de IA generativa disponibles públicamente aprobadas como de bajo riesgo por la ATO, al 18 de junio de 2024.

Un 74% de modelos de IA de la ATO en producción que no habían completado evaluaciones de ética de datos, a agosto de 2024.

  1. INTELIGENCIA ARTIFICIAL EN LA ATO

El propósito de la ATO es “contribuir al bienestar económico y social de los australianos fomentando la participación voluntaria en los sistemas tributario, de jubilación y de registro”

La ATO afirma que utiliza datos y análisis (incluida la IA) para: comprender y mejorar las interacciones con sus “clientes”; tomar decisiones mejores, más rápidas e inteligentes; ofrecer resultados con “agilidad”; ​​y brindar asesoramiento al gobierno.

La ATO ha declarado que sus actividades relacionadas con los datos (incluido el uso de la IA) deben ser tanto lícitas como éticas. Los seis principios de ética de los datos de la ATO establecen los estándares mínimos que deben tenerse en cuenta al recopilar, utilizar, compartir, archivar y eliminar datos. A través de estos principios, la ATO pretende abordar los principales riesgos éticos identificados que pueden surgir en las actividades relacionadas con los datos y garantizar que la ATO utilice los datos de manera adecuada.

La ATO informó sobre la forma en que utiliza la IA. Uttiliza herramientas de IA para aumentar la eficiencia y la eficacia del trabajo realizado por el personal, lo que permite ofrecer mejores servicios y un mayor valor a la comunidad. Actualmente, la ATO utiliza IA para revisar grandes cantidades de datos no estructurados con fines de riesgo e inteligencia, potenciar los modelos de riesgo para identificar posibles incumplimientos para su revisión por parte de personas y redactar y editar comunicaciones.

La ATO tiene supervisión humana sobre todos los usos de la IA, y la toma de decisiones que afecta a los clientes siempre la realiza un ser humano.

La ATO utiliza IA en una variedad de contextos, incluidos: para evaluar los riesgos asociados con los reclamos presentados, como las declaraciones de impuestos individuales; para ayudar a administrar los volúmenes de su centro de llamadas; y para proporcionar su asistente virtual en el sitio web de la ATO, Alex.

La ATO ha participado en iniciativas gubernamentales relacionadas con la IA, tales como: el Grupo de trabajo sobre IA en el gobierno; la prueba de Copilot para Microsoft 365; la prueba del marco de garantía de la IA del gobierno australiano; y el desarrollo de un marco de ética de datos para todo el gobierno.

  1. GOBERNANZA Y GESTIÓN DE RIESGOS

No existe un marco de gobernanza único para la IA. La gobernanza debe ser acorde con el riesgo, la escala y la madurez del uso de la IA por parte de una entidad.

A medida que aumenta el uso y la complejidad de la IA, una entidad debe adaptar sus mecanismos de gobernanza. La gobernanza de la IA puede evolucionar a partir de los mecanismos de gestión y gobernanza de datos existentes de una entidad.

Un inventario centralizado de los sistemas de IA que se utilizan en una entidad es importante para la transparencia, la supervisión y la rendición de cuentas.

Un inventario podría incluir información clave relacionada con: el tipo de IA que se utiliza; el propósito del sistema de IA; consideraciones legales y éticas; costo; riesgo; desempeño; y rol en la toma de decisiones.

Deberían existir roles y responsabilidades claramente definidos para la IA, tanto a nivel empresarial como a nivel del sistema de IA.

La IA conlleva riesgos específicos que probablemente evolucionen. Por lo tanto, es probable que sea necesario adaptar los mecanismos de gestión de riesgos a la IA.

Las entidades pueden aprovechar los mecanismos de gestión de riesgos existentes para incorporar la gestión de riesgos en la toma de decisiones en relación con la IA. Las entidades deben centrarse en establecer mecanismos para identificar, gestionar y escalar los riesgos nuevos y emergentes.

Los principios éticos de la IA deben estar respaldados por mecanismos de implementación que garanticen su aplicación en la práctica. Estos mecanismos pueden incluir procesos, orientación práctica, seguimiento y garantía.

Deberían existir políticas, procedimientos y mecanismos de garantía basados ​​en riesgos para respaldar el diseño, el desarrollo y la implementación efectivos de la IA.

  1. MEDICIÓN DEL DESEMPEÑO Y DEL IMPACTO

Los mecanismos de seguimiento y evaluación deben diseñarse para medir los resultados y ayudar a una entidad a mejorar continuamente la idoneidad, adecuación y eficacia de su adopción de IA, tanto a nivel empresarial como a nivel del sistema de IA.

Debería haber informes internos sobre la adopción y el uso de IA dentro de la organización dirigidos a la alta dirección y a la autoridad responsable.

  1. MANTENIMIENTO DE REGISTROS

Las entidades deben asegurarse de adoptar la IA de manera transparente y responsable. Los registros deben demostrar transparencia y responsabilidad en el diseño, desarrollo, implementación y monitoreo continuo de los sistemas de IA.

Dr. Alfredo Collosa

[1]Governance of Artificial Intelligence at the Australian Taxation Office https://www.anao.gov.au/work/performance-audit/governance-of-artificial-intelligence-the-australian-taxation-office#:~:text=The%20Australian%20Government%20Policy%20for,communications%3B%20and%20help%20with%20visualisations