Toma de decisiones automatizadas mediante IA en la Administración Tributaria – Dr. Alfredo Collosa

0
114

Recientemente el Instituto de Estudios Fiscales (IFS), instituto de investigación económica independiente del Reino Unido, publicó un muy interesante informe titulado en inglés “ Artificial intelligence in automated decision-making in tax administration: the case for legal, justiciable and enforceable safeguards”[1] el cual se centra en el uso de la inteligencia artificial (IA) en la gestión administrativa en la administración tributaria (AT) para tomar decisiones discrecionales o subjetivas.

El informe si bien se basa en la utilización de la IA para toma de decisiones automatizadas en la AT del Reino Unido entendemos es de suma utilidad para todas las AT y partes interesadas en el tema.

  1. DESICIONES AUTOMATIZADAS MEDIANTE USO DE IA EN LA AT DEL REINO UNIDO

La AT del  Reino Unido HM Revenue & Customs (HMRC) tiene una amplia gama de poderes, que pueden dividirse en poderes que son de naturaleza administrativa o mecánica, y otros que requieren el ejercicio de un elemento de discreción o subjetividad (incluida la imposición de sanciones).

La toma de decisiones automatizada (ADM) es cualquier decisión o proceso en el que la totalidad o parte de la decisión o proceso se realiza sin intervención humana (a través de tecnología), independientemente de si la decisión o el resultado es revisado posteriormente por la HMRC.

En términos generales, la tecnología que sustenta la ADM se puede dividir en: inteligencia artificial (IA), y sistemas algorítmicos desarrollados a través de programación convencional (es decir, sistemas algorítmicos o sistemas basados en reglas).

Aunque no existe una lista completa de la tecnología de ADM publicada por HMRC, se entiende que, en la actualidad, HMRC emplea ambos tipos de tecnología.

En concreto el documento se centra en el uso de IA en ADM en la AT para tomar decisiones discrecionales o subjetivas.

  1. BENEFICIOS DEL USO DE LA IA

Aunque la IA aún no se ha implementado ampliamente en ADM en la AT en el Reino Unido, es inevitable que la IA desempeñe un papel más destacado en dicha toma de decisiones porque mejora la velocidad y la eficiencia de la toma de decisiones y ayuda a optimizar los recursos asignados a HMRC.

Además de los beneficios operativos, la IA también tiene la capacidad de facilitar la detección de correlaciones previamente indetectables u ocultas, actividad sospechosa, tendencias, indicadores, etc., lo que podría permitir la detección temprana y la acción preventiva, o la mitigación de estos riesgos en tiempo real, lo que ayudaría a reducir la brecha fiscal y aumentar la recaudación de impuestos.

Por lo tanto, al considerar las salvaguardas fiscales que se deben introducir con respecto al uso de IA en la gestión de la AT el documento adopta un enfoque prospectivo con respecto a las garantías que se deben introducir en preparación para el despliegue a mayor escala de IA en la gestión de la AT (incluida la regulación de los usos actuales de IA por parte de HMRC).

  1. MARCO ADMINISTRATIVO ACTUAL

El marco administrativo fiscal actual no es adecuado para el uso de la IA en la gestión de la AT, ya que su uso (en particular, si se utiliza para tomar decisiones discrecionales) representa un cambio fundamental en la base de la toma de decisiones por parte de la HMRC.

En el marco operativo actual, en general, en lo que respecta a las decisiones tomadas por la HMRC (en particular, las decisiones discrecionales), los funcionarios de la HMRC son los principales encargados de la toma de decisiones, aunque puedan contar con la ayuda de la tecnología para tomarlas.

Sin embargo, una vez que se implemente la IA en la gestión de la AT, cuando una decisión se tome únicamente mediante IA (en particular, aprendizaje automático (ML) sin intervención humana en el proceso de toma de decisiones), esto reflejaría una decisión tomada por el sistema (y no una decisión de un funcionario de la HMRC); la decisión tomada por la IA se basaría en la propia interpretación del modelo de los datos (ya sea etiquetados o no) y las correlaciones extraídas por el modelo.

Esto reflejaría un cambio en el papel del principal encargado de la toma de decisiones, del funcionario de la HMRC a la IA.

Incluso cuando se requiere que un funcionario de HMRC revise una decisión tomada por la IA antes de que la decisión tenga un impacto en un contribuyente y el funcionario de HMRC proporcione una explicación de por qué se llegó a esa decisión, cuando se utiliza una IA de caja negra, esa explicación se basa únicamente en la comprensión del funcionario de por qué se llegó a una decisión en particular debido a la opacidad de la IA de caja negra.

La explicación del funcionario de HMRC implicaría aplicar ingeniería inversa a la lógica y la base de la decisión generada por la IA, y esta ingeniería inversa inculca un elemento de incertidumbre y falta de fiabilidad en las explicaciones proporcionadas por el funcionario de HMRC.

  1. RECOMENDACIONES. ENFOQUE PROACTIVO.

Cualquier cambio de este tipo en la base de la toma de decisiones debería ser el producto de una decisión política consciente y transparente adoptada por el gobierno.

En consecuencia, se recomienda que se adopte un enfoque proactivo para regular el uso de la IA en la gestión de la AT, en lugar de un enfoque reactivo, especialmente teniendo en cuenta algunos de los riesgos (que se han manifestado en varias jurisdicciones que ya han adoptado la IA en la administración pública).

El gobierno del Reino Unido y las organizaciones internacionales han publicado varios códigos, normas y marcos de IA con respecto al uso de la IA en la administración pública.

Sin embargo, estos códigos, normas y marcos en esta etapa no son vinculantes ni específicos de los impuestos, y no proporcionan a los contribuyentes ningún derecho legalmente exigible o justiciable.

Dado el cambio fundamental en la forma en que se tomarán las decisiones donde se implemente la IA en la gestión de la AT, se recomienda que, en la medida en que se utilice la IA en la gestión de la AT, se proporcionen a los contribuyentes las salvaguardas adecuadas que sean justiciables, mensurables y legalmente exigibles.

En el documento se recomiendan dos soluciones alternativas: una legislación sobre IA específica para los impuestos o una Carta de IA de la HMRC (que incluya algunos de los estándares y valores clave que la HMRC debe respetar) (en conjunto, ambas medidas se denominan «Garantías legales fiscales para la IA»).

En la práctica, se espera que el gobierno pueda legislar para una legislación más amplia sobre IA (que no sea específica para los impuestos) y, por lo tanto, una Carta de IA de la HMRC puede ser la alternativa preferida por el gobierno.

Además de introducir garantías legales fiscales para la IA, se recomienda que el gobierno introduzca una legislación que otorgue afirmativamente a HMRC el poder de utilizar IA en la ADM en la AT para garantizar que el uso de dicha IA sea legalmente permisible y no esté sujeto a impugnaciones.

  1. DERECHOS Y GARANTÍAS CLAVES.

El documento recomienda las siguientes salvaguardas clave:

5.1. LEGISLACIÓN HABILITANTE PARA EL USO DE IA EN LA GESTIÓN DE ACTIVOS EN LA AT

 La legislación debe prever afirmativamente el uso de IA en la gestión de activos en la AT.

 Las garantías jurídicas fiscales en materia de IA deben establecer circunstancias específicas en las que el uso de la IA no está permitido.

 Se debe requerir la consideración de otra legislación relevante, incluido el Reglamento General de Protección de Datos (RGPD), la Ley de Protección de Datos de 2018 (DPA), el Convenio Europeo de Derechos Humanos (CEDH), la Ley de Igualdad de 2010, la Carta de HMRC, etc.

 Se debería especificar cómo se determinarán los niveles de riesgo de los contribuyentes tras el procesamiento de datos en sistemas de gestión de riesgos.

5.2. DATOS DE ENTRENAMIENTO DE LA IA Y SESGOS

 Se deben proporcionar principios generales sobre el uso de conjuntos de datos para el entrenamiento de la IA utilizada en la gestión de activos en la AT para garantizar que estos conjuntos de datos (i) sean grandes, diversos, confiables e imparciales, y (ii) representen una amplia muestra representativa de la demografía afectada.

Estos principios deben aplicarse incluso cuando los datos utilizados por HMRC no sean datos internos de HMRC sino que se compren o adquieran de terceros o cuando el sistema se desarrolle externamente.

 Se debe dejar claro que los principios sobre los conjuntos de datos se aplican en todas las etapas del desarrollo y uso de la IA y, por lo tanto, los conjuntos de datos utilizados para entrenar la IA deben mantenerse bajo revisión, incluso una vez que la IA se haya implementado.

Deberían prever el reentrenamiento obligatorio de la IA basándose en conjuntos de datos actualizados, y las garantías legales fiscales de la IA deberían establecer el período después del cual debería haber dicho reentrenamiento obligatorio una vez que se haya implementado la IA.

 De exigirse el desarrollo de una norma técnica específica para impuestos (que debe revisarse y actualizarse periódicamente) para minimizar el riesgo de sesgo que debe respetarse al desarrollar la IA que se utiliza para la gestión de activos en la AT. La norma técnica debe consultarse y adoptarse una vez que haya tenido una amplia participación de las partes interesadas. Una vez adoptada, esta norma técnica debe divulgarse públicamente.

5.3. PRUEBAS E IMPLEMENTACIÓN

 Se deben prever pruebas previas a la implementación de la IA.

 Se debería exigir un período de transición en el que se realicen pruebas posteriores a la implementación en paralelo a la implementación de la IA.

 Se debería exigir auditorías anuales de la IA implementada (incluidas evaluaciones de impacto en los contribuyentes subrepresentados).

 La política gubernamental más amplia debería revisar las salvaguardas con respecto a los portales de divulgación de información de HMRC. 

5.4. EXPLICABILIDAD Y TRANSPARENCIA

 Se debe prever que: se notifique a los contribuyentes cuando se utilice la IA para la gestión de activos en relación con decisiones que tengan un impacto directo sobre ellos; y se proporcionen a los contribuyentes explicaciones de la lógica local basadas en los resultados con respecto a dichas decisiones.

 Se deben exigir explicaciones basadas en procesos.

 Se requiere una consideración expresa de las políticas con respecto a la transparencia, la explicabilidad y la política general cuando la IA se esté implementando de una manera que no tenga un impacto directo sobre los contribuyentes. En particular, se debe considerar si HMRC debe estar sujeta a la orientación proporcionada por los grandes modelos lingüísticos (LLM) a los contribuyentes.

Dr. Alfredo Collosa

octubre 2024

[1]Nathwani, K. (2024). Artificial intelligence in automated decision-making in tax administration: the case for legal, justiciable and enforceable safeguards. London: Institute for Fiscal Studies. Available at: https://ifs.org.uk/publications/artificial-intelligence-automated-decision-making-tax-administration-case-legal (accessed: 12 September 2024).