REFLEXIONES SOBRE LA REGULACIÓN DE INTELIGENCIA ARTIFICIAL

Licenciado Juan Carlos Vásquez Drexler

Regular es una labor difícil, y lo es aún más en el campo tecnológico. Actualmente, el legislador observa con impotencia como el principio de seguridad jurídica se queda varado ante el rápido avance de estas tecnologías emergentes. ¿Dónde está la certeza y  la previsibilidad de las consecuencias jurídicas de los actos, si de la noche a la mañana el objeto que se regula cambia su estructura y modo de aplicación?

El ordenamiento jurídico es rígido por naturaleza, porque se pretende que los preceptos que allí se establecen se mantengan incólumes a lo largo del tiempo, así minimizamos los riesgos de introducir errores o lagunas en la legislación, máxime si se hacen cambios constantes. La cuestión es que en el caso que nos compete que es el área computacional, específicamente los sistemas inteligentes, no hay una continuidad a lo largo del tiempo, sino que los algoritmos cambian por mejores y más optimizados. Como ocurrió con las redes neuronales recurrentes (RNN por sus siglas en inglés), los cuales han empezado a ser sustituidos por los transformadores, así puede acontecer  con estos últimos en un futuro cercano, cuando arquitecturas más óptimas salgan a la luz, y quede la norma -que en su momento creíamos efectiva- desfasada. ¿De qué manera podríamos solucionar está pérdida continua de eficiencia y eficacia de la norma por des-actualización, sobre todo en lo que compete a inteligencia artificial (IA)?

Antes que nada, debemos ser conscientes de que se trata de un problema multidimensional. No podemos únicamente basarnos en principios de derecho, en la experiencia, en un análisis de riesgo jurídico, sino que debemos adentrarnos en la comprensión técnica del objeto. Se debe regular desde la construcción. ¿A qué me refiero con esto? Pues a que el legislador debe ser capaz de entender las características de los modelos a los que se enfrenta o que pretende normar. Hay diversidad de tipos de modelos de aprendizaje automático y profundo, mas todos comparten aspectos comunes: son esencialmente hiperheurísticos, dependientes enormemente de la calidad y cantidad de los datos que se usen para su entrenamiento como para su validación. Además, hasta el momento y especialmente a lo que refiere a grandes modelos de lenguaje (LLM por sus siglas en inglés), es difícil poder depurar o explicarlos adecuadamente, porque se trata de redes neuronales de miles de millones de parámetros con multiplicidad de capas, de los que sabemos poco del cómo toma decisiones la red (problema de la “caja negra”).

De hecho, si el legislador fuese consciente de este último aspecto sobre depuración, se daría cuenta de un problema mortal en el planteamiento de sus proyectos: están tratando de regular sistemas basados en algoritmos no deterministas con marcos legales de base determinista. Un algoritmo no determinista es aquel en donde una misma entrada de datos produce una multiplicidad de los resultados. Ésta es una característica perceptible dentro de los modelos generativos, algo parcialmente controlable con el hiperparámetro de temperatura en un Modelo Grande de Lenguaje (Large Language Model LLM), pero no del todo. Súmele a ello la ceguera existente sobre el funcionamiento de estos modelos masivos, ello nos lleva a una receta para el desastre. Es como tratar de encerrar el caos en un frasco.

Si no existe capacidad para explicar la toma de decisiones de un modelo, no se puede auditar adecuadamente, y mucho menos determinar responsabilidades o consecuencias jurídicas. ¿Cómo sabemos si el resultado producido por el modelo se debió a la calidad de los datos, a una falencia en la toma de decisiones dentro de la red o a un fallo en la instrucción del usuario? ¿Cómo llegó el modelo a tales conclusiones? Si tenemos un sistema donde cada vez que ingresamos los mismos datos obtenemos resultados diferentes, o leves variaciones sobre los mismos, ¿dónde queda el análisis de riesgo? Podemos revisar las entradas y salidas, pero aún es incierto que ocurre “dentro” de un modelo particular. Consideremos que el riesgo es la posibilidad de que algo dañoso ocurra y el objeto de nuestro análisis: sin reproducibilidad, medir el riesgo es extremadamente difícil, porque nuestra respuesta al riesgo depende de la aleatoriedad.

Esto queda en evidencia, por ejemplo, con la reciente emitida Ley de Inteligencia Artificial de la Unión Europea. La sección segunda de la norma ibídem, establece los requisitos relativos a sistemas de IA de alto riesgo (como lo puede ser un modelo entrenado para análisis crediticio). Sobre esto, quiero hacer especial hincapié en el Anexo IV, ligado al apartado 1 del artículo 11. Las exigencias documentales que se plasman en el anexo, no hace distinción entre sistemas de abiertos (cabe  la posibilidad de que existan modelos de código abierto considerados riesgosos) y propietarios: exige explicabilidad y apertura para ambos casos. Atención al apartado 2.b y 2.c del anexo, que solicita una descripción detallada de los elementos del sistema de IA y del proceso para su desarrollo, incluyendo:

“(b) las especificaciones de diseño del sistema, es decir, la lógica general del sistema de IA y de los algoritmos; las principales opciones de diseño, incluidos los fundamentos y las hipótesis adoptadas, también en relación con las personas o grupos de personas con los que se pretende utilizar el sistema; las principales opciones de clasificación; para qué se ha diseñado el sistema con el fin de optimizarlo y la pertinencia de los distintos parámetros; la descripción de los resultados esperados y de la calidad de los resultados del sistema; las decisiones sobre cualquier posible solución de compromiso adoptada en relación con las soluciones técnicas adoptadas para cumplir los requisitos establecidos en la sección 2 del capítulo III;

(c) la descripción de la arquitectura del sistema que explique cómo los componentes de software se basan o se alimentan entre sí y se integran en el procesamiento global; los recursos informáticos utilizados para desarrollar, entrenar, probar y validar el sistema de IA;”

Surgen varios problemas con estos enunciados, de los que mencionaré dos. En primer lugar, se pide una explicación detallada del sistema – desde su lógica algorítmica interna, hipótesis asumidas y diseño – lo que incluye análisis del sector poblacional. Ya hemos mencionado que los modelos basados en aprendizaje profundo (hasta el momento) son considerados opacos o poco transparentes en cuanto a la toma de decisiones. ¿Cuáles son los límites de un requisito de ley, como lo es el de la explicabilidad, frente a limitaciones en el arte y la técnica? Aquí se reitera el conflicto entre la búsqueda de seguridad y certeza (determinismo), algo natural del paradigma actual de regulación, contra la aleatoriedad de un modelo generativo (no-determinismo). En segundo lugar, el hecho de exigir tales niveles de transparencia, como conocimiento sobre la arquitectura del sistema, puede ser problemático, inclusive riesgoso para empresas caracterizadas por poseer una arquitectura cerrada (como lo es el caso de “Apple”) que distingue sus productos de la competencia, porque nada asegura que la información que provee no vaya a filtrarse. Es una decisión difícil entre operar en Europa o no. Si bien la explicabilidad es parte importante de una efectiva legislación y un adecuado análisis de riesgos, tampoco se puede pretender apertura o explicación más allá de lo posible.

Todo lo expuesto es una cuestión vital que lo afecta todo: desde las exigencias que las propuestas regulatorias pretenden imponer a los desarrolladores, hasta los procesos judiciales que involucren sistemas inteligentes. Cabe agregar que ésta falta de comprensión del legislador ha influido en la campaña global de captura regulatoria por parte de las grandes empresas de tecnología, quienes han construido todo un esquema monopólico de captación de datos, investigación, producción y despliegue de modelos de aprendizaje automático y profundo, imbuido en nuestros dispositivos; o de otros agentes interesados en tener acceso a su tecnología.

Regular la IA requiere de volver la mirada fuera del Derecho, de la zona de confort de los juristas, hacia un nuevo paradigma. Uno tal vez no tan evidente en este momento, pero que sin lugar a dudas representaría un salto evolutivo para la disciplina jurídica, que tanto lo necesita.

Siguiente
Siguiente

Introducción a los métodos de visualización aplicados al Derecho