Por: Anais Persson, Diario Financiero
El Parlamento Europeo marcó un hito al consensuar la primera ley que regula los sistemas de Inteligencia Artificial (IA) en el mundo, la cual se basa en un modelo que fija niveles de riesgos que suponen para los usuarios y que busca garantizar mejores condiciones para su desarrollo.
La UE elaboró una propuesta de ley, donde la prioridad es que los sistemas usados en los países miembros sean “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”. Y exige que estos sean supervisados por personas -en lugar de automatización- para evitar resultados perjudiciales.
Este cuerpo legal establece normas diferenciadas. En particular, determinó cuatro niveles -mínimo, limitado, alto e inaceptable- y establece obligaciones para proveedores y usuarios en función de la categoría de riesgo.
Pero,
¿hasta qué punto debería replicarse esta normativa en Chile? Por ahora hay un proyecto de ley presentado en el Congreso por el diputado independiente Tomás Lagomarsino que recién se verá en marzo próximo. Mientras tanto,
los expertos están de cabeza analizando los alcances de la normativa europea y la conveniencia de replicar dicho estándar en Chile y la región.
Claudio Magliona, ACTI: “Debería centrarse en los usos”
El presidente del grupo legal de la Asociación Chilena de Empresas de Tecnologías de la Información (ACTI), socio de Magliona Abogados y académico de la Universidad de Chile, Claudio Magliona, abordó los aspectos jurídicos de la propuesta de la Unión Europea.
“La principal fortaleza es su modelo regulatorio basado en riesgos y centrado en las personas (...) Sin embargo, al mismo tiempo este modelo regulatorio basado en riesgos es el origen de sus principales debilidades”, afirmó.
Explicó que este, tiene la dificultad de acordar social, económica, legal, política y técnicamente cuáles serán los niveles de riesgo para cada uso de los sistemas de IA y la proporcionalidad de las exigencias para cada uno de ellos.
“Más que basarse en modelos pre establecidos, deberíamos centrarnos en los usos. Normalmente una tecnología no es ilícita en sí, sino que lo que puede llegar a ser ilegal, es el uso y un mal uso, lógicamente, debe sancionarse”, añadió.
Además, se refirió al Consejo Europeo de Inteligencia Artificial. “Es una entidad supranacional de carácter consultivo a nivel europeo. En aquel sentido, cabría plantearse la posibilidad de replicar una similar en Chile o eventualmente a nivel regional para garantizar una homogeneidad regulatoria a nivel internacional”, dijo.
Carolina Cabrera, Accenture: “Hay que lograr una regulación amplia”
La directora Legal de Accenture Chile, Carolina Cabrera, valoró los esfuerzos que se han realizado en Chile con este proyecto de ley por la capacidad de “ponernos rápidamente al día”, y resaltó los aspectos que se podrían replicar de la Unión Europea.
“A mí me parece que la calificación de los riesgos y de los tipos de riesgos es una buena forma de abordar una normativa de inteligencia artificial, partiendo de la base de que regular una materia como esta es complejo, por su gran velocidad de cambio. Por lo tanto, lo que tenemos que lograr es una regulación que sea lo suficientemente amplia para poder durar en el tiempo”, dijo Cabrera.
Sin embargo, advirtió que establecer “riesgos tan taxativos podría generar que en un tiempo más se tengan que agregar más riesgos”.
“Si bien es un buen punto de partida, hay que tener mucho cuidado en estudiar y revisar bien cuáles son los riesgos que se van a describir en cada una de las categorías y que no sean demasiado limitantes”, añadió.
También se refirió a la importancia de que esta regulación incentive la innovación de este tipo de tecnologías con medidas de apoyo.
“El objetivo es que podamos seguir innovando y que podamos usar la IA para todo aquello que beneficia a la sociedad (...) generar espacios controlados de pruebas para la inteligencia artificial sería un punto bastante interesante que nosotros pudiéramos explorar acá en Chile”, dijo la abogada.
En la misma línea, mencionó que sería una buena idea contar con un panel de expertos como el que se encargará de asesorar al Comité de Inteligencia Artificial.
“Creo que por tratarse de materias tan específicas y complejas, me hace mucho sentido que la regulación europea incluya un panel de expertos independientes que van a estar asesorando a esta oficina de Inteligencia artificial”, dijo.
Loreto Bravo, UDD: regular según sus usos y niveles de riesgo es “fundamental”
La directora del Instituto de Data Science de la Facultad de Ingeniería de la Universidad del Desarrollo (UDD), Loreto Bravo, afirmó que el diseño de la normativa es crucial en su aplicación.
“El tener una regulación puede tener un impacto positivo o negativo dependiendo de su diseño. Por un lado, puede dar un marco claro que promueva la confianza y adopción de estas tecnologías. No obstante, una regulación excesivamente restrictiva podría obstaculizar la innovación y la experimentación”, dijo.
Agregó que regular la IA según sus usos y niveles de riesgo asociados es “fundamental”, ya que “la tecnología en sí misma no es intrínsecamente buena o mala, sino que los riesgos dependen del contexto y la aplicación específica” y que, por lo mismo, “las exigencias deben variar de acuerdo al riesgo que tiene el uso que se le va a dar”.
“La IA puede ser utilizada para la vigilancia masiva de la población, la censura y control de información en línea y la discriminación basada en algoritmos. Sin una supervisión ética y legal rigurosa, existe el riesgo de que la IA se utilice para reprimir la libertad individual, perpetuar desigualdades y dañar los procesos democráticos”, afirmó.
La legislación europea
El modelo de riesgo aprobado por la UE implica, por ejemplo, que los sistemas que se clasifiquen como inaceptables serán prohibidos. Entre ellos, los de puntuación social de personas por estrato socioeconómico o comportamiento, los de manipulación cognitiva de personas, por ejemplo, los juguetes activados por voz que fomentan conductas peligrosas en niños, y los de identificación biométrica en espacios públicos en tiempo real y a distancia, con la excepción de los usados para perseguir delitos graves y sólo con previa aprobación judicial.
En tanto, los sistemas de IA de riesgo alto, aquellos que afecten negativamente la seguridad o los derechos fundamentales de las personas, deberán registrarse en una base de datos de toda la UE gestionada por la Comisión Europea antes de su comercialización.
En el caso de la IA generativa, -por ejemplo, ChatGPT- tendrá que cumplir con criterios de transparencia, como revelar que el contenido es generado por IA y diseñar un modelo que evite la creación de contenido ilegal.
La norma también contempla la creación del Consejo Europeo de Inteligencia Artificial, el cual deberá supervisar la aplicación del reglamento, además de contar con una definición de la IA fundada en la que elaboró la Organización para la Cooperación y Desarrollo Económicos (OCDE).
El cuerpo legal, cuyo marco regulador se propuso en abril de 2021, se aprobó el 2 de febrero pasado, después de que los embajadores de los 27 países de la UE confirmaron en forma unánime el texto. Sin embargo, antes de su aplicación, el parlamento europeo tendrá un voto final, planificado para abril.
La normativa, que fija multas que van desde los 7,5 millones de euros hasta los 35 millones de euros, no entrará en vigencia de forma inmediata, ya que contempla artículos que entrarán en vigor en un plazo de seis meses, y otros, en 2026.