Cinco expertos entregan sus razones para regular o no, la Inteligencia Artificial

 

Por: Renato Olmos, Diario Financiero.

La Inteligencia Artificial (IA) ha sido la protagonista de las agendas de medios de comunicación, empresas y gobiernos en el último año. Si bien su desarrollo se viene gestando desde hace décadas, en noviembre de 2022 se produjo un punto de inflexión con la irrupción de ChatGPT, creado por la startup estadounidense OpenAI.

El inédito potencial de esta tecnología ha generado un debate mundial en torno a sus posibles usos maliciosos, lo que plantea una pregunta común: ¿se debe regular la inteligencia artificial?

La Unión Europea (UE) ha dado pasos importantes. Hace un par de semanas el Parlamento Europeo, de cara al debate del proyecto de Ley de Inteligencia Artificial, aprobó por mayoría su posición de negociación: las reglas garantizarían que la IA desarrollada y utilizada dentro de Europa esté totalmente en línea con los derechos y valores del bloque. Ahora, vienen las conversaciones con los Estados miembros de las que saldrá el texto definitivo de la ley.

En Chile, en abril pasado, el diputado independiente Tomás Lagomarsino ingresó un proyecto de ley -que está en primer trámite en la Cámara de Diputados- que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de aplicación.

En el Gobierno también ha sido tema. La ministra de Ciencia, Tecnología, Conocimiento e Innovación (CTCI), Aisén Etcheverry, comentó que a raíz de la actualización de la Política Nacional de Inteligencia Artificial, junto con la Unesco, están realizando mesas con expertos acerca de ética en esta tecnología, en la que se abordarán ejes de regulación.

La ministra Etcheverry dijo que a nivel interno, y con el Congreso, están observando los distintos tipos de regulación en esta materia y cuál es el mejor mecanismo para avanzar con un eventual proyecto de ley a fines de este año.

DF consultó a cinco expertos si se debe regular esta tecnología en el país y por qué. Si bien la mayoría está a favor de avanzar hacia una regulación, hay matices en cómo y cuándo hacerlo.

Álvaro Soto: Regular desde la perspectiva local

El director del Centro Nacional de Inteligencia Artificial (CENIA) y cofundador de Zippedi, Álvaro Soto, está de acuerdo en regular, pero plantea que hay cierto desconocimiento en el debate en Chile, con muchas opiniones que surgirían de escenarios que distan del potencial real de la IA.

El también profesor de la UC, señaló que la IA es una tecnología muy transversal que tendrá un alto impacto en la vida de las personas, como las redes sociales, donde la regulación habría llegado tarde.

“Es importante aprender la lección y ser no solo proactivos, sino, aún más importante, ser muy asertivos para manejar los beneficios de la IA y evitar sus potenciales malos usos”, dijo.

Soto señaló que la legislación europea sería el modelo más cercano a la realidad local para mantener una mayor independencia de presiones que pueden ejercer grandes empresas del sector.

“Su modelo de protección de datos, privacidad y responsabilidades civiles va por el camino correcto”, aseguró, pero hizo hincapié en que la realidad chilena dista a la mayoría de los países europeos, por lo que “es muy importante que cualquier legislación sea mirada desde la perspectiva local, teniendo en cuenta nuestras necesidades más urgentes, o ámbitos prioritarios en áreas económicas y sociales”.

Macarena Gatica: No debe regularse por ley

La abogada socia de Alessandri Abogados, Macarena Gatica, que ha plasmado su opinión en columnas y artículos, comentó que el aspecto preocupante de la IA son sus consecuencias y efectos que podría producir su uso.

“Por lo tanto, corresponde preguntarse si eso está o no regulado por el ordenamiento jurídico. Y la verdad es que en gran parte sí lo está”, afirmó.

Ejemplificó con la ley de Protección al Consumidor, que establece deberes del proveedor, que serían aplicables a la IA. También señaló que la Constitución y otras leyes se hacen cargo de temas como los sesgos o discriminaciones arbitrarias.

“Ante cualquier innovación, siempre surge el miedo ante lo desconocido y los abusos, y como respuesta natural la regulación. Sin embargo, el cuándo y cómo se regula puede producir efectos no deseados como inhibir la innovación, regulaciones obsoletas o ineficientes”, subrayó.

Gatica acotó que más que crear nuevas regulaciones, son las empresas las que deben determinar lineamientos para autorregular el uso de la IA en sus negocios, con principios que guíen su aplicación.

Leo Prieto: No innovar demasiado

El emprendedor Leo Prieto, fundador de Lemu, startup chilena que usa IA para abordar la crisis ambiental, dijo que si no se es cuidadoso en la forma en la que se desarrolla e implementa la inteligencia artificial “podría terminar profundizando brechas y empeorando los mismos problemas que buscamos resolver”.

En esa línea, está de acuerdo con la premisa de avanzar hacia una legislación que regule el desarrollo y su aplicación en el país. Sin embargo, el aspecto fundamental en el debate sería la fiscalización.

Prieto acotó que las organizaciones deberían declarar cuando exista un proceso de IA involucrado en la toma de decisiones, los cuales, a su juicio, deben ser trazables y auditables por fuentes externas para evitar malas prácticas.

“También hay que desmitificar que la regulación sólo inhibe la innovación. Tenemos suficientes siglos de historia y evidencia para saber que no es así. Mucho más peligroso es cuando avanzamos aplicando tecnologías tremendamente disruptivas sin evaluar sus posibles consecuencias y buscar mitigar sus riesgos”, dijo.

Señaló que Europa -con España a la cabeza- ha estado liderando las buenas prácticas en esta materia.

“No deberíamos buscar innovar mucho en la regulación (…) hay que estudiar, replicar e implementar los elementos de las legislaciones de Europa, Asia o Estados Unidos que se alineen con el modelo de desarrollo que queremos como país”, afirmó.

Loreto Bravo: Regular con enfoque híbrido

Para la directora del Instituto de Data Science de la Universidad del Desarrollo (UDD), Loreto Bravo, regular la IA en Chile es esencial. “Es imperativo asegurar que su implementación sea ética, transparente y segura”, comentó.

En esa línea, explicó que una propuesta innovadora es la regulación europea, que sugiere diferentes niveles de exigencias basadas en el riesgo que representa una aplicación de IA en particular. “Esto permite un enfoque más matizado y adaptable en lugar de una regulación única y rígida”, dijo Bravo.

También tuvo palabras para el proyecto de ley presentado por el diputado Lagomarsino. Si bien dijo que es similar a la legislación europea, la propuesta local plantearía la creación de una entidad centralizada con responsabilidad para determinar el nivel de riesgo de cada aplicación de IA. Mientras que la europea hace hincapié en la responsabilidad de desarrolladoras y empresas.

Bravo opinó que Chile podría beneficiarse con un enfoque híbrido. Algo que implicaría una entidad centralizada, pero con expertos dedicados y “remunerados adecuadamente”, que colaboren con los desarrolladores y las compañías.

“También es fundamental trabajar en una definición más clara y comprensiva de IA para que la ley pueda aplicarse de manera efectiva”, comentó.

Andrea Lobos: Balancear su desarrollo sin arriesgar seguridad

La abogada socia y fundadora de Andes IP, Andrea Lobos, dijo que hablar de regulación de la IA “está de moda” debido al potencial de esta tecnología. “Es importante tener en cuenta que su implementación conlleva nuevos riesgos y posibles consecuencias negativas tanto a nivel individual como para la sociedad en su conjunto”, comentó.

Por lo anterior, sostuvo que es necesario establecer una regulación que permita, por una parte, balancear el adecuado desarrollo científico y tecnológico sin arriesgar la infracción de derechos fundamentales ni la seguridad o comisión de delitos.

Argumentó que una IA desregulada “carece de normas que permitan responsabilizar a los desarrolladores y usuarios de estos sistemas por aquellas decisiones que puedan causar daño”.

Lobos señaló que el modelo de regulación que le parece más apropiado sería aquel que pueda establecer estándares o principios y niveles de riesgos de la IA, para avanzar hacia mecanismos de responsabilidad o rendición de cuentas y que en su diseño respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad.

El estándar, según la abogada, es el trabajo de la Ley de Inteligencia Artificial de la UE, la que calificó como una normativa “muy exhaustiva” y que probablemente se transforme en el lineamiento mundial sobre IA, como ha ido ocurriendo con la protección de datos personales.