Los gobiernos de todo el mundo se encuentran especialmente preocupados ante el vertiginoso avance de la inteligencia artificial en cada vez más sectores de la economía y nuestra vida social. Las grandes empresas están implementando soluciones basadas en IA para no quedarse atrás en la carrera por el liderazgo en el mercado. Frente a esta realidad, científicos y especialistas advierten sobre la necesidad de desacelerar el avance tecnológico y realizar una inminente regulación de la IA para evitar que esta se salga de control.
<<<Artificial recruiting: Cómo la IA transforma el reclutamiento>>>
Si bien predecir el futuro de dicha regulación es prácticamente imposible, los principales reguladores a nivel global hoy se enfrentan al desafío de establecer una arquitectura regulatoria que no sólo cumpla los objetivos de seguridad y respete la privacidad, sino que también tenga en cuenta los aspectos éticos del uso de la IA y sus posibles efectos a largo plazo. La Unión Europea, los EE.UU, China, Rusia y el Reino Unido son los principales núcleos desde donde están estableciendo una regulación de la IA.
En pleno auge del chat GPT, no son pocas las especulaciones con respecto a los límites en los usos de esta herramienta, lo que podría poner en jaque la creatividad de las personas y muchos puestos de trabajo, sin un marco regulatorio adecuado. Pero, ¿cuáles son los riesgos existentes de una inteligencia artificial desregulada y el escenario ideal de regulación para que podamos utilizarla de manera segura y que no represente una amenaza para el futuro? En este artículo, intentaremos arrojar luz sobre este tema.
El reporte del índice de la inteligencia artificial 2023, realizado por la Universidad de Stanford y publicado el 3 de abril, indica que Occidente y varios países asiáticos están desarrollando cada vez más normas regulatorias. Según el informe, de una muestra de 127 países analizados, 31 estados al menos han aprobado una ley vinculada con la IA. A nivel global, se sancionaron más de 125 normas, y 37 de estas solo fueron aprobadas en 2022, cuando el chat GPT no era de uso masivo aún.
Estados Unidos encabeza la lista del reporte con 22 normas aprobadas, seguido de Portugal y España, con 13 y 10 leyes, respectivamente. Continúan en el cuarto puesto Italia y Rusia, con 9 leyes cada una, y finalmente cierran esta lista Bélgica y Reino Unido, con 7 y 6 leyes cada uno. De este modo, los principales factores que buscan estos países para crear el marco regulatorio son los datos utilizados por las IA, la identidad y los datos de los usuarios, preguntas y respuestas con intervención de IA y el impacto ambiental de usos inadecuados.
La necesidad de regular reside en el uso indiscriminado de datos que pueden tener implicancias legales sobre los derechos de autor y la privacidad o protección de datos. En la actualidad, es tan fácil recrear una imagen bien hecha con inteligencia artificial que podría confundirse con la realizada por una persona. Sin un marco regulatorio, cualquiera puede hacerse pasar por un artista usando IA, porque tanto ha avanzado en los últimos meses que es necesario discutir sobre los límites éticos del uso de estas tecnologías.
Ahora bien, el grado de regulación de la IA no es necesariamente proporcional a sus avances en diferentes países. En este sentido, es EE.UU. quien lidera la cantidad total de inversión privada en inteligencia artificial, con 47.400 millones de dólares en 2022, superando ampliamente a China, que se encuentra en segundo lugar, con 13.400 millones de dólares, inversión que hasta la fecha solo cubre 3 leyes sobre IA desde 2016. Cabe destacar que EE.UU. también encabeza la lista de startups que utilizan IA, dejando muy atrás a la Unión Europea, Reino Unido y China juntos.
La Asociación de Auditoría y Control de Sistemas de Información recalca la necesidad de una regulación de los usos de las tecnologías más disruptivas, como la IA y el aprendizaje automático para proteger los intereses de los ciudadanos, las organizaciones y la sociedad en general.
<<<Inteligencia artificial en modelos remotos: Los desafíos en el uso>>>
Ante el acelerado avance de la inteligencia artificial mes a mes, un grupo de más de 10.000 especialistas firmó una carta abierta en la que se advertía a todos los laboratorios que desarrollan IA que frenaran el entrenamiento de los sistemas de IA más avanzados de GPT-4, al menos durante 6 meses.
El mismo comunicado fue firmado por personalidades muy influyentes del mundo, como Elon Musk, Steve Wozniak o Yuval Noah Harari, quienes aseguraron que la IA “representa un cambio profundo en la historia de la vida de la Tierra”, por lo que debe planificarse adecuadamente con los recursos necesarios para garantizar una adopción sin riesgos tanto para la seguridad de las personas como para el futuro de sus puestos de trabajo.
Sin embargo, la inteligencia artificial no está deteniendo su marcha porque genera mucha rentabilidad, y la regulación implicaría para algunos laboratorios poner palos sobre las ruedas. No así para Italia, que se ha convertido en el primer país occidental en prohibir el chat GPT. El regulador italiano de protección de datos ordenó el cese en el uso de la herramienta en el procesamiento de datos, a fin de investigar una posible violación de la seguridad en Europa.
Aun así, es bastante incesante el avance de la inteligencia artificial, tanto que desde el sector tecnológico privado también están de acuerdo en que una regulación de la IA es necesaria principalmente para mitigar los riesgos de sustitución del trabajo humano y abaratamiento masivo de los servicios, según lo expresó Pablo Méndez, gerente de cuentas de Altia.
Por su parte, la CEO y cofundadora de Mioti Tech & Business School Fabiola Pérez, sostuvo que la regulación de la IA puede generar tanto beneficios como perjuicios para las empresas, ya que si por un lado puede establecer un marco homogéneo y regulatorio, por el otro puede incrementar los costos y reducir la capacidad de innovación. También aseguró que una normativa global podría equilibrar la posición de EE.UU. China y Europa con respecto al alcance de la IA.
<<<Metaverso vs IA: ¿Cuáles serán las apuestas futuras de Meta?>>>
Ya sea que se defina un marco de regulación de la IA global o distintas regulaciones a nivel país, cada nación no deberá permanecer ajena al tema y tomar medidas para regular el desarrollo y uso de la tecnología, lo que abrirá la puerta a nuevas formas de monitoreo de la actividad empresarial y nuevas formas de asignación de recursos para obtener rentabilidad de la tecnología. Si bien todavía no podemos emitir una sentencia definitiva sobre la probabilidad de éxito de estas regulaciones, lo que sí parece evidente es el hecho de que los desafíos y controversias que se presentarán necesitarán de un estudio exhaustivo y largas reflexiones a la hora de tomar decisiones.