Desafíos regulatorios para la GenAI: la perspectiva legal | NTT DATA

vi., 15 diciembre 2023

Desafíos regulatorios para la GenAI: la perspectiva legal

En el campo emergente del gobierno de la IA, la Unión Europea ha dado un paso importante al proponer la Ley de IA, un futuro marco legislativo global diseñado para regular los sistemas de IA.

Esta ley clasifica los sistemas de IA en cuatro categorías en función de los riesgos de su uso: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo bajo (o mínimo). Así, esta normativa pretende lograr un equilibrio entre el fomento de la innovación y la protección de los derechos fundamentales, la salud, la seguridad, el medioambiente, la democracia y el Estado de derecho.

La Ley de IA plantea importantes cuestiones sobre la regulación de la IA generativa (GenAI), un área en plena evolución que engloba sistemas como ChatGPT y los grandes modelos de lenguaje (LLM). En este artículo, profundizamos en las implicaciones de la Ley de IA en el terreno de la IA generativa y exploramos varias propuestas para regular esta tecnología transformadora.

La intersección entre la IA generativa y la Ley de IA

La legislación propuesta se basa en gran medida en leyes vigentes de la UE, como el Reglamento General de Protección de Datos (RGPD) y la Ley de Servicios Digitales, y exige que se tomen las medidas necesarias para evitar que los LLM que están detrás de la GenAI generen contenido que infrinja estas leyes.

El documento reconoce que los denominados modelos de base, como el GPT-4 de OpenAI que utiliza ChatGPT, requieren una atención especial porque son capaces de ejecutar una gran variedad de tareas generales, por lo que cualquier error o sesgo en el modelo puede afectar potencialmente a un gran número de aplicaciones construidas sobre ellos.

En consecuencia, los proveedores de sistemas GenAI estarán sujetos a requisitos de transparencia adicionales, entre los que se incluyen:

  • Revelar qué contenido se ha generado con IA: los proveedores deben informar a los usuarios de si el contenido que les proporcionan está generado por IA. Una comunicación clara es crucial, sobre todo cuando la IA interactúa con personas físicas.
  • Diseño responsable: los proveedores tienen la responsabilidad de implementar medidas de protección durante el diseño y el entrenamiento de sus modelos que impidan la generación de contenidos ilegales o nocivos. Esto se extiende al respeto de los derechos fundamentales, incluida la libertad de expresión.
  • Transparencia de los datos: los proveedores deben publicar resúmenes de los datos que utilizan para entrenar estos modelos y que pueden estar protegidos por las leyes de propiedad intelectual.

Es importante aclarar que estos requisitos no clasifican los modelos fundacionales como sistemas de IA de alto riesgo, sino que pretenden alinear la IA generativa con los objetivos más generales de la Ley de IA: la protección de los derechos fundamentales, la salud, la seguridad, el medioambiente, la democracia y el Estado de derecho. También debemos destacar que esta propuesta de ley está aún en proceso de evaluación y se espera su aprobación a principios de 2024.

La regulación de la IA generativa por medio de la Ley de IA supone un avance decisivo hacia el uso responsable de esta tecnología. Aunque constituye un precedente prometedor, aún queda mucho trabajo por hacer. Elaborar una normativa clara y adaptable, que contemple la naturaleza versátil de esta tecnología es fundamental. Además, esta conversación se extiende más allá de las fronteras europeas, ya que el todo el planeta se enfrenta al complejo reto que supone regular la IA generativa y, al mismo tiempo, fomentar la innovación y salvaguardar los intereses de la sociedad.

Otros enfoques para regular la IA generativa

Otras regiones y países externos a la UE están elaborando sus propias normativas para regular el uso de IA. No obstante, la redacción de nuevas leyes suele ser un proceso lento, y muchos legisladores pueden tener dificultades para comprender todo el potencial de la IA generativa y seguir el ritmo de sus avances.

Por esa razón, se han propuesto muchos otros enfoques para abordar los retos éticos, legales y sociales que plantea esta tecnología. Estas son algunas de las principales estrategias y propuestas:

  • Las empresas tecnológicas y los desarrolladores de IA están trabajando en la elaboración de directrices voluntarias y buenas prácticas que rijan el desarrollo y la implantación de la IA generativa No obstante, aunque la autorregulación de la industria puede ser rápida y flexible, existen dudas sobre su eficacia y su posible parcialidad.
  • Algunas organizaciones e instituciones promueven marcos éticos para el uso de la IA. Por ejemplo, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, por sus siglas en inglés) ha desarrollado una Iniciativa Global sobre Ética de los Sistemas Autónomos e Inteligentes que incluye directrices para una IA ética.
  • También se llevan a cabo evaluaciones del impacto de la IA, que pretenden estudiar las posibles consecuencias sociales, económicas y éticas del desarrollo de sistemas IA generativa, ayudando así a los responsables políticos a tomar decisiones fundamentadas.
  • Algunas normativas se centran en una sólida gobernanza de los datos, para garantizar que la información utilizada en el entrenamiento de la IA sea representativa, diversa y de origen ético. Las leyes de protección de datos más estrictas, como el RGPD en Europa, ya intervienen en este ámbito.
  • Algunas iniciativas abogan por la participación ciudadana en el proceso de toma de decisiones sobre la regulación de la IA generativa. Las consultas y aportaciones públicas pueden ayudar a garantizar que los sistemas de IA se ajusten a los valores y necesidades de la sociedad.
  • Organizaciones internacionales como las Naciones Unidas, a través de su Consejo Asesor de Alto Nivel sobre IA, están explorando distintas vías para crear normas y acuerdos globales en torno al uso, la ética y la regulación de la GenAI.
  • Establecer comités independientes de ética de la IA u organismos de supervisión podría ayudar a controlar y aplicar mejor la normativa sobre inteligencia artificial, garantizando que los sistemas IA generativa se ajusten a los principios éticos y la legalidad.
  • Se han propuesto mecanismos obligatorios de información sobre el alcance de la IA, según los cuales las organizaciones deberían presentar informes periódicos sobre el impacto social de sus sistemas IA generativa Esta información podría utilizarse para la rendición de cuentas y la regulación.

Conforme avanza, la IA generativa va influyendo en cada vez más aspectos de nuestras vidas. Encontrar el equilibrio adecuado entre innovación y control es una tarea dinámica y en continua evolución, que definirá el futuro de la IA para las generaciones venideras.

¿Quieres saber más sobre este tema? Descarga aquí nuestro whitepaper Consideraciones éticas de la IA generativa