Explorando cuestiones éticas y dilemas relacionados con la IA generativa | NTT DATA

vi., 01 diciembre 2023

Explorando cuestiones éticas y dilemas relacionados con la IA generativa

A medida que se extiende el uso de la IA generativa (GenAI), también aumenta la preocupación por sus posibles usos indebidos. Muchas voces reclaman la adopción de marcos normativos y legislativos específicos, que fomenten el desarrollo responsable y sostenible de esta tecnología.

La Comisión Europea fue una de las primeras en actuar, publicando en 2019 sus "Directrices éticas para una IA fiable". Estas subrayan la importancia de que los sistemas de IA cumplan con la ley, se adhieran a los principios éticos y sean sólidos a nivel técnico y social. Además, en ellas se identifican siete requisitos fundamentales que describimos brevemente en este artículo.

 

Acción y supervisión humanas

El consenso general determina que cualquier sistema de IA debe capacitar a las personas, defender sus derechos y permitir la supervisión humana. Sin embargo, las IA generativas plantean retos únicos en este sentido.

Por ejemplo, pueden crear "burbujas de filtros" que limiten el acceso de los usuarios a diversas perspectivas, reduciendo la posibilidad de supervisión humana. Asimismo, pueden utilizarse para manipular la información de forma malintencionada, explotar las vulnerabilidades emocionales de las personas para influir en sus decisiones, o imitar las respuestas humanas, lo que puede causar confusión e incluso llevar a engaño.

En el contexto de las redes sociales, las capacidades de mejora de la IA generativa pueden confundir a los usuarios, haciendo que tengan una percepción distorsionada de la realidad y una sensación de presión social mayor.

Para lograr un equilibrio adecuado entre el inmenso potencial de esta tecnología y la necesidad de acción y supervisión humanas, será necesario hacer un seguimiento continuo, seguir investigando y desarrollar herramientas y políticas que promuevan la autonomía del usuario y mitiguen los posibles impactos negativos.

Solidez técnica y seguridad

La creciente sofisticación de la IA generativa plantea interrogantes sobre su seguridad y fiabilidad. Un temor recurrente es que la IA generativa contribuya a la propagación de desinformación y noticias falsas, influyendo así en la opinión pública y socavando la confianza en las instituciones. La creación de imágenes manipuladas pero convincentes de personalidades destacadas, denominadas deepfakes, es una de las mayores preocupaciones en torno a la GenAI, ya que puede utilizarse para hacer propaganda política o desacreditar a individuos y organizaciones.

Continuar investigando las vulnerabilidades de los sistemas de IA y desarrollar contramedidas sólidas ayudará a mitigar los daños potenciales provocados por las noticias falsas y los deepfakes. En este sentido, la estrecha colaboración entre gobiernos, empresas tecnológicas y expertos en ciberseguridad será crucial: solo así se puede garantizar que las cuestiones técnicas y de seguridad relacionadas con la IA generativa se aborden adecuadamente.

Gestión de la privacidad y de los datos

La GenAI se nutre de una gran cantidad de datos obtenidos en Internet, entre los que se incluye información personal y protegida por derechos de autor. Al entrenar a la IA con datos protegidos, se pueden vulnerar los derechos de autor. Además, generar contenidos con IA que se parezcan mucho a obras ya existentes plantea cuestiones relacionadas con la originalidad y propiedad intelectual.

El desarrollo ético de la IA generativa debe basarse en prácticas claras de gobernanza de datos y en políticas estrictas de recogida, almacenamiento y uso de datos. Además, abordar las ambigüedades legales que existen en torno a la autoría y la propiedad intelectual de los contenidos generados por la IA será esencial para fomentar un marco normativo justo.

Transparencia

Los modelos de IA generativa se suelen percibir como "cajas negras", carentes de transparencia en sus procesos de toma de decisiones. Esta opacidad plantea problemas de equidad, responsabilidad y fiabilidad, ya que puede ser difícil para los usuarios e incluso para los desarrolladores entender cómo llegan estos modelos a sus conclusiones.

Para hacer más transparente el funcionamiento interno de estas "cajas negras", será necesario desarrollar métodos que permitan interpretar y explicar los resultados de los modelos de GenAI. Algunos de ellos pueden ser visualizar el funcionamiento interno del modelo, analizar sus representaciones aprendidas y cotejar sus resultados con datos del mundo real.

Diversidad, no discriminación y equidad

Un tema especialmente controvertido que ha surgido con el uso de la IA generativa es el de la calidad y diversidad de los datos con los que se entrena. Se han dado casos de modelos de GenAI que trabajan con datos o imágenes personales que refuerzan estereotipos sexuales y raciales o subrepresentan a ciertos colectivos.

Hacer frente a estos sesgos requiere un diseño cuidadoso, una evaluación continua y una selección responsable de los datos de entrenamiento.

Inevitablemente, habrá agentes malintencionados que utilicen la IA generativa para generar contenidos ofensivos, como imágenes y textos discriminatorios o violentos, pornografía falsa y propaganda terrorista. Recientemente, la propagación por redes de una imagen falsa que mostraba una gran explosión cerca del Pentágono, probablemente generada con IA, afectó momentáneamente a los mercados financieros.

Garantizar la diversidad, la no discriminación y la equidad en el uso esta tecnología no es solamente un imperativo ético, sino que también resulta crucial para construir sistemas de IA inclusivos y equitativos.

Bienestar social y ambiental

Dado el entusiasmo y, a menudo, el asombro que genera la IA generativa, es fácil pasar por alto algunas de las consecuencias menos agradables de la rápida adopción de esta tecnología para el medioambiente y la sociedad en su conjunto.

Los sistemas de IA generativa requieren de importantes recursos informáticos y se calcula que una petición a ChatGPT consume entre 3 y 30 veces más electricidad que una búsqueda tradicional en Google. Por tanto, si no queremos que esta tecnología agrave la crisis climática, el crecimiento de esta tecnología deberá ir acompañado del uso de fuentes de energía renovables en los centros de datos que albergan este tipo de aplicaciones.

Otra cuestión que puede llegar a afectar a cualquier persona es la de los cambios que la IA generativa provocará en el mercado profesional. Durante años, los economistas han debatido sobre el impacto que los robots y la IA tendrán en los distintos puestos de trabajo, especialmente en aquellos que implican tareas repetitivas y poco cualificadas, que son más fáciles de automatizar. Ahora, con el crecimiento de este tipo de tecnologías, un abanico mucho más amplio de puestos está potencialmente en riesgo, entre ellos los trabajadores administrativos, los creadores de contenido, los programadores, los representantes de ventas y atención al cliente, etc.

Para hacer frente a estas implicaciones éticas es necesario un enfoque multidisciplinar, que incluya esfuerzos para reducir la huella energética de los sistemas de IA e iniciativas para formar y actualizar las capacidades de los trabajadores ante el nuevo escenario laboral.

Rendición de cuentas

La progresiva implantación de la IA generativa ha puesto de manifiesto la necesidad de una normativa más amplia y precisa, que aborde la rendición de cuentas.

En ocasiones, los algoritmos estocásticos que alimentan los sistemas de GenAI crean "alucinaciones" que no tienen sentido o cuya veracidad no puede probarse. Un caso reciente fue el de un equipo de abogados de Estados Unidos que no se dio cuenta de que ChatGPT se había inventado unas declaraciones que presentaron en un tribunal.

Integrar la supervisión humana en los sistemas de IA generativa será esencial no solo para detectar falsedades, sino también para garantizar una toma de decisiones ética, reducir posibles sesgos y poner en duda todo aquello que carezca de sentido.

¿Quieres conocer más sobre este tema? Descarga el aquí el whitepaper sobre cuestiones éticas de la IA Generativa