¿La inteligencia artificial debe ser justa e inclusiva?

Los expertos consideran que la Inteligencia Artificial puede y debe ser también ética, justa e inclusiva, además de una potente herramienta para alcanzar muchos de los Objetivos de Desarrollo Sostenible plasmados en la Agenda 2030 de Naciones Unidas.

Científicos y tecnólogos se han embarcado en ambiciosas iniciativas para tratar de conciliar la ética y la inteligencia artificial; para poner las modernas tecnologías al servicio de la humanidad y no al contrario; y para que estas herramientas se desarrollen con criterios basados en el respeto a los derechos humanos.

La investigadora Ángeles Manjarrés, profesora en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Nacional de Educación a Distancia de España, enfoca ahora una parte importante de su tarea académica a conocer el impacto de la inteligencia artificial (IA) en la Agenda 2030 de la ONU y la contribución de esa moderna tecnología a alcanzar esos objetivos.

Las investigaciones revelan que la IA puede contribuir de una manera positiva a alcanzar el 79 por ciento de los Objetivos de Desarrollo Sostenible de la ONU, pero también actuar como «inhibidor» en el 21 por ciento restante, acentuar las deficiencias actuales y generar más desigualdades y una mayor degradación ambiental.

Para evitarlo, investigadores de diferentes disciplinas han impulsado la iniciativa «IA4Eq» (Inteligencia Artificial para la Equidad), con el fin de evitar que muchos de los riesgos asociados a las nuevas tecnologías se acentúen y magnifiquen en el caso de la inteligencia artificial.

Manjarrés ha observado que todas las revoluciones tecnológicas han demostrado a lo largo de la historia su potencial para mejorar las condiciones de vida de las personas, «pero también para generar fuertes desigualdades, pobreza y exclusión» y ha alertado de que la desigualdad a causa de la revolución digital se podría acentuar de un modo «sin precedentes» con la Inteligencia Artificial, debido al desigual acceso a sus beneficios.

En declaraciones a EFE, la investigadora ha destacado sin embargo ejemplos de cómo la Inteligencia Artificial está ayudando a cumplir los Objetivos de Desarrollo Sostenible de la ONU en condiciones de escasos recursos (como el uso de drones para la agricultura en zonas muy desfavorecidas).

La sobreexplotación de recursos y la degradación ambiental tienden a afectar más a los países con las rentas más bajas, ha observado, y aunque ha advertido por ejemplo que el «big data» requiere recursos computacionales y energéticos masivos, insiste en el papel decisivo de la Inteligencia Artificial aplicada a las soluciones de los grandes retos de la humanidad, como la pobreza, la exclusión, el cambio climático, la gestión del agua o la prevención de crisis humanitarias.

INTEGRAR LA ÉTICA EN LOS PROCESOS DE I+D

«Las aplicaciones de IA pueden incorporar valores si se integra la ética en los procesos de I+D, traduciéndose a prácticas de ingeniería y codificándose en algoritmos», ha manifestado Ángeles Manjarrés, pero a su juicio en la actualidad está «sesgada» hacia cuestiones que son relevantes para las clases acomodadas de los países con rentas altas.

La investigadora ha citado numerosos casos de éxito de la inteligencia artificial para prevenir o evaluar crisis ambientales o humanitarias, para identificar colectivos vulnerables, para planificar servicios de protección social o para dar soporte a procesos de democracia participativa.

Simón James Pickin, profesor de la Facultad de Informática de la Universidad Complutense de Madrid, ha defendido un necesario acercamiento del sector privado y el público y un papel más activo del Estado en este ámbito, además de acciones para frenar el monopolio de los «gigantes» tecnológicos.

En declaraciones a EFE, Pickin ha observado que las expectativas de los sectores con ánimo de lucro y sin ánimo de lucro son «inevitablemente distintas», pero ha asegurado que existen ya muchas experiencias que demuestran que la creación conjunta de un valor social a través de la innovación tecnológica es posible.

Precisamente la Comisión Europea ha aprobado ya una propuesta para regular la Inteligencia Artificial, y Celia Fernández Aller, abogada y profesora de la Escuela Técnica Superior de Ingeniería de Sistemas Informáticos de la Universidad Politécnica de Madrid, ha observado que se trata de la primera regulación de la IA a nivel mundial «que tiene como base los derechos humanos y valores que defiende la Unión».

Fernández Aller ha explicado a EFE que la Inteligencia Artificial plantea importantes retos en su implantación, como los sesgos, la falta de transparencia y el impacto en los derechos humanos, especialmente en la privacidad, y ha valorado por ello que la propuesta europea incluya la existencia de un organismo encargado de supervisar los cumplimientos.