Principios normativos para una ética de la inteligencia artificial
Autor: Fabio Morandín Ahuerma
Morandín-Ahuerma, F. (2023). Principios normativos para una ética de la inteligencia artificial. Consejo de Ciencia y Tecnología del Estado de Puebla (CONCYTEP).
Resumen:
En el último lustro se han publicado
múltiples documentos avalados por diferentes organizaciones, pero con un solo
propósito: crear un marco de principios éticos cuya observancia garantice el
desarrollo de una inteligencia artificial (IA) en beneficio de los usuarios y,
en general, de la sociedad. Sin embargo, son tantos los principios que se han
propuesto que, muchas veces se genera confusión y, en el peor de los casos es
imposible su sistematización y aplicación, porque muchos de estos principios son
ambiguos, polisémicos, esto es que tienen varios significados e incluso algunos,
llegan a ser contradictorios.
El propósito de este trabajo es revisar
esa lista, analizarla y tratar de proponer los principios éticos fundamentales que
deberían observar los desarrolladores de software al programar algoritmos y, sobre
todo, rescatar de la ética clásica algunos elementos para facilitar la
comprensión del tema, descomponer la discusión estéril de algunos conceptos y resumirlos
en honestidad, intencionalidad y conciencia moral.
En un mundo donde la inteligencia
artificial se ha convertido en una parte integral de la vida diaria de millones
de personas, los principios y las consideraciones éticas que rodean su
desarrollo y uso nunca fueron tan importantes como lo son ahora. Basta observar
lo que está sucediendo hoy en Ucrania, en donde drones inteligentes, no
tripulados, atacan a la población civil.
Una buena definición de inteligencia
artificial redactada en 2023 por el Grupo de Trabajo Nacional de Recursos de Investigación
de IA de los Estados Unidos [NAIRR] se refiere a que IA es un sistema basado en
una máquina que puede hacer predicciones, recomendaciones o tomar decisiones
que influyan en entornos reales o virtuales, para un conjunto dado de objetivos
definidos por el ser humano. Los sistemas de inteligencia artificial utilizan
entradas basadas en máquinas y humanos para: percibir entornos reales y
virtuales; abstraer dichas percepciones en modelos mediante análisis de forma
automatizada y utilizar la inferencia de modelos para formular opciones de
información o acción.
Actualmente se tiene una explosión de
inteligencia artificial gracias a la liberación de los modelos de lenguaje como
GPT4 de Open AI y Bing Chat de Microsoft. Lo mismo los creadores de texto a
imagen como Midjourney y StableDiffusion. Otras muestras asombrosas de IA son
Glass.ia, capaz de dar un posible diagnóstico médico en segundos. De hecho, los
propios involucrados en el desarrollo de IA están pidiendo, tal vez ingenuamente,
una suspensión a su desarrollo en tanto no se conozca con certeza las consecuencias
positivas y negativas venideras. De ahí la urgencia de conocer por todos estos Principios
normativos para una ética de la inteligencia artificial, que es el título de
este libro.
Por ello, los «Veintitres Principios de
Asilomar» del Instituto del Futuro de la Vida son un conjunto de pautas
desarrolladas por expertos en el campo, quienes describen principios clave para
una IA segura y beneficiosa. Esta propuesta se une a la «Declaración de Montreal
por una IA responsable», que enfatiza la importancia del desarrollo y
despliegue de la tecnología en un marco social ético.
En Europa también ha surgido un enfoque
único de la ética de la IA, centrado en los derechos humanos y la
transparencia. Las «Directrices éticas para una IA fiable» enfatizan la
necesidad de que la IA se desarrolle de una manera que se alinee con los
valores y aspiraciones universales que protejan los derechos individuales.
A escala global, la Organización de las
Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) también ha
emitido recomendaciones sobre la ética de la IA. Esta «Recomendación sobre la
ética de la inteligencia artificial adoptada el 23 de noviembre de 2021 [SHS/BIO/REC-AIETHICS/2021]»,
enfatiza la importancia de garantizar que la IA se desarrolle de una manera que
promueva la dignidad humana, la privacidad y la diversidad.
Del mismo modo, la Organización para la
Cooperación y el Desarrollo Económicos (OCDE) ha redactado un conjunto de
principios para el desarrollo y despliegue responsable de la IA denominado
«Recomendación del Consejo de la OCDE sobre Inteligencia Artificial
[OECD-LEGAL-0449]». Estos principios enfatizan la transparencia, la rendición
de cuentas y la inclusión.
Por su parte, desde la sociedad civil,
la Asociación sobre IA en beneficio de las personas y la sociedad [Partnership
on AI - PAI] es una colaboración entre los principales actores de la
industria tecnológica, organizaciones sin fines de lucro e instituciones
académicas para garantizar que la IA se desarrolle y utilice de una manera que
beneficie a las personas y a la sociedad y ha emitido una serie de documentos [White
papers] en los que se especifica una postura ética proactiva hacia la IA.
Tampoco se deben minimizar los esfuerzos
por construir un marco ético normativo que las propias empresas que desarrollan
tecnología de punta como Google, Microsoft, Meta y Apple, entre otras, están
construyendo para beneficio y protección de sus usuarios y de sus inversores en
materia de algoritmos de inteligencia artificial, así como otras políticas
empresariales autoimpuestas.
Los países líderes en
el desarrollo de la inteligencia artificial como lo son Estados Unidos [National
AI Initiative Act of 2020 – Iniciativa Nacional de IA], China [新一代人工智能伦理规范 - Normas éticas para una nueva
generación de IA] y Rusia [Кодекс этики в сфере ИИ - Código de Ética de IA]
son solo la muestra de que también las naciones están redactando sus
respectivas políticas de Estado para el desarrollo y aplicación de una IA ética
y benéfica para uso civil.
Juntos, estos diversos principios y
recomendaciones brindan una hoja de ruta para el desarrollo y despliegue responsable
de IA, asegurando que el potencial de esta tecnología transformadora se realice
de una manera que ayude a toda la humanidad, o al menos eso es lo que esta
investigación ha arrojado.
Sin embargo, al final de esta larga
revisión de la literatura de los principios actuales, se ofrece una lectura
crítica a modo de conclusión en el capítulo «Menos, es más: Reconstruir una
ética clásica normativa para un futuro responsable de la IA».
Muchos filósofos, científicos y
pensadores han reflexionado sobre estos temas a lo largo de los años y han
contribuido al debate sobre la ética aplicada a la inteligencia artificial, por
eso el interés de explicitar aquí los fundamentos para el desarrollo de una IA
que sirva a la humanidad para cumplir sus más preciados anhelos y ponderar
cuáles podrían ser los riesgos más acuciantes que deben solventar.
Se espera que la lectura de este
trabajo sea fructífera sin importar el nivel de conocimiento que se tenga sobre
el tema. El Consejo de Ciencia y Tecnología del Estado de Puebla se ha
convertido en un divulgador nato de los avances de la ciencia, de sus ventajas
y retos, que, al mismo tiempo, son los objetivos compartidos que se persiguen
con la publicación de este trabajo de nuevo investigación.
[ Texto completo ]