En los últimos años la inteligencia artificial (IA) ha sido respaldada como la base técnica de la innovación, muy diferente a cualquier otra tecnología que la humanidad haya desarrollado. Se prevé que su impacto social y económico sea mayor que el de los combustibles fósiles y se despliegue más rápido que el internet. Las representaciones sensacionalistas de la IA han venido acompañadas de un determinismo tecnológico que distrae la atención de las consecuencias, a veces sin pretensiones, de la interacción humana con sus aplicaciones emergentes.
El 23 de noviembre de 2021 durante la 41a Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), los 193 estados miembros adoptaron el instrumento normativo “Recomendación sobre la ética de la inteligencia artificial”, primer acuerdo histórico que define los valores y principios comunes necesarios para garantizar el desarrollo saludable de la IA a nivel global. Sin embargo, la UNESCO advierte que la IA “está trayendo desafíos sin precedentes”. Por esta razón vemos un aumento exponencial de los prejuicios étnicos y de género, amenazas significativas a la privacidad y la dignidad, los peligros de la vigilancia masiva y un mayor uso de tecnologías poco confiables en la aplicación de las leyes, para nombrar unos pocos.
La IA no es el tipo de tecnología que podemos desarrollar y esperar a ver sus resultados antes de regularlos. Eso sería como diseñar genéticamente un nuevo coronavirus y liberarlo en la naturaleza antes de saber si infecta a las personas. La IA debe ser rigurosamente diseñada y desarrollada para ser regulada de manera responsable utilizando un marco ontológico novedoso. Por tal razón, muchos investigadores, líderes empresariales y académicos de IA firmaron una carta abierta en marzo de 2023 pidiendo que “todos los laboratorios de IA pausaran inmediatamente durante al menos 6 meses el entrenamiento de sistemas más potentes que el multimodal GPT- 4”, con el fin de “desarrollar e implementar un conjunto de protocolos de seguridad compartidos para el diseño avanzado de IA rigurosamente auditadas y supervisadas por expertos externos independientes”.
El investigador de IA y escritor sobre teoría y ética de la decisión Eliezer S. Yudkowsky, argumentó que los nuevos riesgos que plantea la IA sin restricciones son tan altos que los países deberían estar dispuestos a utilizar la acción militar para hacer cumplir la moratoria de pausar su progreso. Si bien es poco probable que eso suceda, el desafío ético que enfrenta la humanidad es que el ritmo del desarrollo de la IA es significativamente más rápido que el ritmo al que podemos deliberar y resolver sus problemas éticos.
En el centro de la ética está la noción de que debemos asumir la responsabilidad de cómo nuestras acciones impactan en el mundo y debemos dirigirlas de manera que sean beneficiosas en lugar de dañinas. Del mismo modo, si los desarrolladores de IA desean ser recompensados por el impacto positivo que está teniendo, por ejemplo, las ganancias del aumento de la productividad que brindan estas tecnologías entonces deben aceptar la responsabilidad de sus impactos negativos. Por eso debe de ser de su interés (y del nuestro) que coloquen la ética en el centro de su desarrollo.
La IA está permitiendo que las tecnologías digitales ejecuten tareas cognitivas con una interacción humana mínima o nula, desafiando el statu quo de las empresas al prometer nuevas propuestas de valor y flujos de ingresos (digitales) mejorados, obligándonos a lidiar con las tensiones entre el avance tecnológico y social por un lado y las mismas tecnologías, e introduciendo dilemas éticos por otro lado. Un marco ético debe guiar el progreso de cualquier tipo de tecnología para garantizar que cumpla con los estándares esenciales. Este marco debe ser utilizado por quienes desarrollan IA, por los gobiernos que guían su regulación y por el público en general como punto de referencia para evaluar si se ajusta a los estándares de inteligibilidad, responsabilidad, equidad y autonomía (bajo el dominio cognitivo), privacidad (bajo el dominio de la información) y seguridad (bajo el dominio físico).
Muchos filósofos consideran que una persona puede tener una obligación solo en la medida en que es capaz de cumplirla, un principio generalmente denominado “deber implica poder”, atribuido a Immanuel Kant. Podría decirse que este principio refleja algo básico sobre el concepto ordinario de “deber”. Si tenemos evidencia razonable de que una tecnología de IA en particular presenta un riesgo inaceptable, entonces debemos detener su desarrollo, o al menos retrasarlo hasta que estemos seguros de que podemos reducir o gestionar sus riesgos. Tenemos precedentes en este sentido; existen prohibiciones en torno a varias tecnologías, como la ingeniería genética humana o las armas biológicas, debido a que representan un riesgo inaceptable o violentan valores éticos.
La mayoría de las personas estamos de acuerdo en que debemos respetar el valor intrínseco del ser humano y la naturaleza, y no reducirlos a meros “objetos” para ser utilizados en beneficio de los demás. Este es el principio ético de no instrumentalización. Los desarrolladores de IA deben tener en cuenta cómo sus tecnologías pueden apropiarse del trabajo humano sin ofrecer una compensación, como se ha destacado con algunos generadores de imágenes de IA que están sustituyendo el trabajo de artistas en ejercicio. Esto significa que se debe reconocer que las pérdidas de empleo causadas por la IA tienen más que un impacto económico y pueden dañar el sentido de significado y propósito que las personas obtienen de sus trabajos. Si los beneficios de la IA se obtienen a costa de las “cosas” con valor intrínseco, entonces tenemos buenas razones para cambiar la forma en que opera o retrase su implementación.
La IA debería dar a las personas más libertad, no menos. Debe estar diseñada para operar de manera transparente, de manera que las personas puedan entender cómo funciona, cómo los afectaría y luego tomar buenas decisiones basada en el conocimiento de sus implicaciones. Dado el riesgo de que la IA pueda dejar sin trabajo a millones de personas, reduciendo los ingresos y desempoderándolos mientras genera ganancias sin precedentes para las empresas de tecnología, esas empresas deberían estar dispuestas a permitir que los gobiernos redistribuyan esa nueva riqueza de manera justa. Y si existe la posibilidad de que AI pueda usar su propia agencia y poder para impugnar los nuestros, debemos retrasar su desarrollo hasta que podamos asegurarnos de que los seres humanos no veamos disminuido nuestro poder de autodeterminación.
Existen pocas tecnologías, si es que hay alguna, que ofrezcan beneficios puros sin costo. La sociedad ha demostrado estar dispuesta a adoptar avances tecnológicos que brinden un beneficio neto siempre que se reconozcan y mitiguen sus costos. Un caso de estudio es la industria de los combustibles fósiles. La energía generada por los combustibles fósiles ha transformado la sociedad y mejorado las condiciones de vida de miles de millones de personas en todo el mundo. Sin embargo, una vez que el público se dio cuenta del costo que las emisiones de carbono imponen al mundo a través del cambio climático, exigió que se redujeran las emisiones para llevar la tecnología a un punto de beneficio neto a largo plazo. De manera similar, es probable que la IA ofrezca enormes beneficios, y las personas podrían estar dispuestas a incurrir en altos costos si los beneficios son aún mayores. Pero esto no significa que los desarrolladores de IA puedan ignorar los costos ni evitar asumir la responsabilidad por ellos. Un enfoque ético significa hacer todo lo posible para reducir los costos antes de que sucedan y mitigarlos cuando sucedan, por ejemplo, trabajando con los gobiernos para garantizar que existan suficientes salvaguardas tecnológicas contra el uso indebido y redes de seguridad social en caso de que aumenten los costos.
La mayoría de las tecnologías de IA se han entrenado con datos creados por humanos y han absorbido los muchos sesgos integrados en esos datos. Esto ha resultado en que AI actúe de manera que discrimine negativamente a las personas de color o con discapacidades. También existe una disparidad global significativa entre su acceso y los beneficios que ofrece. Estos son casos en los que la IA no ha superado la prueba de imparcialidad y no aplica el principio de justicia. Los desarrolladores de IA deben tener en cuenta cómo sus tecnologías pueden actuar de manera injusta y cómo los costos y beneficios pueden distribuirse injustamente. La diversidad y la inclusión deben incorporarse a la IA desde el nivel básico a través de datos y métodos de capacitación. Dados los beneficios potenciales de la IA, debe estar disponible para todos, incluidos aquellos que pueden tener mayores barreras de acceso, como las personas con discapacidades, las personas mayores o las personas que viven en desventaja o en la pobreza. La IA tiene el potencial de mejorar drásticamente la vida de las personas en cada una de estas categorías, si se les hace accesible, por lo que es primordial vincular estos principios éticos a derechos humanos específicos para limitar la ambigüedad regulatoria de la IA con fines de establecer una responsabilidad moral y legal centrada en el ser humano para el bien común.
“Propósito” significa estar dirigido hacia alguna meta o resolver algún problema. Y ese problema debe ser algo más que obtener ganancias. Muchas tecnologías de IA tienen amplias aplicaciones y muchos de sus usos aún no se han descubierto. Pero esto no significa que la IA deba desarrollarse sin un objetivo claro y simplemente lanzarse al mundo para ver qué sucede. El propósito debe ser fundamental para el desarrollo de una IA ética, de modo que la tecnología se desarrolle deliberadamente teniendo en cuenta el beneficio humano. Diseñar con propósito requiere honestidad y transparencia en todas las etapas, lo que permite a las personas evaluar si el propósito vale la pena y se logra éticamente.
Deberíamos seguir presionando para que la IA se desarrolle de forma más ética. Y si las empresas de tecnología son reacias a prestar mucha atención a la ética, entonces deberíamos continuar el llamado a nuestros gobiernos para que les impongan regulaciones más sensatas. El objetivo no es obstaculizar la IA, sino garantizar que funcione según lo previsto y que los beneficios lleguen al mayor número posible de personas. La IA podría marcar el comienzo de una cuarta revolución industrial. Nos convendría hacer que esta sea aún más beneficiosa y menos perturbadora que las tres anteriores.
Doctor en Medicina.
Máster en Bioética por la Universidad Católica San Antonio de Murcia, España.