Los cuatro retos éticos de la inteligencia artificial

En los próximos años, el mercado de la inteligencia artificial superará los 52.000 millones de euros

En sectores como el industrial, el de transportes, de la salud o las finanzas, la presencia de la inteligencia artificial crecerá a un ritmo muy ágil en los próximos años. Así lo concluye la empresa de robótica colaborativa y estructuras inteligentes Airtificial, que calcula que en 2025 el mercado de la inteligencia artificial (IA) alcanzará los 52.700 millones de euros, 9 veces más de lo que se invierte hoy en este sector, donde se mueven casi 6.000 millones de euros. Ese aumento progresivo del uso de la inteligencia artificial ha llevado a la Comisión Europea a reunir a 52 expertos independientes para debatir unas directrices éticas que habrá que seguir en el desarrollo y el uso de la inteligencia artificial.

Y es que esta nueva forma de conocimiento puede presentar conflictos a los que los expertos creen que la sociedad debe anticiparse. «Todo descubrimiento, nueva creación o nueva capacidad que desarrollamos para generar un nuevo poder o una nueva posibilidad de hacer las cosas conllevan la pregunta de quién hará uso de ellos y qué dirección les queremos dar, porque todo puede utilizarse para generar bienestar o para destruir», explica Miquel Seguró Mendlewicz, profesor colaborador de los Estudios de Artes y Humanidades de la UOC.

Por ello se considera necesaria una reflexión ética sobre la inteligencia que se plantee preguntas como «qué es la inteligencia, qué es artificial, quién hace este artificio, por qué, para qué, si el objetivo es generar más justicia social y más bienestar o generar una competencia neocapitalista para ver quién se desarrolla mejor por medio de las capacidades que esta inteligencia pueda ofrecer, si es para el bien público y, por tanto, quedará en manos del estado o no… La ética de la inteligencia artificial se queda, más que en la respuesta, en la pregunta. Desde la filosofía tenemos que ensanchar el espacio de la pregunta», señala el profesor experto en filosofía política y ética, quien cree que los principales retos para la ética de la inteligencia artificial pueden resumirse en cuatro:

  1. La inteligencia artificial no es neutral, responde a unos intereses y a unos usos, y son estos los que hay que definir para concretar en qué dirección van.
  2. Detrás de cualquier tipo de artificio que se genere existe la responsabilidad humana, y, por tanto, también detrás de la idea de inteligencia artificial, esa responsabilidad no es ineludible.
  3. La idea de inteligencia, por un poso positivista y neopositivista, se ha reducido coloquialmente a la capacidad de cálculo, de racionalizar, de llevar a cabo operaciones de precisión, y se ha dejado fuera de esta noción otras posibilidades que tienen que ver más con las humanidades, el arte, etc. Pero inteligencias hay muchas: habría que definir qué tipo de inteligencias queremos generar.
  4. Es necesario concretar el uso político que se va a hacer de esta inteligencia y quién va a vigilar que se use de manera equitativa.

Controlar lo incontrolable

La atracción que el desarrollo de la inteligencia artificial ejerce en la sociedad ha llevado a los expertos a preguntarse qué es lo que nos resulta tan fascinante de ella. Y la respuesta parece apuntar al anhelo de control. Como explica Miquel Seguró, existe la ilusión de que por medio de la inteligencia artificial «tendremos un mayor control de nuestras vidas y de los problemas que nuestras vidas incluyen. Pero eso es solo una cara de la experiencia, porque hay abrazos, sonrisas, silencios… que no hay manera de programar ni de predecir, ya que dependen del contexto y de unas habilidades que no son meramente cuantitativas, sino que exigen un desarrollo personal, una audacia personal y asumir la capacidad de errar», señala.

De hecho, el control total no parece posible. La inteligencia artificial usa algoritmos para extraer conclusiones y tomar decisiones. Y todo ese proceso usa datos que, en ocasiones, pueden ser discriminatorios. Fue lo ocurrido con el algoritmo Compas, creado para ayudar a los jueces de Estados Unidos a decidir sobre la libertad provisional. Tras las primeras pruebas se concluyó que se trataba de un algoritmo racista porque usaba datos de departamentos policiales donde la mayoría de los detenidos eran negros, por lo que el algoritmo estableció que el riesgo de ser criminal era mayor entre esas personas.

Un colectivo con muchas probabilidades de ser discriminado en los programas de inteligencia artificial es el de los mayores, que corren el riesgo de ser invisibilizados. Como explican las investigadoras de la UOC Andrea Rosales y Mireia Fernández Ardèvol, expertas en personas mayores y TIC, los sistemas de inteligencia artificial utilizados para recoger y analizar datos se olvidan con frecuencia de este colectivo. «Cuando se investigan los usos de los espacios públicos de una ciudad, se analizan los datos de los móviles que tienen el wifi encendido: desde el tiempo que las personas emplean en cruzar una calle por un semáforo hasta el tiempo que necesitan para subir las escaleras del metro. Pero en el análisis de estos estudios no se tienen en cuenta minorías que o bien no tienen wifi en el móvil o bien, si lo tienen, lo llevan siempre apagado», señalan como ejemplo de las posibles discriminaciones que pueden cometerse en el uso de la inteligencia artificial.