La responsabilidad de la inteligencia artificial

Existe un denso debate acerca de los ejes sobre los que debe avanzar la inteligencia artificial. ¿Qué es lo más importante? ¿La dimensión ética o jurídica? ¿De quién será la responsabilidad por un error grave cometido por una inteligencia artificial? Entre las compañías con proyectos en la materia destacan Facebook, Amazon y Google.

¿Quiénes deben liderar el proceso que escribirá las reglas definitivas de la inteligencia artificial? Es una discusión que ha visto cómo voces expertas alertan del peligro de que la industria tecnológica (como los gigantes de Internet) tenga el peso definitivo al resolver los equilibrios entre ciencia y moralidad durante la proyección de una conducta de origen artificial. Esta es una de las cuestiones exploradas, entre otros, por Yochai Benkler (Universidad de Harvard) en su artículo "No permitan que la industria escriba las reglas para la Inteligencia Artificial".

Y es que el centro de estas investigaciones, que tanto preocupan a las ciencias sociales, parece ponerse en lo ético, restando otros aspectos de importancia. Sin embargo, si hemos de proveer a una inteligencia emergente, no completamente soberana, de unas bases cuasi-humanas para el gobierno de su conducta digital, sin duda, éstas deben ser aportadas por las ciencias jurídicas. En las sociedades humanas, es el Derecho quien aporta los instrumentos para trazar la línea entre un comportamiento aceptable y otro inaceptable, sin el peligroso océano de las posibles interpretaciones que pueden abrirse ante una valoración supuestamente “ética”. Es decir, son las Leyes (con mayúscula) las que nos liberan parcialmente de la lectura subjetiva sobre una conducta; y es en ellas donde se condensa la memoria y la experiencia colectiva.

Un desarrollo de la inteligencia artificial de base ética no parece poder asegurarnos que la cuestión de la responsabilidad es concordante con las normativas legales. Pero, al parecer, esta opinión no es muy compartida por gran parte de la industria implicada. Los grandes esfuerzos en la materia ubican el acento en aspectos éticos. Amazon, por ejemplo, invirtió más de siete millones de dólares en una convocatoria reciente de la Fundación Nacional para la Ciencia de EE.UU. sobre IA y ética. También Facebook destinó más de siete millones de dólares, en un Centro de Ética e Inteligencia Artificial (Universidad de Munich).

¿Cuál es uno de los problemas centrales de estas investigaciones? Por una parte, la complejidad de los algoritmos que permitirían el desarrollo de la inteligencia artificial con base ética “incorporarían” parte de los procesos “subjetivos” que generan lo que entendemos por sesgo social. En efecto, el filtrado o clasificación de un cúmulo de información puede contener o estar orientado por un sesgo social de origen cultural, algo que no sería muy detectable. Esta clase de filtrado, en una inteligencia artificial implantada en un proceso productivo, en un sistema de servicios o en algún ámbito de la Administración, puede terminar apartando a individuos bajo premisas algo confusas. Por ejemplo, puede favorecer a hombres sobre mujeres o apartar personas con minusvalías del uso de ciertos servicios o cadenas de producción. Puede priorizar a candidatos jóvenes y fuertes sobre otros con más edad.

La razón por la que esa inteligencia artificial puede hacer estas cosas tiene que ver, en efecto, con lo ético. ¿De dónde pensamos que proviene lo que consideramos ético? De ningún otro lado que de la pauta detectada en el comportamiento cultural (que, además, puede leerse en clave estadística). De ahí que esa inteligencia artificial de base ética sea propensa a cometer errores, ésta debe alimentar un comportamiento ético que no tiene otra fuente que el comportamiento humano, que tiene a violar sus propias máximas éticas.

Ver, a modo de ejemplo, el siguiente artículo: Amazon despide por machista a la inteligencia artificial que seleccionaba currículums para trabajar en la empresa.

¿Qué puede garantizarnos que una inteligencia artificial de base ética muy avanzada no tenga el comportamiento tiránico e irresponsable que podemos observar en múltiples facetas de las sociedades humanas? Si ésta intenta superar la eficiencia humana mediante conclusiones que ha construido en base a las pautas y patrones encontrados en el comportamiento humano, no podemos estar seguros de que la ejecución de su algoritmo pueda mejorar el impacto moral de nuestra intervención. Y no debe olvidarse que hablamos de industrias privadas, no de interés público.

Naturalmente, también es un campo con gran participación de las Administraciones, donde existe interés en el desarrollo e implementación de algoritmos que ayuden a mejorar la gestión de los servicios sociales. La preocupación es, por ejemplo, la sostenibilidad de los sistemas sanitarios o de pensiones.

Al respecto, debe recordarse que en España existe un “Libro Blanco sobre IA” (aún sin publicar), creado por el llamado “Grupo de Sabios sobre Inteligencia Artificial y Big Data” (2017); este proyecto abordó, al parecer, cuestiones relativas a ética y responsabilidad jurídica. Entre tanto, países como Australia, Reino Unido y Alemania ya están estructurando sistemas que establecen responsabilidades jurídicas derivadas de errores cometidos por el uso de inteligencias artificiales.