¿Qué es la roboética?

Han pasado ya dos décadas desde que el investigador Gianmarco Veruggio acuñara el término “roboética”. Lo hacía en alusión a la ética de la robótica. La roboética es un campo de la ética aplicada que estudia las implicaciones positivas y negativas de la robótica. El objetivo es evitar el mal uso de los robots, así como de productos y servicios basados en la inteligencia artificial (IA) contra la Humanidad. 

“Dado que la inteligencia artificial se encuentra cada vez en más y más sectores de nuestras vidas (trabajo, educación, ocio, relaciones sociales, etc.), los efectos que los algoritmos detrás de esas aplicaciones de la IA pueden tener sobre las personas, la sociedad y el mundo entero son potencialmente mayores”, afirma Joan Casas-Roma, investigador de los Estudios de Informática, Multimedia y Comunicación de la UOC.

Robótica

Fuck the algorithm

Un ejemplo es lo ocurrido durante la pandemia de la COVID-19 en el sistema educativo británico. Utilizaron un sistema automatizado para, a través de los datos existentes de los estudiantes, predecir la nota que se estimaba habrían obtenido en un examen. El caso es que el examen no pudo celebrarse debido al confinamiento. ¿El resultado? La insatisfacción general. Bajo el eslogan “Fuck the algorithm”, los estudiantes salieron masivamente a la calle cuando se publicó la predicción del algoritmo, que resultó ser, en opinión de los propios profesores y profesoras, extremadamente inadecuada.

Como explica Joan Casas-Roma, en este caso, la decisión de delegar la predicción de la nota por completo a un sistema de IA que solo tenía en cuenta los datos de los estudiantes que había en el sistema, estuvo a punto de poner en riesgo la educación y el futuro educativo de muchos de esos estudiantes. El sistema no recabó la experiencia y el conocimiento de los docentes para hacer su predicción de nota. Debido a las protestas masivas, el gobierno británico decidió no usar esa predicción automatizada. Sin embargo, no siempre existe la posibilidad de dar marcha atrás.

La ética en la robótica

Roboética: ¿Se puede garantizar una inteligencia artificial justa?

“Lamentablemente, se pueden poner muchos ejemplos de cómo, si no se tiene en cuenta la ética, la IA puede cometer errores graves. Algunos de los casos más conocidos están relacionados con la existencia de sesgos e injusticias en técnicas de machine learning o aprendizaje automático”, señala el investigador de la UOC. Cita, además, el caso de un sistema automatizado usado en los procesos de selección de una importante compañía multinacional. Dicho sistema resultó tomar decisiones claramente desfavorables hacia las candidatas mujeres. ¿Por qué? Pues resulta que los datos usados para entrenar el sistema ya mostraban una desigualdad de género importante en posiciones similares a las que se ofertaban.

Otro caso en el que los datos elegidos para automatizar decisiones resultaron ser problemáticos es el del sistema de recomendación judicial de EE.UU. Debido al sesgo racista que había en los datos policiales acerca de crímenes y criminales, mostraba recomendaciones claramente desfavorables hacia personas afroamericanas.

Quienes tenemos que incorporar los códigos éticos somos las personas que programamos las máquinas y que tomamos decisiones con los datos que estas nos brindan“, señala Anna Clua, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC. Y añade que “las máquinas no piensan. Hacen”. Según Clua, el uso de la IA debe ser ético por definición allá donde se aplique. “Ya sea en las aplicaciones de nuestros teléfonos móviles o en los algoritmos con los que los hospitales criban las urgencias. El reconocimiento de los derechos de las personas, así como el cumplimiento de las leyes, es una condición sine qua non de la utilización de la IA desde todos los campos”, afirma.

Roboética

Lograr una IA fiable

La lista de ejemplos con efectos éticamente adversos en sistemas de IA es mucho más larga. Fue una de las razones que llevaron a la Unión Europea a publicar unas directrices éticas para una IA fiable, basada en un conjunto de principios que el diseño ético de los sistemas de IA deben respetar. Dichas directrices contaban con recomendaciones acerca de cómo integrar esos principios en el diseño de los sistemas y algoritmos.

Al hilo de lo anterior, recientemente, el Consejo de la Información de Catalunya publicaba un estudio del que también se han extraído una serie de recomendaciones para el buen uso de los algoritmos en las redacciones de los medios de comunicación. Se trata de recomendaciones en plena sintonía con el código deontológico de la profesión periodística.

No son los únicos pasos que se han dado para intentar que la roboética sea una realidad. De hecho, el campo de la IA ética se ha convertido en un área de investigación importante. Como explica Casas-Roma, entre las líneas de investigación que están centrando más esfuerzos se encuentra el tratamiento y el procesado de los datos. Lo que se pretende es evitar que un sistema de IA basado en aprendizaje automático extraiga correlaciones sesgadas e injustas. Por ejemplo, a través de datos demográficos que no están relacionados con la decisión que la IA debe tomar.

Roboética: IA explicable y agentes morales artificiales

“En esta área, los esfuerzos se dirigen a entender cómo se deben recoger, procesar y usar los datos para identificar, prevenir y mitigar la aparición de patrones basados en características que, además de ser irrelevantes desde un punto de vista causal para la decisión que debe tomarse, reproducen decisiones sesgadas e injustas hacia determinados colectivos sociales”, indica el investigador de la UOC.

Otra de las líneas que se está explorando en la investigación de la IA ética se basa en integrar formas para poder seguir, entender y valorar las decisiones tomadas por un sistema de IA. Es el campo conocido como IA explicable o explainable AI (XAI). “Busca evitar el efecto ‘caja negra’ en la que, dados unos datos de entrada concretos, un sistema de IA toma una decisión específica, pero sin que exteriormente un humano pueda entender qué proceso de razonamiento ha llevado al sistema a tomar esa decisión, y no otra diferente. En este sentido, el campo de la XAI busca acercar el razonamiento que sigue un sistema de IA a una forma de razonamiento entendible para un usuario humano”.

La ética en la inteligencia artificial

La roboética y la moralidad artificial

Además, hay otro campo que se está investigando en el área de la llamada moralidad artificial. Se trata de la posibilidad de crear agentes morales artificiales o artificial moral agents (AMAs). Estos agentes incorporarían, como parte de su código y de los procesos de razonamiento seguidos, “una forma de identificar, interpretar y valorar la dimensión moral de las decisiones que se toman para asegurarse de que dichas decisiones son éticamente aceptables”. Se trata de un reto que se enfrenta a cómo representar, computacionalmente, algo tan complejo y contextual como la ética.

“La ética, tal y como la entendemos vivida en una sociedad humana, tiene que ver con unos principios generales, pero también con las particularidades de cada caso, con los derechos humanos y el espacio y el potencial de crecimiento que toda persona debería poder tener, además de tener sus propias variaciones culturales e históricas. Antes de poder integrar un código moral general en una IA, seguramente deberíamos poder capturar y representar toda esa complejidad y contextualidad en un lenguaje tan específico como el lenguaje computacional y matemático. Y ese es, ahora mismo, un reto que tiene más de humano, que de tecnológico”, afirma Joan Casas-Roma.

¿Cómo hacer frente a este reto? Los expertos consideran imprescindible la implicación de profesionales de todos los ámbitos, ya que los datos están presentes en todos los sectores. “No sirve decir que son competencia única del campo de las ingenierías o las ciencias de datos. El buen uso de la IA compete a los cuadros profesionales de las administraciones públicas. También de las empresas privadas de cualquier ámbito, ya se use a gran escala o a pequeña escala”, afirma la profesora de la UOC. Pero, además, se necesita también la implicación de los consumidores y de la ciudadanía. “Una mayor conciencia del derecho a la información nos haría más exigentes a la hora de pedir rendición de cuentas a quien no use la IA de manera socialmente responsable”, concluye Anna Clua.

Fuente: UOC.