Realmente la forma en que los humanos afrontamos los cambios tecnológicos es sorprendente. Lejos de asustarnos ante lo que para muchos son los grandes peligros asociados a la tecnología, seguimos usando los nuevos dispositivos, servicios, recursos y aplicaciones sin ningún vértigo aparente. Sin ninguna reflexión ética o filosófica que condicione nuestra relación con la tecnología.

Los escenarios recreados en la ciencia ficción de los 60 fueron el primer acercamiento a una nueva realidad digital, tenían que sentar las bases de entorno en el que los valores éticos eran cuestionados por las nuevas máquinas, y demandaban un nuevo planteamiento social. W.Gibson dibujó en nuestra imaginación un conjunto de nuevos términos, observaciones y puntos de vista sobre el potencial de la tecnología; planteó parte de los ejes sobre los que tejer la reflexión contemporánea: los sensores, las redes neuronales, la relación entre humanos y ciborgs, la relación siempre difícil entre naturaleza y artificialidad, etc. Asimov había planteado, anteriormente, la necesidad de trabajar en una ética robótica, aquella que no pretende ser una atribución de existencia moral a los robots, sino que -por el contrario- plantea como debemos enfocar los humanos nuestra relación con ellos, cuan lejos podemos llegar dotándoles de autonomía y, en el caso de que esto sea posible, como debemos gestionar su inteligencia artificial completa.

No hemos escuchado a ninguno de los autores de la ciencia ficción y sus planteamientos éticos, aunque fueran sin querer, y estamos dejando de lado el tan necesario análisis de la biotecnología, la nanotecnología, la robótica avanzada, etc.

Asimov Planteaba:

1.Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

J.Campbell | I.Asimov 1940

robots cuerpo1

Estas normas éticas, que todos deberíamos asumir como incuestionables, son infringidas diariamente con los nuevos descubrimientos tecnológicos en el campo de la robótica.

¿Qué hacen los drones que los americanos (entre otros) usan, cada vez más a menudo, para eliminar objetivos de guerra?
¿y el sistema de gestión remoto de maquinaria bélica en general?
O el envió de aviones espía para recolectar información sobre el enemigo y ser más efectivo en la lucha?

Estos son solo algunos de los ejemplos del uso que se hace de los robots y la tecnología con fines destructivos y de estrategia militar.

Y, no nos engañemos, parece lógico que un ministro de defensa prefiera arriesgar sus máquinas a sus soldados, que prefiera poner en juego dinero que vidas humanas, hasta aquí estamos de acuerdo. Pero que pasa cuando el uso de estos robots para fines bélicos no pasa por la defensa de un estado, los derechos humanos o la justicia universal? Cuando estos son usados como herramientas puestas al servicio de los intereses geopolíticos y económicos de los estados poderosos?

Aquí deberíamos plantarnos y asumir que, de no plantear una reflexión ética seria (y vinculante) sobre el uso de la tecnología autónoma, nos enfrentamos a un cambio de paradigma (esta vez sí) que dibujará un entorno social de control y anulación total de la privacidad, con una delegación progresiva del poder político y ejecutivo en los robots.

Ahora mismo parece alarmista plantear un entorno tecnológico en el que las máquinas tomen decisiones con impacto social de forma autónoma, pero la evolución del machine learning, y los avances de la AI y la robótica en general, demandan de una atención intensa por parte de las humanidades para proteger el entorno social.

Probablemente, uno de los motivos de la poca atención a la reflexión ética en tecnología pasa por el hecho que no hemos visto realizados los entornos tecnológicos que la ciencia ficción planteaba hace algunas décadas, no en su forma física y gráfica, al contrario, la tecnología se ha extendido en nuestras vidas de forma brutal, radical, transformadora, pero con un disfraz mucho más discreto de lo que cabía pensar.

No tenemos coches que vuelen, nuestras carreteras siguen a ras de suelo y nuestros robots de limpieza no tienen ni forma humana (de momento) ni una mínima capacidad de pensar, solo reproducen patrones (en algunos casos con un leve aprendizaje funcional). Esto provoca que nuestra percepción de la digitalización de nuestra existencia, en un sentido amplio y abierto, diste mucho de la que nos planteaban las novelas de Gibson, Asimov o Clarke. No vivimos la inclusión de la tecnología en nuestra rutina como algo que implique en sí un cambio ético, existencial o filosófico, simplemente nos dejamos llevar; asumimos los nuevos dispositivos y las nuevas tecnologías como un avance más de la ciencia, como un paso más en la mejora de nuestra rutina/existencia a nivel práctico, de comunicación o de creación de conocimiento, pero no percibimos, en ningún momento, que la tecnología pueda poner en entredicho los ejes principales con los que justificamos, definimos y estructuramos el entorno social y la humanidad en si misma.

No quiero decir con esto que no se hayan generado debates éticos al entorno de Internet, la privacidad en la red o los derechos de los usuarios, pero todos ellos son debates cojos, a posteriori, alejados de la realidad, parciales e interesados y sin ni una pizca de perspectiva global.

robots cuerpo2

Hay un debate filosófico más allá del poder de los terms and conditions y de la preservación de la identidad o los datos personales, un debate que debe plantearse (virtualmente) previo al uso de la tecnología. Un debate que debe analizar como cambia nuestra experiencia vital cuando la tecnología nos permite hacer, pensar o procesar cosas que antes no nos eran posibles; cuando aumentan de forma considerable nuestras capacidades en múltiples sentidos, cuando se nos brindan herramientas para solucionar muchos de los problemas que tenemos como especie, a la vez que se nos plantean retos de enorme envergadura a nivel moral.

Es importante que planteemos un debate serio en torno al uso de la robótica y la inteligencia artificial (sea cual sea su forma física) y como este afecta al desarrollo de nuestra existencia. No solo desde un punto de vista legal, que también, si no atacando, de raíz, el problema de la relación entre los seres humanos y las máquinas.

Lo que nos debe dar más miedo, sin embargo, no es una invasión de las máquinas, comandadas por Skynet, con la intención de destruir a nuestra especie, si no el poder que estas máquinas dan a los seres humanos que las poseen y las comandan. El problema aquí no pasa por si los robots y la IA van a ser capaces de desarrollarse sin la intervención humana, lo que parece implausible ahora por ahora, si no los usos actuales de esta tecnología robótica y los objetivos con los que se crea.

Recuperando lo que comentaba anteriormente, a nadie debe sorprender que los estados que puedan permitírselo empleen tecnologías autónomas para asumir tareas desagradables o peligrosas para los seres humanos. El problema surge cuando no se dota a estos de una capacidad ética (evidentemente predefinida y cerrada,… son robots…) y no se trabaja para desarrollar mapas de programación que permitan a estos robots adaptarse a situaciones humanas particulares.

El marco legal resultado del debate que planteamos debe definir no solo qué se puede hacer y qué no con los robots, si no como debemos hacerlo, cuales deben ser las opciones tecnológicas para garantizar el control total de la máquina por parte de los mandos, como debe definirse el orden de actuación de los robots, en función de qué variables, etc. Un marco complejo que debe atender no solo a lo que es posible si no a lo que podría serlo, que debe regular el uso de la IA en todos los aspectos de nuestro entramado social.

De la misma forma que se duda y se cuestiona el hecho de eliminar del todo los mandos manuales en los coches autónomos, debemos plantear la necesidad de establecer garantías en el uso de la tecnología autónoma cuando esta toma poderes que no le son propios. Y no nos referimos solo al entorno bélico o a la tecnología armamentística. Hay muchos otras parcelas de nuestra rutina que ya son mediadas por robots, y el abaratamiento de los procesadores, sensores, etc. hará que el crecimiento de la presencia de la IA sea exponencial, debemos ocuparnos de regular y definir (éticamente) que puede hacer y que no el robot que aspira el suelo de mi casa, el ordenador de a bordo de mi coche que controla todos los parámetros del vehículo, pero también de mi comportamiento al volante. El historial del GPS, el comportamiento de los electrodomésticos inteligentes, la expansión y multiplicación de los chips RFID, el Internet de las Cosas, etc etc.

Toda nuestra actividad diaria está ya muy cerca de robots, en diferentes formas, alejadas de la forma humanoide típica de la ciencia ficción, pero que recogen datos, los procesan y, en base al machine learning, pueden aprender muchas cosas sobre cada individuo.

La robótica transformará de forma radical nuestro entorno, promoviendo avances -inimaginables hace unos años- que generarán enormes beneficios en múltiples campos, no hay duda. Sin embargo lo que puede ser un salto adelante enorme en la evolución de la ciencia y la tecnología puede también convertirse en un peligro grave de pérdida de derechos por parte de los ciudadanos.

Para que esto no pase debemos responder a algunas preguntas esenciales con debate, reflexión y acuerdo:

¿Cuales deben ser las normas que regulen la relación humano-máquina? ¿Donde están los límites? (Más allá de Asimov…)
¿Hasta que punto es licito que un robot ocupe tareas en las que la sensibilidad humana es imprescindible?
¿Donde está el límite para la autonomía de las máquinas? ¿Que decisiones pueden tomar?

etc.

Asimo_look_new_design

Son solo algunas preguntas que desarrollaremos más en la segunda parte de este artículo, y que deben hacernos recuperar aquella afirmación que dice que no todo lo que se puede hacer se debe hacer, también en tecnología. Que un robot ayude a levantar o posicionar a un anciano con movilidad reducida, liberando de esta tarea al personal sanitario, es un avance claro y positivo; sin embargo, que sea este robot el que se ocupe del cuidado de los ancianos, en general, significa un problema ético de enorme envergadura.

Share Button
Posts Relacionados: