La inteligencia artificial es sin lugar a dudas la tecnología más importante de la 4ta revolución industrial que estamos viviendo que va impactar todas las industrias, nuestros trabajos y nuestra forma de vida en el futuro. Actualmente la inteligencia artificial esta aplicada principalmente en soluciones focalizadas al reconocimiento de imágenes, procesamiento de lenguaje natural y automóviles autónomos. Pero estas aplicaciones están relacionadas a los hard skills del ser humano como la inteliegencia, pero la inteligencia artificial se ha aplicada muy poco a los soft skills como los sentimientos, y menos aún que la inteligencia artificial pueda tener valores éticos.
Si consideramos que la energía que mueve a un ser humano, está basada en sus valores y principios, la energía que mueve a la inteligencia artificial es la energía eléctrica. De tal manera que, si no hay electricidad, el algoritmo no funciona. Esto me hace recordar a la película de ciencia ficción odisea del espacio 2001, donde la computadora HAL toma el control de la nave espacial y al final la máquina aprende a conseguir fuentes alternas y no la pueden desconectar. Esto que es ciencia ficción, tal vez puedan ser una realidad en el futuro con los algoritmos de aprendizaje, basados en la tecnología de inteligencia artificial denominada «Machine Learning».
Las leyes básicas de la robótica
Haciendo una simple búsqueda en internet sobre las reglas básicas de los robots, puedes encontrar las que definió el famoso escritor de ciencia ficción Isaac Asimov, quien es considerado el padre de las leyes de la robótica y de la ciencia ficción. Fue escritor y profesor de bioquímica en la facultad de medicina de la Universidad de Boston de origen ruso, nacionalizado estadounidense, conocido por ser un excelente escritor de obras de ciencia ficción, historia y divulgación científica. Isaac Asimov escribio el libro de ciencia ficción “iRobot”, que luego se convirtió en una película protagonizada por Will Smith, donde se presentan las siguientes 3 reglas básicas de los robots:
- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Si bien estas reglas parecen muy lógicas, estas no se cumplen actualmente y han sido violadas hace muchos años por el propio ser humano. Tenemos muchos casos reales de muertes humanas ocasionadas por robots que lo demuestran, por ejemplo:
- Automóviles autónomos: Los más conocidos son el choque de un auto Tesla que mientras estaba en piloto automático en marzo del 2018 en California, el piloto no reaccionó a tiempo para evitar el accidente, estrellándose contra un cerco en una carretera y falleció. El otro caso es en Arizona, donde un automóvil autónomo de Volvo de propiedad de Uber, atropelló a una persona en una autopista donde una persona cruzaba con una bicicleta de noche.
- Uso militar de la inteligencia artificial: Actualmente existen los sistemas letales de armas autónomas, (LAWS) por sus siglas en inglés “Lethal Autonomous Weapons Systems”, también llamados robots asesinos. Esos son robots con armas que pueden identificar, atacar y matar a una persona, sin que un ser humano autorice esas decisiones. Algo muy triste de saber, pero es una realidad actualmente. También tenemos el caso de China, que ha iniciado su programa de submarinos autónomos no tripulados que surcarán los océanos dentro de 2 años con mucho armamento en su interior y sin ninguna persona abordo.
Es importante aclarar que el ser humano relaciona generalmente a un robot con una forma humanoide, pero un avión no tripulado con armamanto letal, es tambien considerado un robot. El año pasado en la Conferencia Internacional Conjunta sobre Inteligencia Artificial de 2018 (IJCAI) realizada en Estocolmo con 2,400 asistentes y 150 empresas de 90 países del mundo, firmaron un compromiso de no usar la inteligencia artificial para matar humanos. Entre las empresas que firmaron estuvieron Google DeepMind, la fundación XPRIZE, la University College London, ClearPath Robotics / OTTO Motors, la Asociación Europea para AI y la Sociedad Sueca de Inteligencia Artificial, entre otras.
Son muchos los casos que demuestran que las reglas básicas de los robots ya no se aplican hoy en día, y actualmente existen robots asesinos que parecían hace poco ciencia ficción, por lo que es necesario que exista una regulación internacional ética para evitar el desarrollo de inteligencia artificial que dañe al ser humano. Eso me recuerda la frase de Albert Einstein que menciona la importancia de pensar no solo en la inteligencia artificial, sino tambien en la ética y parte espiritual del ser humano:
“La ciencia sin religión está coja y la religión sin ciencia está ciega”