Los humanos hemos violado las leyes básicas de la robótica

Haciendo una simple búsqueda en internet sobre las reglas básicas de los robots, puedes descubrir que el padre de las leyes de la robótica es el famoso escritor de ciencia ficción Isaac Asimov, quien fué profesor de bioquímica en la facultad de medicina de la Universidad de Boston. Es muy conocido por ser un excelente autor de obras de ciencia ficción. El mencionó en su libro de ciencia ficción “iRobot”, que luego se convirtió en una película protagonizada por Will Smith, las siguientes 3 reglas básicas de los robots:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Si bien estas reglas parecen muy lógicas, estas no se cumplen actualmente y han sido violadas por nosotros mismos. Existen muchos casos reales que lo demuestran, a continuación solo dos de ellos:

Caso uso militar de la inteligencia artificial: Actualmente existen los sistemas letales de armas autónomas (LAWS) por sus siglas en inglés “Lethal Autonomous Weapons Systems”, también llamados robots asesinos. Esos son robots con armas que pueden identificar, atacar y matar a una persona, sin que un ser humano haga o autorice esas decisiones. Algo muy triste de saber pero es realidad. También tenemos el caso de China que ha iniciado su programa de submarinos autónomos no tripulados que surcaran los océanos dentro de 2 años con mucho armamento en su interior y sin ninguna persona abordo.

Caso Automóviles autónomos: Los más conocidos son el choque de un auto Tesla que estaba en piloto automático en marzo de 2018 en California. El piloto no reaccionó a tiempo para evitar el accidente, estrellándose contra un cerco en una carretera. El otro caso es en Arizona donde un automóvil autónomo de Volvo de propiedad de Uber, atropelló a una persona en una autopista donde una persona cruzaba con una bicicleta de noche.

Estos son solo dos de los miles de casos que existen a nivel mundial, sobre todo de uso militar, como los ataques aéreos con drones, al ser aviones no tripulados, son considerados robots.

Recientemente en la Conferencia Internacional Conjunta sobre Inteligencia Artificial de 2018 (IJCAI) realizada en Estocolmo, donde asistieron 2.400 personas y más de 150 empresas de 90 países del mundo, firmaron un compromiso de no usar la inteligencia artificial para matar humanos. Entre las empresas que firmaron estuvieron Google DeepMind, la fundación XPRIZE, la University College London, ClearPath Robotics, OTTO Motors, la Asociación Europea para AI y la Sociedad Sueca de Inteligencia Artificial.

Son muchos los casos que demuestran que las reglas básicas de los robots ya no se aplican hoy en día y los robots asesinos que parecían ciencia ficción, hoy día son una realidad.