¿Siguen siendo válidas las Leyes de la Robótica de Isaac Asimov?

En la actualidad, la fabricación de un robot puede ser contradictoria en relación a las leyes que, en su momento implementó Asimov sobre la robótica; sin embargo, científicos procuran que la Inteligencia Artificial no atente con la vida humana.

Actualizado el 30 diciembre 2020 09:53hrs 2 minutos de lectura.
Compartir:
Escrito por: Redacción adn40
robot inteligencia artificial
Pexels

En el año de 1942, el escritor estadounidense Isaac Asimov se dio a la tarea de escribir las Leyes de la Robótica, esto de acuerdo a la experiencia que tenía con la ciencia ficción, en ese tiempo, pero actualmente, ¿podrían seguir siendo válidas?

De acuerdo con sus propias palabras, las leyes que redactó Asimov se trataban en “formulaciones matemáticas impresas en los senderos positrónicos del cerebro” del robot, además de que interponía el bienestar humano antes que los avances y las tareas que se le otorgaban al artefacto de Inteligencia Artificial (AI).

Se trataban de cuatro leyes con las que se prevenía un daño hacia la humanidad:

1.- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

2.- Un robot deberá obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la medida con la primera ley.

3.- Un robot deberá proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

A estas leyes de la robótica se les consideró como normas utilitarias; sin embargo, en la actualidad es complicado que todavía tengan vigencia.

De acuerdo con especialistas en robótica, en el momento en el que un robot con IA comienza a ser autónomo, es decir, que no es controlada por alguna manipulación humana, las Leyes de Asimov se vuelven insuficientes.

Por esta razón, se ha hecho una actualización en algunas leyes generales de la robótica que están destinadas tanto para los fabricantes como para los programadores. Por ejemplo, en septiembre del 2010, el Consejo de Investigación de Ingeniería y Ciencias Físicas, junto con el Consejo de Investigación de Artes y Humanidades de Inglaterra dictaron las siguientes leyes:

1.- Los robots no deben ser diseñados principalmente para matar o dañar humanos.

2.- Los seres humanos son los responsables, no los robots.

3.- Los robots deben ser diseñados de tal manera que aseguren su protección y seguridad.

4.- Los robots son objetos, no deben ser diseñados para evocar una respuesta emocional.

5.- Debe ser siempre posible averiguar quién es el responsable y dueño legal del robot.

En suma, se han realizado diversas reuniones entre expertos para evitar que se realicen robots con Inteligencia Artificial sean fabricados para comportamientos sexistas, racistas o funcionen como armas letales ante la humanidad.

La noticia por todos los medios. Descarga nuestra app

¡No te pierdas nuestro contenido, sigue a adn40 en Google News!