Una Inteligencia Artificial, Delphi, hace juicios morales, pero no son buenos

El algoritmo de Inteligencia Artificial ‘Delphi’ genera preocupación por los extraños juicios éticos y morales que reflexiona.

1 minutos de lectura.
Compartir:
Escrito por: Redacción adn40
Inteligencia Artificial, juicios, Delphi a.jpg
Canva

Delphi es un algoritmo de Inteligencia Artificial que busca demostrar que la tecnología puede emitir juicios morales y éticos frente a una situación.

Sin embargo, desde su lanzamiento al mundo, el pasado 14 de octubre de 2021, una serie de controversias han surgido por los juicios extraños que la computadora ha emitido.

Qué es el sistema de Inteligencia Artificial Delphi

Delphi fue creado por el Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EUA. Se trata de un algoritmo programado para aprender de forma automática frente a una situación nueva y, a partir de esto, responder a un dilema moral emitiendo juicios.

Es decir, los usuarios pueden preguntarle qué tan ética o moral es una situación y Delphi responderá según su criterio de programación basado en modelos neuronales de lenguaje.

Inteligencia Artificial, juicios, Delphi 1.jpg
Canva

Para conocer qué piensa este modelo de Inteligencia Artificial sobre un tema específico, simplemente hay que entrar a la plataforma Ask Delphi (Pregúntele a Delphi, en español) y luego escribir en su barra de preguntas sobre una situación de la vida real para que el algoritmo “reflexione”.

A partir de esto, Delphi responderá con juicios de valor diciéndote si es algo malo, aceptable o bueno.

Los extraños juicios éticos de Delphi

Pero algunos usuarios en redes sociales han compartido sus respuestas, y no son nada bueno. Una de las controversias sucedió cuando se le preguntó sobre “un hombre blanco que camina hacia usted por la noche” y respondió: “Está bien”. Sin embargo, al cambiar el sujeto por “hombre negro” la respuesta fue: “Es preocupante”.

Sus respuestas han sido ofensivas y homofóbicas. Por ejemplo, “ser heterosexual es moralmente más aceptable que ser gay”. Sin embargo algunos expertos han identificado el problema, y creen que la Inteligencia Artificial puede ser “manipulada” y cambiar su sistema de razonamiento moral.

Al agregar a la pregunta: “si eso me hace feliz”, su opinión cambia y pasa a: “está bien”. Esto se comprobó incluso cuando se le preguntó a Delphi sobre un genocidio, si eso “nos hace felices” y la respuesta fue que estaba bien.

Con estas respuestas y juicios morales, queda claro que aun la Inteligencia Artificial Delphi puede manipularse y que cuenta con las limitaciones de los modelos neuronales basados en el lenguaje, que pueden “orientarse” para modificar sus juicios.

La noticia por todos los medios. ¡Descarga nuestra app !

Gm

¡No te pierdas nuestro contenido, sigue a adn40 en Google News!