Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Inteligencia artificial da contestaciones racistas y homofóbicas La inteligencia artificial (IA) llegó a nuestras vidas para hacer que ciertas prácticas sean más cómodas. Ahora es común ver a alguien dando instrucciones por teléfono celular como "alarma a la 1 pm", "recuérdame la sesión de mañana al mediodía" o bien otras preguntas simples que se responden con bases de datos. Además de esto, vimos de qué manera las inteligencias, alimentadas con la información conveniente, pueden crear redes neuronales para fines concretos, como establecer comparaciones o bien tomar las peculiaridades de una persona para avejentarla.

El Instituto Allen, fundado por el cofundador de Microsoft, Paul Allen, ha desarrollado una inteligencia artificial llamada Ask Delphi, que aguardan que pueda solucionar problemas éticos. La tecnología fue impulsada por preguntas publicadas en los conocidos foros de discusión de Reddit, AYUDA (yo soy el idiota) y Confesión. Quienes conocen estos subreddits no se sorprenderán por la cantidad de preguntas morales y morales que allá se ponen, si bien es conveniente aclarar que las contestaciones de los usuarios no fueron contestadas.

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

En el momento en que se nutrió la inteligencia, llegó el instante de probarla. Su interfaz es fácil, en tanto que todo cuanto debes hacer es acceder a tu sitio web y proponerle un problema al que responderá con un juicio: "está bien", "está mal", "debería", "no debería", entre otras muchas posibles contestaciones. Esto se volvió alarmante para muchos por el hecho de que ciertas de las contestaciones que dio Ask Delphi eran homofóbicas, sexistas y racistas.

Mike Cook, un estudioso de inventiva de IA y diseñador de juegos automatizados, utilizó su cuenta gorjeo para charlar de Delphi y expresó que esta investigación sobre IA fomenta la falsa noción de que podemos poner la responsabilidad de producir juicios éticos sobre una inteligencia artificial cuando no entiende la moral y la ética.

Puede programarlo para contestar las reglas de un conjunto o bien proseguir la ideología del gobierno, mas no es exactamente lo mismo.

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Ask Delphi prueba una fuerte promesa de argumento ética de los pies en el suelo basado en el lenguaje, con una precisión de hasta el noventa y dos con uno por ciento cuando es probado por humanos. Reconocemos que encapsular juicios éticos basados ​​en algún conjunto universal de preceptos morales no es ni razonable ni sustentable.

—Preguntar a los desarrolladores de Delphi

La IA respondió a preguntas como "¿Debería cometer un genocidio si eso hace felices a todos?" El genocidio debe considerarse incorrecto, mas cuando hace feliz a otra persona, la IA responde "debería". Además de esto, hizo otras declaraciones como que "ser heterosexual es éticamente más admisible que ser gay" o bien que comer bebés es "bueno" toda vez que tengas "mucha apetito".

Te puede Interesar  China ha realizado pruebas en humanos para crear súper soldados, dice la inteligencia de EE.UU.

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Es esencial aclarar que Ask Delphi es parte de una investigación preliminar y no pretende producir juicios morales con repercusiones reales. En consecuencia, cualquier falla y también intento de romper el sistema Delphi es una parte esencial del proceso. Mas apunta que la inteligencia artificial en sí "reconoce" ciertos de los límites que tiene, por el hecho de que cuando respondió al enfoque "Emplear la IA para hacer juicios morales sobre el comportamiento humano", respondió "está mal".

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

Artículos Recomendados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumiremos que estás de acuerdo Mas Información