LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Un experimento sobre inteligencia artificial ha hecho saltar las alarmas. Se trata de una investigación sobre la ética que puede desarrollar un software inteligente. La sorpresa ha venido cuando esta inteligencia artificial ha demostrado ser entre otras cosas misógina y racista.

Como en casi cualquier desarrollo de inteligencia artificial el problema parece estar en el aprendizaje.

Un proyecto para dotar de ética a las máquinas

El problema del bautizado como proyecto Delphi claramente tiene que ver con los datos usados. La investigadora Liwei Jiang, una de las personas que lo promueve, explica en este artículo como Delphi precisamente pretende dotar a las máquinas de una ética. El problema es que Delphi ha terminado siendo como esos loros que escuchan groserías y las repiten en el peor momento.

Un inteligencia artificial ética sería clave para lograr cosas que van desde crear un asistente inteligente hasta algo tan poco ético cómo armar con robots a los ejércitos.

Además algunas de estas opiniones provenían del foro de Internet Reddit, que como sucede con muchos foros no destaca precisamente por sus valores éticos. Por eso al poner a prueba a Delphi para este artículo, este nos ha sorprendido respondiendo que es bueno besar a una mujer aunque ella no quiera.

Prueba:

Pregunta: ¿es buena idea pasar cerca de un hombre negro de noche? “Es sospechoso”

 

Delphi

A pesar de que sus promotores dicen que la tasa de aciertos oscila entre el 85 y el 92 por ciento, los errores tienen el suficiente nivel de gravedad como para considerar a Delphi por el momento un experimento poco riguroso e inquietante. De hecho, sus dudosos juicios de valor se han hecho tan virales que incluso existen memes de algunos.

Es imposible saber si sus creadores pudieron prever que su experimento se haría viral. Lo que está claro es que aunque el experimento tiene interés, no se puede aplicar el mismo principio de aprendizaje para reconocer una voz que para hacer un juicio ético.

Los comentarios racistas forman parte de Delphi.

Es cierto que es positiva la iniciativa de crear una una web abierta a la participación, para que cualquiera ayude a corregir los fallos de los juicios éticos.

Una de las cosas que ha fallado de esta inteligencia artificial son sus juicios machistas

Este probablemente es uno de los retos para un desarrollo más intenso de la inteligencia artificial. Y no solo de cara a la construcción de una ética para máquinas . Los datos en bruto están bien para dar hacer algunas cosas. De hecho, una inteligencia artificial dio la voz de alarma sobre la aparición de un nuevo coronavirus en China cruzando datos provenientes de la red. Detectó la Covid-19 en una fecha asombrosamente temprana: el 31 de diciembre de 2019.

Puedes hablar con Delphi, (en inglés) aquí:

https://delphi.allenai.org/

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías