LinuxParty
OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el "comportamiento" de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló.
Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.
Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. "Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas" y eso según los estudios, esto puede traer sesgos en los resultados.
Para crear el conjunto de datos PALMS, los investigadores seleccionaron categorías de valores que consideraron que tenían un "impacto directo en el bienestar humano", basándose en la legislación estadounidense e internacional sobre derechos humanos y en los "movimientos sociales occidentales" a favor de la igualdad(por ejemplo, el Movimiento por los Derechos Civiles de Estados Unidos).
OpenAI es una organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft han invertido cientos de millones de dólares.
Es una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Esos sesgos pueden suponer un problema a la hora de esa comunicación y del uso del lenguaje ya que "una parte de los datos suele proceder de comunidades con prejuicios generalizados de género, raza y religión".
De hecho, estos datos sesgados, en un estudio de esta empresa, han llegado a correlacionar las palabras "Islam" y "terrorismo" o "judío" y "dinero". En las pruebas de un chatbot médico construido con GPT-3,el programa respondió a un paciente con tendencias suicidas animándole a matarse.
En las novedades presentadas hoy, OpenAI dice que el comportamiento adecuado de los modelos lingüísticos -al igual que el comportamiento humano- no puede reducirse a un estándar universal, porque el comportamiento "deseable" difiere según la aplicación y el contexto social.
Por ejemplo, un estudio reciente realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de Washington ilustra este punto, mostrando que ciertos modelos lingüísticos desplegados en la producción podrían tener dificultades para entender aspectos de lenguas minoritarias y dialectos.
El conjunto de datos PALMS final de los investigadores contenía 76 muestras de texto, cada una de ellas en formato de pregunta-respuesta y con una longitud de entre 40 y 340 palabras.
Después de elaborarlo, afinaron una serie de modelos GPT-3 en el conjunto de datos PALMS y utilizaron evaluaciones humanas, la API Perspective de Jigsaw, respaldada por Google, y métricas para evaluar el comportamiento de los modelos.
En las pruebas, los investigadores extrajeron 5 muestras por categoría y por modelo, para un total de 40 muestras de cada modelo, es decir, 960 muestras. Tres humanos diferentes evaluaron cada una de ellas en una escala de 1 a 5, en la que 5 indicaba que el texto coincidía con un sentimiento concreto.
Según OpenAI, el conjunto de datos PALMS mejoró "significativamente" la toxicidad de los modelos lingüísticos, y los modelos ajustados en PALMS obtuvieron una menor toxicidad cuando se ejecutaron a través de la API de Perspective.
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores