LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Una nueva investigación revela que los grandes modelos de lenguaje (LLM) como ChatGPT no pueden aprender de forma independiente ni adquirir nuevas habilidades sin instrucciones explícitas , lo que los hace predecibles y controlables. El estudio disipa los temores de que estos modelos desarrollen habilidades de razonamiento complejas y enfatiza que, si bien los LLM pueden generar un lenguaje sofisticado, es poco probable que representen amenazas existenciales. Sin embargo, el posible uso indebido de la IA, como la generación de noticias falsas, aún requiere atención.

El estudio, publicado como parte de las actas de la 62ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), la principal conferencia internacional sobre procesamiento del lenguaje natural, revela que los LLM tienen una capacidad superficial para seguir instrucciones y sobresalir en Sin embargo, si dominan el idioma, no tienen potencial para dominar nuevas habilidades sin una instrucción explícita. Esto significa que siguen siendo inherentemente controlables, predecibles y seguros.

"La narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, y también desvía la atención de los problemas genuinos que requieren nuestra atención", afirmó el Dr. Harish Tayyar Madabushi, científico informático de la Universidad de Bath y coautor del nuevo estudio sobre las "habilidades emergentes" de los LLM.

La profesora Iryna Gurevych añadió: "... nuestros resultados no significan que la IA no sea una amenaza en absoluto. Más bien, mostramos que la supuesta aparición de habilidades de pensamiento complejas asociadas con amenazas específicas no está respaldada por evidencia y que podemos controlar la Después de todo, el proceso de aprendizaje de los LLM es muy bueno. Por lo tanto, las investigaciones futuras deberían centrarse en otros riesgos que plantean los modelos, como su potencial para ser utilizados para generar noticias falsas".

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías