LinuxParty
Una nueva investigación revela que los grandes modelos de lenguaje (LLM) como ChatGPT no pueden aprender de forma independiente ni adquirir nuevas habilidades sin instrucciones explícitas , lo que los hace predecibles y controlables. El estudio disipa los temores de que estos modelos desarrollen habilidades de razonamiento complejas y enfatiza que, si bien los LLM pueden generar un lenguaje sofisticado, es poco probable que representen amenazas existenciales. Sin embargo, el posible uso indebido de la IA, como la generación de noticias falsas, aún requiere atención.
El estudio, publicado como parte de las actas de la 62ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), la principal conferencia internacional sobre procesamiento del lenguaje natural, revela que los LLM tienen una capacidad superficial para seguir instrucciones y sobresalir en Sin embargo, si dominan el idioma, no tienen potencial para dominar nuevas habilidades sin una instrucción explícita. Esto significa que siguen siendo inherentemente controlables, predecibles y seguros.
"La narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, y también desvía la atención de los problemas genuinos que requieren nuestra atención", afirmó el Dr. Harish Tayyar Madabushi, científico informático de la Universidad de Bath y coautor del nuevo estudio sobre las "habilidades emergentes" de los LLM.
La profesora Iryna Gurevych añadió: "... nuestros resultados no significan que la IA no sea una amenaza en absoluto. Más bien, mostramos que la supuesta aparición de habilidades de pensamiento complejas asociadas con amenazas específicas no está respaldada por evidencia y que podemos controlar la Después de todo, el proceso de aprendizaje de los LLM es muy bueno. Por lo tanto, las investigaciones futuras deberían centrarse en otros riesgos que plantean los modelos, como su potencial para ser utilizados para generar noticias falsas".
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores