LinuxParty
El gobierno de Estados Unidos debe actuar "rápida y decisivamente" para evitar riesgos sustanciales para la seguridad nacional derivados de la inteligencia artificial (IA) que podría, en el peor de los casos, causar una "amenaza de extinción para la especie humana", dice un informe encargado por el El gobierno de Estados Unidos publicó el lunes. Time: "El actual desarrollo fronterizo de la IA plantea riesgos urgentes y crecientes para la seguridad nacional", dice el informe, que TIME obtuvo antes de su publicación. "El aumento de la IA avanzada y la AGI [inteligencia general artificial] tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan a la introducción de armas nucleares". AGI es una tecnología hipotética que podría realizar la mayoría de las tareas al nivel de un humano o por encima de él. Estos sistemas no existen actualmente, pero los principales laboratorios de IA están trabajando en ellos y muchos esperan que AGI llegue en los próximos cinco años o menos.
Los tres autores del informe trabajaron en él durante más de un año, hablando con más de 200 empleados gubernamentales, expertos y trabajadores de empresas de vanguardia en IA, como OpenAI, Google DeepMind, Anthropic y Meta, como parte de su investigación. Los relatos de algunas de esas conversaciones pintan un panorama inquietante, sugiriendo que muchos trabajadores de seguridad de IA dentro de laboratorios de vanguardia están preocupados por los incentivos perversos que impulsan la toma de decisiones por parte de los ejecutivos que controlan sus empresas. El documento terminado, titulado "Un plan de acción para aumentar la seguridad de la IA avanzada", recomienda un conjunto de acciones políticas radicales y sin precedentes que, de implementarse, alterarían radicalmente la industria de la IA. El informe recomienda que el Congreso debería declarar ilegal entrenar modelos de IA utilizando más de un cierto nivel de potencia informática.
El umbral, recomienda el informe, debería ser fijado por una nueva agencia federal de IA, aunque el informe sugiere, como ejemplo, que la agencia podría fijarlo justo por encima de los niveles de potencia informática utilizados para entrenar modelos de vanguardia actuales como el GPT de OpenAI. -4 y Géminis de Google. La nueva agencia de IA debería exigir a las empresas de IA en la "frontera" de la industria que obtengan permiso del gobierno para entrenar y desplegar nuevos modelos por encima de un cierto umbral inferior, añade el informe. Las autoridades también deberían considerar "urgentemente" prohibir la publicación de los "pesos" o funcionamiento interno de potentes modelos de IA, por ejemplo bajo licencias de código abierto, cuyas violaciones posiblemente se castiguen con penas de cárcel, dice el informe. Y el gobierno debería reforzar aún más los controles sobre la fabricación y exportación de chips de IA y canalizar fondos federales hacia investigaciones de "alineación" que busquen hacer que la IA avanzada sea más segura, recomienda.
-
Artículos
- La versión candidata a la versión GIMP 3.0 ya está disponible para pruebas públicas
- Cómo ejecutar aplicaciones Android en Linux
- Cómo formatear discos en Linux desde la línea de comandos
- Cuarenta y tres monos escapan de un laboratorio de investigación en Estados Unidos
- Intel observa una mejora del rendimiento del 3888,9 % en el kernel de Linux: a partir de una línea de código
- Cómo crear un túnel SSH en Linux
- Cómo configurar el firewall UFW en Ubuntu en 5 minutos
- Linux Lite acaba de incorporar una útil función de inteligencia artificial para el escritorio, y es más sutil de lo que cree
- Cómo instalar Linux en una unidad USB y ejecutarlo en cualquier PC
- Phoca Desktop System Plugin 4.0.5 publicado
- Herramientas de IA para Traducciones Precisas y Naturales: Cómo Optimizar el Proceso
- 6 características que desearía que MacOS copiara de Linux
- Malware en Android: VPN y Apps Peligrosas en Play Store
- Probar el micrófono en Linux usando terminal o shell
- ¿Qué es peor que atrasar el reloj una hora? El horario de verano permanente