LinuxParty
Cada lanzamiento de OpenAI provoca asombro y ansiedad a medida que avanzan las capacidades, lo que es evidente en los videoclips sorprendentemente realistas generados por IA de Sora que se volvieron virales y al mismo tiempo inquietaron a las industrias que dependen del metraje original. Pero la compañía vuelve a ser reservada en todos los lugares equivocados sobre la IA que puede usarse para difundir información errónea .
De un informe: Como de costumbre, OpenAI no hablará sobre los ingredientes más importantes que se incluyen en esta nueva herramienta, incluso cuando la lanza a una serie de personas para que la prueben antes de hacerla pública. Su enfoque debería ser al revés. OpenAI necesita ser más público sobre los datos utilizados para entrenar a Sora y más reservado sobre la herramienta en sí, dadas las capacidades que tiene para alterar industrias y potencialmente elecciones. El director ejecutivo de OpenAI, Sam Altman, dijo que el equipo rojo de Sora comenzaría el jueves, el día en que se anunció y compartió la herramienta con los probadores beta.
El equipo rojo es cuando los especialistas prueban la seguridad de un modelo de IA pretendiendo ser malos actores que quieren piratearlo o hacer un mal uso. El objetivo es asegurarse de que no suceda lo mismo en el mundo real. Cuando le pregunté a OpenAI cuánto tiempo llevaría ejecutar estas pruebas en Sora, una portavoz dijo que no había una duración establecida. "Nos tomaremos nuestro tiempo para evaluar áreas críticas en busca de daños o riesgos", añadió.
La compañía pasó unos seis meses probando GPT-4, su modelo de lenguaje más reciente, antes de lanzarlo el año pasado. Si se necesita la misma cantidad de tiempo para verificar a Sora, eso significa que podría estar disponible para el público en agosto, unos buenos tres meses antes de las elecciones estadounidenses. OpenAI debería considerar seriamente esperar para publicarlo hasta que los votantes acudan a las urnas. [...] Mientras tanto, OpenAI se muestra frustrantemente reservado sobre la fuente de información que utilizó para crear Sora. Cuando le pregunté a la empresa qué conjuntos de datos se utilizaron para entrenar el modelo, una portavoz dijo que los datos de entrenamiento procedían "del contenido que tenemos bajo licencia y del contenido disponible públicamente". Ella no dio más detalles.
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores