LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Cada lanzamiento de OpenAI provoca asombro y ansiedad a medida que avanzan las capacidades, lo que es evidente en los videoclips sorprendentemente realistas generados por IA de Sora que se volvieron virales y al mismo tiempo inquietaron a las industrias que dependen del metraje original. Pero la compañía vuelve a ser reservada en todos los lugares equivocados sobre la IA que puede usarse para difundir información errónea .

De un informe: Como de costumbre, OpenAI no hablará sobre los ingredientes más importantes que se incluyen en esta nueva herramienta, incluso cuando la lanza a una serie de personas para que la prueben antes de hacerla pública. Su enfoque debería ser al revés. OpenAI necesita ser más público sobre los datos utilizados para entrenar a Sora y más reservado sobre la herramienta en sí, dadas las capacidades que tiene para alterar industrias y potencialmente elecciones. El director ejecutivo de OpenAI, Sam Altman, dijo que el equipo rojo de Sora comenzaría el jueves, el día en que se anunció y compartió la herramienta con los probadores beta.

El equipo rojo es cuando los especialistas prueban la seguridad de un modelo de IA pretendiendo ser malos actores que quieren piratearlo o hacer un mal uso. El objetivo es asegurarse de que no suceda lo mismo en el mundo real. Cuando le pregunté a OpenAI cuánto tiempo llevaría ejecutar estas pruebas en Sora, una portavoz dijo que no había una duración establecida. "Nos tomaremos nuestro tiempo para evaluar áreas críticas en busca de daños o riesgos", añadió.

La compañía pasó unos seis meses probando GPT-4, su modelo de lenguaje más reciente, antes de lanzarlo el año pasado. Si se necesita la misma cantidad de tiempo para verificar a Sora, eso significa que podría estar disponible para el público en agosto, unos buenos tres meses antes de las elecciones estadounidenses. OpenAI debería considerar seriamente esperar para publicarlo hasta que los votantes acudan a las urnas. [...] Mientras tanto, OpenAI se muestra frustrantemente reservado sobre la fuente de información que utilizó para crear Sora. Cuando le pregunté a la empresa qué conjuntos de datos se utilizaron para entrenar el modelo, una portavoz dijo que los datos de entrenamiento procedían "del contenido que tenemos bajo licencia y del contenido disponible públicamente". Ella no dio más detalles.

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías