LinuxParty
La API de OpenAI sirve para acceder a nuevos modelos de IA desarrollados por OpenAI. A diferencia de la mayoría de los sistemas de IA que están diseñados para un caso de uso, la API de OpenAI proporciona una interfaz de «entrada de texto, salida de texto» de propósito general, lo que permite a los usuarios probarla en prácticamente cualquier tarea, por ahora en inglés. Ahora puede solicitar acceso para integrar la API en su producto, desarrollar una aplicación completamente nueva o ayudarnos a explorar los puntos fuertes y los límites de esta tecnología.
Dado cualquier aviso de texto, la API devolverá un texto completo, intentando coincidir con el patrón que le dio. Puede «programarlo» mostrándole solo algunos ejemplos de lo que le gustaría que hiciera; su éxito generalmente varía según la complejidad de la tarea. La API también le permite perfeccionar el rendimiento en tareas específicas entrenando en un conjunto de datos de ejemplos que proporcione, o aprendiendo de los comentarios humanos proporcionados por usuarios o etiquetadores.
Hemos diseñado la API para que sea simple de usar por cualquiera, pero también lo suficientemente flexible para hacer que los equipos de aprendizaje automático sean más productivos. De hecho, muchos de nuestros equipos ahora usan la API para poder enfocarse en la investigación de aprendizaje automático en lugar de problemas de sistemas distribuidos. Hoy, la API ejecuta modelos con pesos de la familia GPT-3 con muchas mejoras de velocidad y rendimiento. El aprendizaje automático se está moviendo muy rápido y estamos constantemente actualizando nuestra tecnología para que nuestros usuarios estén actualizados.
El ritmo de progreso del campo significa que con frecuencia hay nuevas aplicaciones sorprendentes de IA, tanto positivas como negativas. Cancelaremos el acceso a la API para casos de uso obviamente dañinos, como acoso, spam, radicalización o astroturfing. Pero también sabemos que no podemos anticipar todas las posibles consecuencias de esta tecnología, por lo que estamos lanzando hoy en una versión beta privada en lugar de disponibilidad general, creando herramientas para ayudar a los usuarios a controlar mejor el contenido que devuelve nuestra API e investigando información relevante para la seguridad. aspectos de la tecnología del lenguaje . Compartiremos lo que aprendamos para que nuestros usuarios y la comunidad en general puedan construir más sistemas de IA positivos para los humanos.
¿Por qué OpenAI decidió lanzar un producto comercial?
En última instancia, lo que más nos importa es garantizar que la inteligencia artificial general beneficie a todos. Vemos el desarrollo de productos comerciales como una de las formas de asegurarnos de que tenemos suficientes fondos para tener éxito. También creemos que la implementación segura de poderosos sistemas de IA en el mundo será difícil de hacer bien. Al lanzar la API, estamos trabajando en estrecha colaboración con nuestros socios para ver qué desafíos surgen cuando los sistemas de IA se utilizan en el mundo real.
¿Por qué OpenAI eligió lanzar una API en lugar de abrir los modelos?
Hay tres razones principales por las que hicimos esto. En primer lugar, la comercialización de la tecnología nos ayuda a pagar nuestros esfuerzos continuos de investigación, seguridad y políticas de IA.
En segundo lugar, muchos de los modelos subyacentes a la API son muy grandes, requieren mucha experiencia para desarrollarse e implementarse y hacen que su ejecución sea muy costosa. Esto dificulta que cualquier persona, excepto las empresas más grandes, se beneficie de la tecnología subyacente. Esperamos que la API haga que los poderosos sistemas de inteligencia artificial sean más accesibles para las empresas y organizaciones más pequeñas.
Tercero, el modelo API nos permite responder más fácilmente al mal uso de la tecnología.
Con GPT-2, una de nuestras principales preocupaciones era el uso malintencionado del modelo , que es difícil de prevenir una vez que el modelo es de código abierto.
Para la API, podemos prevenir mejor el uso indebido al limitar el acceso a clientes aprobados y casos de uso. Tenemos un proceso de revisión de producción obligatorio antes de que las aplicaciones propuestas puedan publicarse. En las revisiones de producción, evaluamos las aplicaciones a través de algunos ejes, haciendo preguntas como: ¿Es este un caso de uso compatible actualmente? , ¿Qué tan abierta es la aplicación? , ¿Qué tan riesgosa es la aplicación? , ¿Cómo planea abordar el posible uso indebido? y ¿Quiénes son los usuarios finales de su aplicación?.
Terminamos el acceso a la API para los casos de uso que causan daño físico, emocional o psicológico a las personas, incluidos, entre otros, acoso, engaño intencional, radicalización, astroturfing o spam, así como aplicaciones. que tienen barandillas insuficientes para limitar el uso indebido por parte de los usuarios finales. A medida que obtengamos más experiencia en el funcionamiento de la API en la práctica, refinaremos continuamente las categorías de uso que podemos admitir, tanto para ampliar la gama de aplicaciones que podemos admitir como para crear categorías más detalladas para aquellas sobre las que tenemos inquietudes sobre el uso indebido.
Un factor clave que consideramos al aprobar los usos de la API es la medida en que una aplicación exhibe un comportamiento abierto versus restringido con respecto a las capacidades generativas subyacentes del sistema. Las aplicaciones abiertas de la API son especialmente susceptibles al uso indebido. Las restricciones que pueden hacer que los casos de uso generativo sean más seguros incluyen el diseño de sistemas que mantiene a un ser humano informado, las restricciones de acceso del usuario final, el procesamiento posterior de los resultados, la filtración de contenido, las limitaciones de longitud de entrada/salida, el monitoreo activo y las limitaciones de actualidad.
¿Cómo mitigará OpenAI el sesgo dañino y otros efectos negativos de los modelos servidos por la API?
Mitigar los efectos negativos, como el sesgo dañino, es un tema difícil para toda la industria que es extremadamente importante. Como discutimos en el documento GPT-3 y la tarjeta modelo , nuestros modelos de API presentan sesgos que se reflejarán en el texto generado. Estos son los pasos que estamos tomando para abordar estos problemas:
Hemos desarrollado pautas de uso que ayudan a los desarrolladores a comprender y abordar posibles problemas de seguridad.
Estamos trabajando en estrecha colaboración con los usuarios para comprender sus casos de uso y desarrollar herramientas para emerger e intervenir para mitigar el sesgo dañino.
Estamos realizando nuestra propia investigación sobre las manifestaciones de prejuicios dañinos y cuestiones más amplias sobre la equidad y la representación, lo que ayudará a informar nuestro trabajo a través de una documentación mejorada de los modelos existentes, así como varias mejoras a los modelos futuros.
Reconocemos que el sesgo es un problema que se manifiesta en la intersección de un sistema y un contexto desplegado; Las aplicaciones creadas con nuestra tecnología son sistemas sociotécnicos, por lo que trabajamos con nuestros desarrolladores para asegurarnos de que implementen procesos apropiados y sistemas humanos en el circuito para monitorear comportamientos adversos.
Fuente: https://openai.com/api/ | Explora la API
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores