LinuxParty
SoftBank ha desarrollado una tecnología de conversión de voz mediante IA destinada a reducir el estrés psicológico de los operadores de centros de llamadas alterando las voces de los clientes enojados para que suenen más tranquilas . El periódico japonés The Asahi Shimbun informa:La compañía lanzó un estudio sobre la "cancelación de emociones" hace tres años, que utiliza tecnología de procesamiento de voz mediante IA para cambiar la voz de una persona a través de una llamada telefónica. A Toshiyuki Nakatani, un empleado de SoftBank, se le ocurrió la idea después de ver un programa de televisión sobre el acoso a los clientes. "Si la voz que grita de los clientes sonara como la del papá globo ocular de Kitaro, daría menos miedo", dijo, refiriéndose a un personaje de la popular serie de anime "Gegege no Kitaro".
La IA que altera la voz aprendió muchas expresiones, incluidos gritos y tonos acusatorios, para mejorar las conversiones vocales. Se contrataron diez actores para interpretar más de 100 frases con diversas emociones, entrenando a la IA con más de 10.000 datos de voz. La tecnología no cambia la redacción, pero sí se suaviza el tono y la inflexión de la voz. Por ejemplo, la voz aguda de una mujer tiene un tono más bajo para que suene menos resonante. El tono de bajo de un hombre, que puede resultar aterrador, se eleva a un tono más alto para que suene más suave. Sin embargo, si un operador no puede saber si un cliente está enojado, es posible que no pueda reaccionar adecuadamente, lo que podría molestar aún más al cliente. Por lo tanto, los desarrolladores se aseguraron de que se mantuviera audible un ligero elemento de ira.
Según la compañía, las mayores cargas para los operadores son escuchar lenguaje abusivo y verse atrapados en largas conversaciones con clientes que no salen de la línea, como cuando solicitan persistentemente disculpas. Con la nueva tecnología, si la IA determina que la conversación es demasiado larga o demasiado abusiva, se enviará un mensaje de advertencia como: "Lamentamos informarle que cancelaremos nuestro servicio". [...] La compañía planea mejorar aún más la precisión de la tecnología haciendo que la IA aprenda datos de voz y espera vender la tecnología a partir del año fiscal 2025.Nakatani dijo: "La IA es buena para manejar quejas y puede hacerlo durante largas horas, pero lo que los clientes enojados quieren es que un humano se disculpe con ellos". Dijo que espera que la IA "se convierta en un escudo mental que impida a los operadores forzar demasiado sus nervios".
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores