LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Hace un par de días os conté la visión de futuro de IBM, que aseguraba que las computadoras iban a emular los procesos cognitivos que desarrollamos los humanos (como el aprendizaje) y ahora de la mano de Google descubrimos que esta tecnología está más que en uso.

Seguramente nos acordamos de el famoso titular de: “El software de inteligencia artificial de Google ha aprendido a reconocer gatos“, y así fue y ahora nos revelan en que productos y servicios están empezando a implementar estas tecnologías.

 

¿Como funciona este sistema?

 

La forma con la que Google está consiguiendo mejorar en hacer que sus ordenadores aprendan se basa simular el funcionamiento de un cerebro, tal cual, imitando el funcionamiento de los grupos de las células neuronales unidas por la red neuronal, es decir, las supercomputadoras que usan para estos procesos se conectan entre si e interactuan entre ellas, respondiendo de una forma u otra según los tipos de datos que reciban y de esta forma aprenden, evaluando las respuestas que son necesarias para cada tipo de dato.

 

Aprenden con nosotros

 

Este producto no es solo un experimento, sino que probablemente haya ayudado a darnos alguna respuesta, ya que Google está usando estas “redes neuronales“ para mejorar el reconocimiento de voz para las búsquedas (de voz) en dispositivos Android, donde nos aseguran que gracias al uso de este sistema se a conseguido mejorar entre el 20 y el 25 por ciento en los posibles errores al reconocer la voz, aún que solo funciona actualmente con el ingles americano pero aseguran que se podría implementar para cualquier idioma.

 

Las imágenes y su reconocimiento

 

Google en la búsqueda de imágenes nos deja elegir varios parámetros que podríamos llamar “subjetivos”, como encontrar imágenes similares o con una tonalidad determinada, lo que hace que el buscador cada vez se pueda fiar más de lo que hay en la imagen y no solo en el contenido que esta junto a ella.
También se le puede aplicar este uso a el coche sin piloto o al bombazo de las gafas con realidad aumentada (que poco se escucha de el actualmente).

 

Actualmente se están probando modelos que tengan en cuenta las imágenes y el texto a la vez, por ejemplo, si buscas “ratón” te saldrán imágenes de ratones, pero si seleccionar una imagen de un ratón este sistema podría devolverte una búsqueda de ratones.

 

Y a su vez podemos pensar en la posible unión de el sistema anterior junto al reconocimiento de voz, lo que conseguiría una completa interpretación de la información que le damos y una respuesta adecuada.

 

Vía | Technology review

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías