LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

En esta publicación, cubriremos algunas de las mejores herramientas de inteligencia artificial ( IA ) de código abierto para el ecosistema Linux. Actualmente, la IA es uno de los campos en constante avance en ciencia y tecnología, con un enfoque principal orientado a la creación de software y hardware para resolver los desafíos de la vida cotidiana en áreas como la atención médica, la educación, la seguridad, la fabricación, la banca y mucho más.

A continuación se muestra una lista de una serie de plataformas diseñadas y desarrolladas para admitir IA, que puede utilizar en Linux y posiblemente en muchos otros sistemas operativos. Recuerde que esta lista no está organizada en ningún orden de interés específico.

1. Aprendizaje profundo para Java (Deeplearning4j)

Deeplearning4j es una biblioteca distribuida de aprendizaje profundo, plug and play, de código abierto y de grado comercial para lenguajes de programación Java y Scala. Está diseñado específicamente para aplicaciones relacionadas con la empresa y se integra con Hadoop y Spark sobre CPU y GPU distribuidas.

DL4J se lanza bajo la licencia Apache 2.0 y proporciona soporte de GPU para escalar en AWS y está adaptado para arquitectura de microservicio.

Deeplearning4j - Aprendizaje profundo para Java

Visite la página de inicio : http://deeplearning4j.org/

2. Caffe - Marco de aprendizaje profundo

Caffe es un marco de aprendizaje profundo modular y expresivo basado en la velocidad. Se lanza bajo la licencia BSD de 2 cláusulas y ya está respaldando varios proyectos comunitarios en áreas como investigación, prototipos de inicio, aplicaciones industriales en campos como visión, voz y multimedia.

Caffe - Marco de aprendizaje profundo

Visite la página de inicio : http://caffe.berkeleyvision.org/

3. H20 - Marco de aprendizaje automático distribuido

H20 es un marco de aprendizaje automático de código abierto, rápido, escalable y distribuido, además de la variedad de algoritmos equipados en el marco. Admite aplicaciones más inteligentes como aprendizaje profundo, aumento de gradiente, bosques aleatorios, modelado lineal generalizado (es decir, regresión logística, Elastic Net) y muchos más.

Es una herramienta de inteligencia artificial orientada a las empresas para la toma de decisiones a partir de datos, que permite a los usuarios extraer información de sus datos utilizando modelos predictivos más rápidos y mejores.

H2O - Marco de aprendizaje automático distribuido

Visite la página de inicio : http://www.h2o.ai/

4. MLlib - Biblioteca de aprendizaje automático

MLlib es una biblioteca de aprendizaje automático de código abierto, fácil de usar y de alto rendimiento desarrollada como parte de Apache Spark. Es esencialmente fácil de implementar y puede ejecutarse en clústeres y datos de Hadoop existentes.

MLlib también incluye una colección de algoritmos para clasificación, regresión, recomendación, agrupamiento, análisis de supervivencia y mucho más. Es importante destacar que se puede utilizar en lenguajes de programación Python, Java, Scala y R.

MLlib - Biblioteca de aprendizaje automático

Visite la página de inicio : https://spark.apache.org/mllib/

5. Apache Mahout

Mahout es un marco de código abierto diseñado para crear aplicaciones de aprendizaje automático escalables, tiene tres características destacadas que se enumeran a continuación:

  1. Proporciona un lugar de trabajo de programación simple y extensible
  2. Ofrece una variedad de algoritmos preempaquetados para Scala + Apache Spark, H20 y Apache Flink
  3. Incluye Samaras, un lugar de trabajo de experimentación matemática vectorial con sintaxis similar a R

Apache Mahout

Visite la página de inicio :http://mahout.apache.org/

6. Biblioteca abierta de redes neuronales (OpenNN)

OpenNN también es una biblioteca de clases de código abierto escrita en C ++ para el aprendizaje profundo, se utiliza para instigar redes neuronales. Sin embargo, solo es óptimo para programadores C ++ experimentados y personas con tremendas habilidades de aprendizaje automático. Se caracteriza por una arquitectura profunda y un alto rendimiento.

OpenNN - Biblioteca de redes neuronales abiertas

Visite la página de inicio : http://www.opennn.net/

7. Oryx 2

Oryx 2 es una continuación del proyecto inicial de Oryx, se desarrolló en Apache Spark y Apache Kafka como una nueva arquitectura de la arquitectura lambda, aunque dedicada a lograr el aprendizaje automático en tiempo real.

Es una plataforma para el desarrollo de aplicaciones y se incluye con ciertas aplicaciones, así como para fines de filtrado, clasificación, regresión y agrupación en clústeres colaborativos.

Oryx2: rediseñando la arquitectura Lambda

Visite la página de inicio : http://oryx.io/

 

8. OpenCyc

OpenCyc es un portal de código abierto a la base de conocimiento general más grande y completa y al motor de razonamiento de sentido común del mundo. Incluye una gran cantidad de términos Cyc organizados en una onología diseñada con precisión para su aplicación en áreas tales como:

  1. Modelado de dominios enriquecidos
  2. Sistemas expertos específicos del dominio
  3. Comprensión de texto
  4. Integración de datos semánticos, así como juegos de IA y muchos más.

OpenCyc

Visite la página de inicio : http://www.cyc.com/platform/opencyc/

9. Apache SystemML

SystemML es una plataforma de inteligencia artificial de código abierto para el aprendizaje automático ideal para big data. Sus características principales son: se ejecuta en una sintaxis similar a R y Python, se centra en big data y está diseñada específicamente para matemáticas de alto nivel. Cómo funciona está bien explicado en la página de inicio, incluida una demostración en video para una ilustración clara.

Hay varias formas de usarlo, incluidas Apache Spark, Apache Hadoop, Jupyter y Apache Zeppelin. Algunos de sus casos de uso notables incluyen la automoción, el tráfico aeroportuario y la banca social.

Apache SystemML: plataforma de aprendizaje automático

Visite la página de inicio : http://systemml.apache.org/

10. NuPIC

NuPIC es un marco de código abierto para el aprendizaje automático que se basa en la memoria temporal jerárquica (HTM), una teoría del neocórtex. El programa HTM integrado en NuPIC se implementa para analizar datos de transmisión en tiempo real, donde aprende patrones basados ​​en el tiempo existentes en los datos, predice los valores inminentes y revela cualquier irregularidad.

Sus características notables incluyen:

  1. Aprendizaje continuo en línea
  2. Patrones temporales y espaciales
  3. Transmisión de datos en tiempo real
  4. Predicción y modelado
  5. Potente detección de anomalías
  6. Memoria temporal jerárquica

nteligencia de máquina NuPIC

Visite la página de inicio : http://numenta.org/

Con el aumento y el avance constante de la investigación en inteligencia artificial , estamos obligados a presenciar el surgimiento de más herramientas para ayudar a que esta área de la tecnología sea un éxito, especialmente para resolver desafíos científicos diarios junto con propósitos educativos.

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Formulario de acceso

Filtro por Categorías