LinuxParty
Muy pocos sistemas que no sean servidores ejecutan software que podría denominarse aprendizaje automático (ML) e inteligencia artificial (AI). Sin embargo, las aplicaciones de clase de servidor "AI on the Edge" están llegando a los dispositivos integrados, y Arm tiene la intención de luchar con Intel y AMD por cada uno de ellos.
Arm anunció recientemente una nueva arquitectura Cortex-A76 que pretende impulsar el procesamiento de algoritmos de AI y ML en dispositivos informáticos de vanguardia por un factor de cuatro. Esto no incluye ganancias de rendimiento ML prometidas por la nueva GPU Mali-G76. También hay una VPU Mali-V76 diseñada para video de alta resolución. Los diseños Cortex-A76 y Mali están diseñados para "complementar" los procesadores Trillium Machine Learning de Arm's Project (ver a continuación).
Desempeño mejorado
El Cortex-A76 difiere de los diseños Cortex-A73 y Cortex-A75 en que está diseñado tanto para computadoras portátiles como para teléfonos inteligentes y dispositivos integrados de alta gama. Cortex-A76 ofrece "un 35 por ciento más de rendimiento año tras año", en comparación con Cortex-A75, afirma Arm. Se dice que el IP, que se espera que llegue en productos dentro de un año, también brinda una eficiencia mejorada del 40 por ciento.
Al igual que Cortex-A75, que es equivalente a los últimos núcleos Kyro disponibles en Snapdragon 845 de Qualcomm , el Cortex-A76 es compatible con DynamIQ , la versión más flexible de Arm de su esquema Big.Little multi-core. A diferencia del Cortex-A75, que se anunció con un chip complementario Cortex-A55, Arm no tenía un nuevo compañero DynamIQ para el Cortex-A76.
Se dice que las mejoras de Cortex-A76 incluyen la predicción de derivación desacoplada y la captación de instrucción, así como el primer núcleo de decodificación de 4 canales de Arm, que aumenta la instrucción máxima por capacidad de ciclo. También hay un mayor rendimiento de ejecución de enteros y vectores, incluido soporte para unidades nativas de 16 bits (128 bits) de doble emisión y unidades de punto flotante. Finalmente, la nueva jerarquía de la memoria caché completa se "cooptimiza para la latencia y el ancho de banda", dice Arm.
A diferencia de las últimas versiones de gama alta Cortex-A, Cortex-A76 representa "una nueva microarquitectura", dice Arm. Esto es confirmado por el análisis de inmersión profunda habitual de AnandTech . Cortex-A73 y -A75 debutaron elementos de la nueva arquitectura "Artemis", pero el Cortex-A76 está construido desde cero con Artemis.
El Cortex-A76 debería llegar en productos TSMC fabricados a 7 nm que funcionan a 3GHz, dice AnandTech. Las mejoras 4x en las cargas de trabajo ML se deben principalmente a las nuevas optimizaciones en las tuberías ASIMD "y cómo se manejan los productos dot", dice la historia.
Mientras tanto, The Register destacó que Cortex-A76 es el primer diseño de Arm que ejecutará exclusivamente código de kernel de 64 bits. Los núcleos admitirán código de 32 bits, pero solo en niveles no privilegiados, dice la historia. GPU Mali-G76 y VPU Mali-G72
La nueva GPU Mali- G76 anunciada con Cortex-A76 apunta a juegos, VR, AR y ML en el dispositivo . Se dice que el Mali-G76 proporciona un 30 por ciento más de eficiencia y densidad de rendimiento y un rendimiento mejorado de 1.5 veces para los juegos móviles. La arquitectura GPU de Bifrost también proporciona mejoras de rendimiento 2.7x ML en comparación con el Mali-G72, que se anunció el año pasado con el Cortex-A75.
La VPU Mali-V76 es compatible con las experiencias de visualización UHD 8K. Está dirigido a paredes de video 4x4, que son especialmente populares en China y está diseñado para admitir la cobertura de video 8K, que Japón promete para los Juegos Olímpicos de 2020. Las secuencias 8K @ 60 requieren cuatro veces el ancho de banda de 4K @ 60 transmisiones. Para lograr esto, Arm agregó un bus AXI adicional y duplicó los buffers de línea a lo largo de la canalización de video. La VPU también es compatible con la decodificación 8K @ 30. El chip ML de Project Trillium detallado
Anteriormente, Arm había revelado otros detalles sobre el procesador Machine Learning (ML) , también conocido como MLP. El chip ML acelerará las aplicaciones de inteligencia artificial, incluidas la traducción automática y el reconocimiento facial.
La nueva arquitectura de procesador es parte de la iniciativa Project Trillium para AI, y sigue el procesador Object Detection (OD) de segunda generación de Arm para optimizar el procesamiento visual y la detección de personas / objetos. El diseño de ML inicialmente se estrenará como un coprocesador en teléfonos móviles para finales de 2019.
Numerosos diagramas de bloques para el MLP fueron publicados por AnandTech , que fue informado sobre el diseño. Aunque afirma que cualquier juicio sobre el rendimiento del IP de ML aún inacabado requerirá la liberación de silicio del próximo año, la publicación dice que el chip ML parece verificar todos los requisitos de un acelerador de red neuronal, incluyendo proporcionar cálculos convolucionales eficientes y movimiento de datos mientras también habilitando suficiente programabilidad.
Arm afirma que los chips proporcionarán un rendimiento de> 3TOP por Watt en diseños de 7nm con una producción absoluta de 4.6TOP, obteniendo una potencia objetivo de aproximadamente 1.5W. Para la programabilidad, MLP apuntará inicialmente a la API de redes neuronales de Android y al SDK NN de Arm .
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores