processori

Nnp, dlboost e keem bay, nuovi chip Intel per reti ia e neurali

Sommario:

Anonim

Intel ha annunciato il nuovo hardware dedicato al suo evento AI Summit il 12 novembre lontano dal mercato di massa, NNP, DLBoost e Keem Bay. Questi prodotti sono senza dubbio il culmine di oltre tre anni di lavoro dalle acquisizioni di Movidius e Nervana nella seconda metà del 2016 e la creazione del loro gruppo AI Products, guidato da Naveen Rao, co-fondatore di Nervana.

NNP, DLBoost e Keem Bay, nuovi chip Intel per reti AI e neurali

Rao ha osservato che Intel è già un grande attore nel settore AI e che le sue entrate AI nel 2019 supereranno i 3, 5 miliardi di dollari, rispetto a oltre 1 miliardo di dollari nel 2017. Intel ha già hardware diverso per tutti. Frontali OpenVINO per IOt, FPGA Agilex, Ice Lake su PC, DLBoost da Cascade Lake, e ancora di più, la sua futura grafica discreta.

Processori: DLBoost

Intel ha dimostrato la compatibilità con bfloat16 a Cooper Lake 56-core che uscirà il prossimo anno come parte della sua gamma di funzioni AI DLBoost nei suoi processori. Bfloat16 è un formato numerico che raggiunge una precisione simile a quella del punto di precisione a virgola mobile (FP32) nella formazione AI.

Intel non ha fornito una stima del miglioramento delle prestazioni, ma ha affermato che, ai fini dell'inferenza, Cooper Lake è 30 volte più veloce di Skylake-SP. Sul lato PC, Ice Lake incorpora le stesse istruzioni DLBoost AVX-512_VNNI presenti anche in Cascade Lake.

Movidius: Keem Bay VPU

Come parte della sua strategia verso l'intelligenza artificiale, come telecamere intelligenti, robot, droni e VR / AR, Intel ha acquisito Movidius nel 2016. Movidius chiama i suoi chip a bassa potenza "unità di elaborazione della visione" (VPU). Sono dotati di funzionalità di elaborazione del segnale di immagine (ISP), acceleratori hardware, processori MIPS e processori vettoriali programmabili a 128 bit (VLIW) chiamati core SHAVE.

Visita la nostra guida sui migliori processori sul mercato

Intel ha ora dettagliato ciò che chiama Intel Movidius VPU 'Gen 3' nome in codice Keem Bay. Secondo Intel, ha prestazioni di inferenza oltre 10 volte superiori a quelle del Myriad X e consuma la stessa quantità di energia.

Nervana Neural Network Processors (NNP)

Intel dispone di NNP per la formazione e l'inferenza della rete neurale profonda. L'NNP-I di Intel per inferenza si basa su due core Ice Lake Sunny Cove e dodici core acceleratore ICE. Intel afferma che fornirà grandi prestazioni per watt e densità di calcolo. Nel suo fattore di forma M.2, è in grado di 50 TOP a 12 W, che equivale a 4.8 TOP / W, come precedentemente annunciato. Intel ha rivelato che il fattore di forma della scheda PCIe consuma 75 W e produce fino a 170 TOP (con precisione INT8).

Intel ha ribadito la sua elevata efficienza di ridimensionamento quasi lineare del 95% per 32 schede, rispetto al 73% per Nvidia.

Intel ha preparato un vasto assortimento di chip per tutti i fronti, AI, 5G, reti neurali, guida autonoma, ecc., In un mercato che quest'anno ha generato entrate stimate a 10 miliardi di dollari. Vi terremo informati.

Carattere Tomshardware

processori

Scelta dell'editore

Back to top button