androide

▷ Intel xeon 【tutte le informazioni】

Sommario:

Anonim

Nel vasto catalogo di Intel possiamo trovare processori Intel Xeon, che sono i meno conosciuti dagli utenti per non essere focalizzati sul settore domestico. In questo articolo spieghiamo cosa sono questi processori e quali sono le differenze con quelli domestici.

Indice dei contenuti

Che cos'è Intel Xeon?

Xeon è un marchio di microprocessori x86 progettato, prodotto e commercializzato da Intel, destinato ai mercati di workstation, server e sistemi embedded. I processori Intel Xeon sono stati introdotti nel giugno 1998. I processori Xeon sono basati sulla stessa architettura delle normali CPU desktop, ma hanno alcune funzionalità avanzate come il supporto della memoria ECC, un numero maggiore di core, il supporto per grandi quantità di RAM., maggiore memoria cache e maggiore disponibilità di affidabilità, disponibilità e funzionalità di livello aziendale responsabili della gestione delle eccezioni hardware attraverso l'architettura Machine Check. Spesso sono in grado di continuare in modo sicuro l'esecuzione laddove un normale processore non può a causa delle loro caratteristiche RAS aggiuntive, a seconda del tipo e della gravità dell'eccezione di verifica della macchina. Alcuni sono anche compatibili con i sistemi multi-socket con 2, 4 o 8 socket utilizzando il bus Quick Path Interconnect.

Raccomandiamo di leggere il nostro post su AMD Ryzen - I migliori processori prodotti da AMD

Alcune carenze che rendono i processori Xeon inadatti alla maggior parte dei PC consumer includono frequenze più basse allo stesso prezzo, poiché i server eseguono più attività in parallelo rispetto ai desktop, i conteggi dei core sono più importanti delle frequenze di guardare, in genere l'assenza di un sistema GPU integrato e la mancanza di supporto per l'overclocking. Nonostante questi svantaggi, i processori Xeon sono sempre stati popolari tra gli utenti desktop, principalmente giocatori e utenti estremi, principalmente a causa del maggiore potenziale di conteggio dei core e di un rapporto prezzo / prestazioni più interessante rispetto al Core i7 in termini della potenza di calcolo totale di tutti i core. La maggior parte delle CPU Intel Xeon non ha una GPU integrata, il che significa che i sistemi costruiti con quei processori richiedono una scheda grafica discreta o una GPU separata se si desidera l'uscita del monitor.

Intel Xeon è una linea di prodotti diversa da Intel Xeon Phi, che prende il nome simile. Lo Xeon Phi di prima generazione è un tipo di dispositivo completamente diverso, più simile a una scheda grafica, poiché è progettato per uno slot PCI Express ed è destinato a essere utilizzato come coprocessore multi-core, come Nvidia Tesla. Nella seconda generazione, Xeon Phi divenne un processore principale più simile a Xeon. Si adatta allo stesso socket di un processore Xeon ed è compatibile con x86; tuttavia, rispetto a Xeon, il punto di progettazione di Xeon Phi enfatizza più core con una maggiore larghezza di banda di memoria.

Cosa sono gli scalabili Intel Xeon?

Grandi cambiamenti sono in corso nel data center dell'azienda. Molte organizzazioni stanno subendo una trasformazione diffusa basata su dati e servizi online, sfruttando quei dati per potenti applicazioni di analisi e intelligenza artificiale che possono trasformarli in idee che cambiano il business e quindi implementare strumenti e servizi che fanno funzionare tali idee.. Ciò richiede un nuovo tipo di infrastruttura di server e rete, ottimizzata per intelligenza artificiale, analisi, enormi set di dati e altro ancora, alimentata da una nuova CPU rivoluzionaria. Ecco dove entra in gioco la linea scalabile Xeon di Intel.

Intel Xeon Scalable rappresenta forse il più grande cambiamento di passo in vent'anni di CPU Xeon. Non è semplicemente un Xeon o Xeon più veloce con più core, ma una famiglia di processori progettata attorno a una sinergia tra capacità di elaborazione, rete e archiviazione, portando nuove funzionalità e miglioramenti delle prestazioni a tutti e tre.

Mentre Xeon Scalable offre un incremento delle prestazioni medio di 1, 6 volte rispetto alle CPU Xeon di generazione precedente, i vantaggi vanno oltre gli standard per coprire le ottimizzazioni del mondo reale per analisi, sicurezza, intelligenza artificiale ed elaborazione delle immagini. C'è più potenza per eseguire complessi ad alte prestazioni. Quando si tratta del data center, è una vittoria in ogni modo.

Forse il cambiamento più grande e più evidente è la sostituzione della vecchia architettura Xeon basata su anello, in cui tutti i core del processore erano collegati tramite un singolo anello, con una nuova architettura mesh o mesh. Ciò allinea i core con cache, RAM e I / O associati, in righe e colonne che si collegano ad ogni intersezione, consentendo ai dati di spostarsi in modo più efficiente da un core all'altro.

Se lo immagini in termini di un sistema di trasporto stradale, l'antica architettura Xeon era come una circolare ad alta velocità, in cui i dati che si spostano da un nucleo all'altro dovrebbero spostarsi attorno all'anello. La nuova architettura mesh è più simile a una griglia autostradale, solo una che consente al traffico di fluire alla massima velocità punto-punto senza congestione. Ciò ottimizza le prestazioni su attività multi-thread in cui diversi core possono condividere dati e memoria, aumentando al contempo l'efficienza energetica. Nel senso più elementare, è uno scopo dell'architettura creato per spostare grandi quantità di dati attorno a un processore che può avere fino a 28 core. Inoltre, è una struttura che viene espansa in modo più efficiente, indipendentemente dal fatto che si tratti di processori multipli o di nuove CPU con più core in seguito.

Se l'architettura mesh prevede lo spostamento dei dati in modo più efficiente, le nuove istruzioni di AVX-512 cercano di ottimizzare il modo in cui vengono elaborate. Basandosi sul lavoro che Intel ha iniziato con le sue prime estensioni SIMD nel 1996, AVX-512 consente di elaborare contemporaneamente ancora più elementi di dati rispetto all'AVX2 di prossima generazione, raddoppiando la larghezza di ciascun record e aggiungendone altri due per migliorare le prestazioni. AVX-512 consente il doppio delle operazioni in virgola mobile al secondo per ciclo di clock e può elaborare il doppio degli elementi di dati che AVX2 potrebbe avere nello stesso ciclo di clock.

Meglio ancora, queste nuove istruzioni sono specificamente progettate per accelerare le prestazioni in carichi di lavoro complessi e ad alta intensità di dati come simulazione scientifica, analisi finanziaria, apprendimento approfondito, elaborazione di immagini, audio e video e crittografia.. Ciò aiuta un processore scalabile Xeon a gestire le attività HPC più di 1, 6 volte più velocemente dell'equivalente della generazione precedente, o ad accelerare le operazioni di intelligenza artificiale e di apprendimento profondo di 2, 2 volte.

AVX-512 aiuta anche con l'archiviazione, accelerando le funzionalità chiave come deduplicazione, crittografia, compressione e decompressione in modo da poter fare un uso più efficiente delle risorse e rafforzare la sicurezza dei servizi cloud locali e privati.

In questo senso, AVX-512 funziona di pari passo con la tecnologia Intel QuickAssist (Intel QAT). QAT consente l'accelerazione hardware per la crittografia, l'autenticazione, la compressione e la decompressione dei dati, aumentando le prestazioni e l'efficienza dei processi che impongono requisiti elevati sull'infrastruttura di rete odierna e che aumenteranno solo con l'implementazione di più servizi strumenti digitali.

Utilizzato in combinazione con Software Defined Infrastructure (SDI), QAT può aiutarti a recuperare i cicli di CPU persi spesi in attività di sicurezza, compressione e decompressione in modo che siano disponibili per attività ad alta intensità computazionale che apportano valore reale al società. Poiché una CPU abilitata per QAT è in grado di gestire la compressione e la decompressione ad alta velocità, quasi gratuitamente, le applicazioni possono funzionare con i dati compressi. Questo non ha solo un ingombro di archiviazione inferiore, ma richiede meno tempo per il trasferimento da un'applicazione o sistema a un'altra.

Le CPU scalabili Intel Xeon si integrano con i chipset della serie C620 di Intel per creare una piattaforma per prestazioni bilanciate a livello di sistema. La connettività Intel Ethernet con iWARP RDMA è integrata e offre comunicazioni 4x10GbE a bassa latenza. La piattaforma offre 48 linee di connettività PCIe 3.0 per CPU, con 6 canali di RAM DDR4 per CPU con capacità di supporto fino a 768 GB a 1, 5 TB per CPU e velocità fino a 2666 MHz.

Lo stoccaggio riceve lo stesso generoso trattamento. C'è spazio per un massimo di 14 unità SATA3 e 10 porte USB3.1, per non parlare del controllo RAID NMMe virtuale incorporato della CPU. Il supporto per la tecnologia Intel Optane di prossima generazione aumenta ulteriormente le prestazioni di archiviazione, con notevoli effetti positivi sul database in memoria e sui carichi di lavoro analitici. E con Intel Xeon Scalable, il supporto del tessuto Omni-Path di Intel è integrato senza la necessità di una scheda di interfaccia discreta. Di conseguenza, i processori scalabili Xeon sono pronti per applicazioni a larghezza di banda elevata e bassa latenza nei cluster HPC.

Con Xeon Scalable, Intel ha fornito una linea di processori che soddisfano le esigenze dei data center di prossima generazione, ma cosa significa in pratica tutta questa tecnologia? Per i principianti, server in grado di gestire carichi di lavoro analitici più grandi a velocità più elevate, ottenendo informazioni più rapide da set di dati più grandi. Intel Xeon Scalable ha anche la capacità di archiviazione e calcolo per applicazioni avanzate di deep learning e machine learning, consentendo ai sistemi di allenarsi in ore, non giorni o "inferire" il significato di nuovi dati con maggiore velocità e precisione elaborare immagini, parole o testo.

Il potenziale per applicazioni di analisi e database in memoria, come SAP HANA, è enorme, con prestazioni fino a 1, 59 volte superiori quando si eseguono carichi di lavoro in memoria su Xeon di prossima generazione. Quando la tua azienda si affida alla raccolta di informazioni da vasti set di dati con fonti in tempo reale, ciò potrebbe essere sufficiente per offrirti un vantaggio competitivo.

Xeon Scalable ha le prestazioni, la memoria e la larghezza di banda del sistema per ospitare applicazioni HPC più grandi e complesse e trova soluzioni per problemi aziendali, scientifici e ingegneristici più complessi. Può offrire una transcodifica video più veloce e di qualità superiore durante lo streaming video a più clienti.

Un aumento della capacità di virtualizzazione potrebbe consentire alle organizzazioni di eseguire quattro volte più macchine virtuali su un server Xeon Scalable rispetto a un sistema di prossima generazione. Con un overhead quasi zero per la compressione, la decompressione e la crittografia dei dati inattivi, le aziende possono utilizzare la propria memoria in modo più efficace, rafforzando allo stesso tempo la sicurezza. Non si tratta solo di benchmark, ma di tecnologia che trasforma il modo in cui funziona il tuo data center e, nel farlo, anche la tua azienda.

Cos'è la memoria ECC?

ECC è un metodo per rilevare e quindi correggere errori di memoria a bit singolo. Un errore di memoria a bit singolo è un errore di dati nella produzione o produzione del server e la presenza di errori può avere un impatto notevole sulle prestazioni del server. Esistono due tipi di errori di memoria a bit singolo: errori hardware ed errori software. Gli errori fisici sono causati da fattori fisici, come eccessive variazioni di temperatura, stress o stress fisico che si verifica sui bit di memoria.

Si verificano errori lievi quando i dati vengono scritti o letti in modo diverso rispetto a quanto originariamente previsto, come variazioni della tensione della scheda madre, raggi cosmici o decadimento radioattivo che può causare il ritorno di bit in memoria volatile. Poiché i bit mantengono il loro valore programmato sotto forma di una carica elettrica, questo tipo di interferenza può alterare il carico sul bit di memoria, causando un errore. Sui server, esistono diversi punti in cui possono verificarsi errori: nell'unità di memoria, nel core della CPU, attraverso una connessione di rete e in vari tipi di memoria.

Per le workstation e i server in cui errori, corruzione dei dati e / o guasti del sistema devono essere evitati a tutti i costi, come nel settore finanziario, la memoria ECC è spesso la memoria preferita. Ecco come funziona la memoria ECC. Nell'informatica, i dati vengono ricevuti e trasmessi attraverso bit, la più piccola unità di dati in un computer, che sono espressi in codice binario usando uno o zero.

Quando i bit sono raggruppati insieme, creano un codice binario o "parole", che sono unità di dati che vengono instradate e si spostano tra la memoria e la CPU. Ad esempio, un codice binario a 8 bit è 10110001. Con la memoria ECC, esiste un bit ECC aggiuntivo, noto come bit di parità. Questo bit di parità aggiuntivo provoca la lettura del codice binario 101100010, dove l'ultimo zero è il bit di parità e viene utilizzato per identificare gli errori di memoria. Se la somma di tutti gli 1 in una riga di codice è un numero pari (escluso il bit di parità), la riga di codice viene chiamata parità pari. Il codice privo di errori ha sempre parità. Tuttavia, la parità ha due limiti: è in grado di rilevare solo numeri dispari di errori (1, 3, 5, ecc.) E consente il passaggio di un numero pari di errori (2, 4, 6, ecc.). La parità non può nemmeno correggere gli errori, può solo rilevarli. Ecco dove entra in gioco la memoria ECC.

La memoria ECC utilizza bit di parità per archiviare il codice crittografato durante la scrittura di dati in memoria e il codice ECC viene archiviato contemporaneamente. Quando i dati vengono letti, il codice ECC memorizzato viene confrontato con il codice ECC generato al momento della lettura dei dati. Se il codice letto non corrisponde al codice memorizzato, viene decrittografato dai bit di parità per determinare quale bit era in errore, quindi questo bit viene corretto immediatamente. Man mano che i dati vengono elaborati, la memoria ECC esegue costantemente la scansione del codice con un algoritmo speciale per rilevare e correggere errori di memoria a bit singolo.

In settori mission-critical come il settore finanziario, la memoria ECC può fare una grande differenza. Immagina di modificare le informazioni in un account cliente riservato e di scambiarle con altre istituzioni finanziarie. Mentre invii i dati, diciamo che una cifra binaria viene lanciata da un qualche tipo di interferenza elettrica. La memoria del server ECC aiuta a preservare l'integrità dei dati, previene il danneggiamento dei dati e previene arresti anomali e guasti del sistema.

Si consiglia di leggere:

Questo termina il nostro articolo su Intel Xeon e tutto ciò che devi sapere su questi nuovi processori, ricorda di condividerlo sui social media in modo che possa aiutare più utenti che ne hanno bisogno.

androide

Scelta dell'editore

Back to top button