Nvidia 【tutte le informazioni】
Sommario:
- Storia di Nvidia
- Nvidia GeForce e Nvidia Pascal, dominando il gioco
- Intelligenza artificiale e architettura Volta
- Il futuro di Nvidia passa attraverso Turing e Ampere
- NVIDIA G-Sync, ponendo fine ai problemi di sincronizzazione delle immagini
Nvidia Corporation, più comunemente nota come Nvidia, è una società tecnologica americana costituita nel Delaware e con sede a Santa Clara, California. Nvidia progetta unità di elaborazione grafica per videogiochi e mercati professionali, nonché un sistema di chip unit (SoC) per il mercato automobilistico e mobile. La sua linea di prodotti principale, GeForce, è in diretta concorrenza con i prodotti Radeon di AMD.
Ti consigliamo di leggere le nostre migliori guide hardware e componenti per PC:
Oltre a produrre GPU, Nvidia offre capacità di elaborazione parallele in tutto il mondo a ricercatori e scienziati, consentendo loro di eseguire in modo efficiente applicazioni ad alte prestazioni. Più recentemente, è entrato nel mercato dell'informatica mobile, dove produce processori mobili Tegra per console per videogiochi, tablet e sistemi di navigazione autonomi e di intrattenimento per veicoli. Ciò ha portato Nvidia a diventare un'azienda focalizzata su quattro mercati dal 2014 : giochi, visualizzazione professionale, data center, intelligenza artificiale e automobili.
Indice dei contenuti
Storia di Nvidia
Nvidia è stata fondata nel 1993 da Jen-Hsun Huang, Chris Malachowsky e Curtis Priem. I tre co-fondatori dell'azienda hanno ipotizzato che la giusta direzione per il calcolo sarebbe passata attraverso l'elaborazione accelerata dalla grafica, credendo che questo modello di calcolo potesse risolvere problemi che il calcolo per scopi generici non poteva risolvere. Hanno anche notato che i videogiochi sono alcuni dei problemi più complessi dal punto di vista computazionale e che hanno volumi di vendita incredibilmente alti.
Da una piccola azienda di videogiochi a un gigante dell'intelligenza artificiale
La società è nata con un capitale iniziale di $ 40.000, inizialmente non aveva un nome e i co-fondatori hanno nominato tutti i suoi file NV, come nella "prossima versione". La necessità di incorporare la società indusse i co-fondatori a rivedere tutte le parole con quelle due lettere, il che le portò a "invidia", la parola latina che significa "invidia".
Il lancio di RIVA TNT nel 1998 ha consolidato la reputazione di Nvidia nello sviluppo di adattatori grafici. Alla fine del 1999, Nvidia ha rilasciato la GeForce 256 (NV10), che ha introdotto in particolare la trasformazione e l'illuminazione (T&L) a livello di consumatore nell'hardware 3D. Funzionando a 120 MHz e con quattro linee di pixel, ha implementato l'accelerazione video avanzata, la compensazione del movimento e la fusione di sub-immagini hardware. GeForce ha sovraperformato i prodotti esistenti con un ampio margine.
Grazie al successo dei suoi prodotti, Nvidia ha vinto il contratto per lo sviluppo dell'hardware grafico per la console di gioco Xbox di Microsoft, guadagnando a Nvidia un anticipo di $ 200 milioni. Tuttavia, il progetto ha preso molti dei suoi migliori ingegneri da altri progetti. A breve termine, questo non aveva importanza e GeForce2 GTS fu spedito nell'estate del 2000. Nel dicembre 2000, Nvidia raggiunse un accordo per acquisire le risorse intellettuali del suo unico rivale 3dfx, un pioniere della tecnologia grafica 3D per il consumatore. che ha guidato il campo dalla metà degli anni '90 al 2000. Il processo di acquisizione è terminato nell'aprile 2002.
Nel luglio 2002, Nvidia ha acquisito Exluna per una somma di denaro non divulgata. Exluna era responsabile della creazione di vari strumenti di rendering software. Successivamente, nell'agosto 2003, Nvidia ha acquisito MediaQ per circa $ 70 milioni. E ha anche acquisito iReady, un fornitore di soluzioni offload TCP / IP e iSCSI ad alte prestazioni il 22 aprile 2004.
Il successo di Nvidia nel mercato dei videogiochi fu così grande, che nel dicembre 2004 fu annunciato che avrebbe aiutato la Sony a progettare il processore grafico RSX di PlayStation 3, la console di videogiochi di nuova generazione dell'azienda giapponese che aveva il difficile compito di ripetere il successo del suo predecessore, il più venduto della storia.
Nel dicembre 2006, Nvidia ha ricevuto citazioni dal Dipartimento di Giustizia degli Stati Uniti. Rispetto alle possibili violazioni dell'antitrust nel settore delle schede grafiche. A quel tempo AMD era diventato il suo grande rivale, dopo l'acquisto di ATI da parte di quest'ultimo. Da allora AMD e Nvidia sono stati i soli produttori di schede grafiche per videogiochi, senza dimenticare i chip integrati di Intel.
Forbes ha nominato Nvidia la migliore compagnia dell'anno per il 2007, citando i risultati raggiunti negli ultimi cinque anni. Il 5 gennaio 2007, Nvidia ha annunciato di aver completato l'acquisizione di PortalPlayer, Inc. e, nel febbraio 2008, Nvidia ha acquisito Ageia, sviluppatore del motore fisico PhysX e unità di elaborazione fisica che eseguiva questo motore. Nvidia ha annunciato l'intenzione di integrare la tecnologia PhysX nei suoi futuri prodotti GPU GeForce.
Nvidia ha dovuto affrontare grandi difficoltà a luglio 2008, quando ha ricevuto una riduzione delle entrate di circa $ 200 milioni dopo che è stato riferito che alcuni chipset e GPU mobili prodotti dalla società avevano tassi di guasto anomali a causa di difetti di fabbricazione. Nel settembre 2008, Nvidia è diventata oggetto di un'azione legale di classe da parte delle persone colpite, sostenendo che le GPU difettose erano state incorporate in alcuni modelli di notebook prodotti da Apple, Dell e HP. La soap opera si è conclusa nel settembre 2010, quando Nvidia ha raggiunto un accordo in base al quale i proprietari dei laptop interessati sarebbero stati rimborsati per il costo delle riparazioni o, in alcuni casi, della sostituzione del prodotto.
Nel novembre 2011, Nvidia ha rilasciato il suo sistema di chip ARG Tegra 3 per dispositivi mobili dopo averlo presentato inizialmente al Mobile World Congress. Nvidia ha affermato che il chip presentava la prima CPU mobile quad-core. Nel gennaio 2013, Nvidia ha introdotto Tegra 4 e Nvidia Shield, una console di gioco portatile basata su Android alimentata dal nuovo processore.
Il 6 maggio 2016 Nvidia ha presentato le schede grafiche GeForce GTX 1080 e 1070, la prima basata sulla nuova microarchitettura Pascal. Nvidia ha affermato che entrambi i modelli hanno sovraperformato il loro modello Titan X basato su Maxwell. Queste schede incorporano rispettivamente la memoria GDDR5X e GDDR5 e utilizzano un processo di fabbricazione a 16 nm. L'architettura Pascal supporta anche una nuova funzionalità hardware nota come simultanea proiezione multipla (SMP), progettata per migliorare la qualità del multi-monitor e del rendering della realtà virtuale. Pascal ha permesso la produzione di laptop che soddisfano lo standard di progettazione Max-Q di Nvidia.
Nel maggio 2017, Nvidia ha annunciato una partnership con Toyota Motor Corp in base alla quale quest'ultima utilizzerà la piattaforma di intelligenza artificiale della serie Drive X di Nvidia per i suoi veicoli autonomi. Nel luglio 2017, Nvidia e il colosso della ricerca cinese Baidu, Inc. hanno annunciato una potente partnership AI che include cloud computing, guida autonoma, dispositivi di consumo e il framework AI di Baidu, PaddlePaddle.
Nvidia GeForce e Nvidia Pascal, dominando il gioco
GeForce è il marchio per le schede grafiche basate su unità di elaborazione grafica (GPU) create da Nvidia dal 1999. Ad oggi, la serie GeForce ha conosciuto sedici generazioni sin dal suo inizio. Le versioni incentrate sugli utenti professionali di queste schede sono denominate Quadro e includono alcune funzionalità di differenziazione a livello di conducente. La competizione diretta di GeForce è AMD con le sue carte Radeon.
Pascal è il nome in codice dell'ultima microarchitettura GPU sviluppata da Nvidia che è entrata nel mercato dei videogiochi, come successore della precedente architettura Maxwell. L'architettura Pascal è stata introdotta per la prima volta ad aprile 2016 con il lancio di Tesla P100 per server il 5 aprile 2016. Attualmente Pascal è utilizzato principalmente nella serie GeForce 10, con GeForce GTX 1080 e GTX essendo Le prime 1070 schede per videogiochi sono state rilasciate con questa architettura, rispettivamente il 17 maggio 2016 e il 10 giugno 2016. Pascal è prodotto utilizzando il processo FinFET a 16 nm di TSMC, che consente di offrire efficienza energetica e prestazioni di gran lunga superiori rispetto a Maxwell, prodotto a FinFET a 28 nm.
L'architettura Pascal è organizzata internamente in ciò che è noto come streaming multiprocessore ( SM), unità funzionali composte da 64 core CUDA, che a loro volta sono divise in due blocchi di elaborazione da 32 core CUDA ciascuno di questi e accompagnati da un buffer di istruzioni, un pianificatore di curvatura, 2 unità di mappatura delle trame e 2 unità di spedizione. Queste unità SM sono l'equivalente delle CU di AMD.
L'architettura Pascal di Nvidia è stata progettata per essere la più efficiente e avanzata nel mondo dei giochi. Il team di ingegneri di Nvidia ha fatto molti sforzi per creare un'architettura GPU in grado di raggiungere velocità di clock molto elevate, pur mantenendo un consumo di energia ridotto. Per raggiungere questo obiettivo, è stato scelto un design molto accurato e ottimizzato in tutti i suoi circuiti, il che ha permesso a Pascal di raggiungere una frequenza del 40% superiore a Maxwell, una cifra molto più elevata di quella che il processo avrebbe consentito a 16 nm senza tutte le ottimizzazioni a livello di progettazione.
La memoria è un elemento chiave nelle prestazioni di una scheda grafica, la tecnologia GDDR5 è stata annunciata nel 2009, quindi è già diventata obsoleta per le schede grafiche più potenti di oggi. Questo è il motivo per cui Pascal supporta la memoria GDDR5X, che era lo standard di interfaccia di memoria più veloce e avanzato della storia al momento del lancio di queste schede grafiche, raggiungendo velocità di trasferimento fino a 10 Gbps o quasi 100 picosecondi tra i bit. di dati. La memoria GDDR5X consente inoltre alla scheda grafica di consumare meno energia rispetto a GDDR5, poiché la tensione di funzionamento è di 1, 35 V, rispetto a 1, 5 V o anche di più di cui hanno bisogno i chip GDDR5 più veloci. Questa riduzione della tensione si traduce in una frequenza operativa superiore del 43% con lo stesso consumo di energia.
Un'altra importante innovazione Pascal deriva dalle tecniche di compressione della memoria senza perdita di prestazioni, che riduce la richiesta di larghezza di banda da parte della GPU. Pascal include la quarta generazione della tecnologia di compressione del colore delta. Con la compressione del colore delta, la GPU analizza le scene per calcolare i pixel le cui informazioni possono essere compresse senza sacrificare la qualità della scena. Mentre l'architettura Maxwell non è stata in grado di comprimere i dati relativi ad alcuni elementi, come vegetazione e parti dell'auto nel gioco Project Cars, Pascal è in grado di comprimere la maggior parte delle informazioni su questi elementi, essendo quindi molto più efficiente di Maxwell. Di conseguenza, Pascal è in grado di ridurre significativamente il numero di byte che devono essere estratti dalla memoria. Questa riduzione di byte si traduce in un ulteriore 20% di larghezza di banda effettiva, con un aumento di 1, 7 volte la larghezza di banda con l'uso della memoria GDDR5X rispetto all'architettura GDDR5 e Maxwell.
Pascal offre anche importanti miglioramenti in relazione al calcolo asincrono, cosa molto importante poiché attualmente i carichi di lavoro sono molto complessi. Grazie a questi miglioramenti, l'architettura Pascal è più efficiente nel distribuire il carico tra tutte le sue diverse unità SM, il che significa che quasi non ci sono core CUDA inutilizzati. Ciò consente all'ottimizzazione della GPU di essere molto maggiore, sfruttando meglio tutte le risorse che ha.
La tabella seguente riassume le caratteristiche più importanti di tutte le carte GeForce basate su Pascal.
SCHEDE GRAFICHE NVIDIA GEFORCE PASCAL |
||||||
Core CUDA | Frequenze (MHz) | memoria | Interfaccia di memoria | Larghezza di banda di memoria (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | GDDR5 da 2 GB | 64 bit | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | GDDR5 da 2 GB | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | GDDR5 da 4 GB | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | GDDR5 da 3 GB | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | GDDR5 da 6 GB | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | GDDR5 da 8 GB | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | GDDR5 da 8 GB | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | GDDR5X da 8 GB | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | GDDR5X da 11 GB | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | GDDR5X da 12 GB | 384 bit | 547 | 250 |
Intelligenza artificiale e architettura Volta
Le GPU di Nvidia sono ampiamente utilizzate nei campi del deep learning, dell'intelligenza artificiale e dell'analisi accelerata di grandi quantità di dati. La società ha sviluppato l'apprendimento profondo basato sulla tecnologia GPU, al fine di utilizzare l'intelligenza artificiale per affrontare problemi come il rilevamento del cancro, le previsioni meteorologiche e i veicoli a guida autonoma, come il famoso Tesla.
L'obiettivo di Nvidia è aiutare le reti a imparare a "pensare ". Le GPU di Nvidia funzionano eccezionalmente bene per le attività di deep learning perché sono progettate per il calcolo parallelo e funzionano bene per gestire le operazioni vettoriali e matriciali prevalenti nel deep learning. Le GPU dell'azienda sono utilizzate da ricercatori, laboratori, società tecnologiche e imprese. Nel 2009, Nvidia ha partecipato a quello che è stato chiamato il big bang per il deep learning, poiché le reti neurali di deep learning sono state combinate con le unità di elaborazione grafica dell'azienda. Nello stesso anno, Google Brain ha utilizzato le GPU di Nvidia per creare reti neurali profonde in grado di apprendimento automatico, dove Andrew Ng ha determinato che potevano aumentare la velocità dei sistemi di apprendimento profondo di 100 volte.
Nell'aprile 2016, Nvidia ha introdotto il supercomputer DGX-1 basato su cluster a 8 GPU per migliorare la capacità degli utenti di utilizzare il deep learning combinando GPU con software appositamente progettato. Nvidia ha inoltre sviluppato le macchine virtuali Nvidia Tesla K80 e P100 basate su GPU, disponibili tramite Google Cloud, che Google ha installato a novembre 2016. Microsoft ha aggiunto server basati sulla tecnologia GPU di Nvidia in un'anteprima della sua serie N, basato sulla scheda Tesla K80. Nvidia ha inoltre collaborato con IBM per creare un kit software che aumenta le capacità di intelligenza artificiale delle sue GPU. Nel 2017, le GPU di Nvidia sono state anche portate online presso il RIKEN Center for the Advanced Intelligence Project per Fujitsu.
Nel maggio 2018, i ricercatori del dipartimento di intelligenza artificiale di Nvidi a hanno realizzato la possibilità che un robot potesse imparare a fare un lavoro semplicemente osservando la persona che faceva lo stesso lavoro. Per raggiungere questo obiettivo, hanno creato un sistema che, dopo una breve revisione e test, può ora essere utilizzato per controllare i robot universali di prossima generazione.
Volta è il nome in codice per la microarchitettura GPU più avanzata sviluppata da Nvidia, è l'architettura successiva di Pascal ed è stata annunciata come parte di una futura ambizione roadmap nel marzo 2013. L'architettura prende il nome da Alessandro Volta, fisico, chimico e inventore della batteria elettrica. L'architettura Volta non ha raggiunto il settore dei giochi, sebbene lo abbia fatto con la scheda grafica Nvidia Titan V, focalizzata sul settore consumer e che può essere utilizzata anche nelle apparecchiature di gioco.
Questo Nvidia Titan V è una scheda grafica basata su core GV100 e tre stack di memoria HBM2, tutto in un unico pacchetto. La scheda ha un totale di 12 GB di memoria HBM2 che funziona attraverso un'interfaccia di memoria a 3072 bit. La sua GPU contiene oltre 21 milioni di transistor, 5.120 core CUDA e 640 core Tensor per fornire 110 prestazioni TeraFLOPS nel deep learning. Le sue frequenze operative sono 1200 MHz di base e 1455 MHz in modalità turbo, mentre la memoria funziona a 850 MHz, offrendo una larghezza di banda di 652, 8 GB / s. È stata recentemente annunciata una versione CEO Edition che aumenta la memoria fino a 32 GB.
La prima scheda grafica prodotta da Nvidia con l'architettura Volta è stata la Tesla V100, che fa parte del sistema Nvidia DGX-1. Tesla V100 utilizza il core GV100 che è stato rilasciato il 21 giugno 2017. La GPU Volta GV100 è costruita in un processo di produzione FinFET a 12 nm , con 32 GB di memoria HBM2 in grado di fornire fino a 900 GB / s di larghezza di banda.
Volta dà vita anche all'ultimo SoC Nvidia Tegra, chiamato Xavier, annunciato il 28 settembre 2016. Xavier contiene 7 miliardi di transistor e 8 core ARMv8 personalizzati, insieme a una GPU Volta con 512 core CUDA e un TPU di open source (Tensor Processing Unit) chiamato DLA (Deep Learning Accelerator). Xavier è in grado di codificare e decodificare video con risoluzione Ultra HD 8K (7680 × 4320 pixel) in tempo reale, il tutto con un TDP di 20-30 watt e una dimensione dello stampo stimata in circa 300 mm2 grazie al processo di produzione 12. nm FinFET.
L'architettura Volta è caratterizzata dal fatto di essere il primo a includere il Tensor Core, core appositamente progettati per offrire prestazioni molto superiori nelle attività di deep learning rispetto ai normali core CUDA. Un Tensor Core è un'unità che moltiplica due matrici 4 × 4 FP16 e quindi aggiunge una terza matrice FP16 o FP32 al risultato, utilizzando le operazioni di addizione e moltiplicazione unite, ottenendo un risultato FP32 che potrebbe eventualmente essere declassato a un risultato FP16. I nuclei tensoriali hanno lo scopo di accelerare l'allenamento della rete neurale.
Volta si distingue anche per l'inclusione dell'interfaccia proprietaria avanzata NVLink, che è un protocollo di comunicazione basato su filo per comunicazioni a semiconduttore a corto raggio sviluppato da Nvidia, che può essere utilizzato per i trasferimenti di codice dati e il controllo nei sistemi di processore basati su CPU e GPU e quelli basati esclusivamente su GPU. NVLink specifica una connessione da punto a punto con velocità dati di 20 e 25 Gb / s per corsia dati e per indirizzo nella sua prima e seconda versione. La velocità totale dei dati nei sistemi del mondo reale è di 160 e 300 GB / s per la somma totale dei flussi di dati di input e output. I prodotti NVLink presentati fino ad oggi si concentrano sullo spazio applicativo ad alte prestazioni. NVLINK è stato annunciato per la prima volta a marzo 2014 e utilizza un'interconnessione di segnalazione proprietaria ad alta velocità sviluppata e sviluppata da Nvidia.
La seguente tabella riassume le caratteristiche più importanti delle carte basate su Volta:
SCHEDE GRAFICHE NVIDIA VOLTA |
||||||||
Core CUDA | Tensore core | Frequenze (MHz) | memoria | Interfaccia di memoria | Larghezza di banda di memoria (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | HBM2 da 32 GB | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | HBM2 da 12 GB | 3.072 bit | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | HBM2 da 32 GB | 4.096 bit | 900 | 250 |
Il futuro di Nvidia passa attraverso Turing e Ampere
Le due future architetture Nvidia saranno Turing e Ampere secondo tutte le voci che sono apparse fino ad oggi, è possibile che quando leggi questo post, una di esse sia già stata ufficialmente annunciata. Per ora, non si sa nulla di certo su queste due architetture, anche se si dice che Turing sarebbe una versione semplificata di Volta per il mercato dei giochi, infatti si prevede che arriverà con lo stesso processo di produzione a 12 nm.
Ampere sembra l'architettura successiva di Turing, anche se potrebbe essere anche il successore di Volta nel settore dell'intelligenza artificiale. Non si sa assolutamente nulla, anche se sembra logico aspettarsi che arrivi a 7 nm. Le voci suggeriscono che Nvidia annuncerà le sue nuove carte GeForce a Gamecom nel prossimo mese di agosto, solo allora lasceremo dubbi su ciò che saranno Turing o Ampere, se davvero nasceranno.
NVIDIA G-Sync, ponendo fine ai problemi di sincronizzazione delle immagini
G-Sync è una tecnologia di sincronizzazione adattiva proprietaria sviluppata da Nvidia, il cui obiettivo principale è eliminare la lacerazione dello schermo e la necessità di alternative sotto forma di software come Vsync. G-Sync elimina lo strappo dello schermo costringendolo ad adattarsi al framerate del dispositivo di output, la scheda grafica, piuttosto che il dispositivo di output adattandosi allo schermo, causando la rottura dell'immagine lo schermo.
Perché un monitor sia compatibile con G-Sync, deve contenere un modulo hardware venduto da Nvidia. AMD (Advanced Micro Devices) ha rilasciato una tecnologia simile per i display, chiamata FreeSync, che ha la stessa funzione di G-Sync ma non richiede alcun hardware specifico.
Nvidia ha creato una funzione speciale per evitare la possibilità che un nuovo fotogramma sia pronto mentre si disegna un duplicato sullo schermo, qualcosa che può generare ritardo e / o balbuzie, il modulo anticipa l'aggiornamento e attende il completamento del fotogramma successivo. Anche il sovraccarico di pixel diventa fuorviante in uno scenario di aggiornamento non fisso e le soluzioni prevedono quando avverrà il prossimo aggiornamento, quindi il valore di overdrive dovrebbe essere implementato e regolato per ciascun pannello al fine di evitare il ghosting.
Il modulo si basa su un FPGA della famiglia Altera Arria V GX con elementi logici 156K, 396 blocchi DSP e 67 canali LVDS. Viene prodotto nel processo TSMC 28LP ed è combinato con tre chip per un totale di 768 MB di DRAM DDR3L, per ottenere una certa larghezza di banda. L'FPGA utilizzato presenta anche un'interfaccia LVDS per controllare il pannello del monitor. Questo modulo è destinato a sostituire gli scalatori comuni e ad essere facilmente integrato dai produttori di monitor, che devono solo occuparsi della scheda del circuito di alimentazione e dei collegamenti di ingresso.
G-Sync ha affrontato alcune critiche a causa della sua natura proprietaria e del fatto che è ancora promosso quando esistono alternative gratuite, come lo standard VESA Adaptive-Sync, che è una funzionalità opzionale di DisplayPort 1.2a. Mentre AMS FreeSync è basato su DisplayPort 1.2a, G-Sync richiede un modulo realizzato da Nvidia invece del solito scaler su schermo per le schede grafiche Nvidia GeForce per funzionare correttamente, essendo compatibile con Kepler, Maxwell, Pascal e microarchitettura. Volta.
Il passo successivo è stato fatto con la tecnologia G-Sync HDR, che come suggerisce il nome, aggiunge funzionalità HDR per migliorare notevolmente la qualità dell'immagine del monitor. Per renderlo possibile, è stato fatto un salto significativo nell'hardware. Questa nuova versione G-Sync HDR utilizza un Intel Altera Arria 10 GX 480 FPGA, un processore altamente avanzato e altamente programmabile che può essere codificato per una vasta gamma di applicazioni, che è accompagnato da 3 GB di memoria DDR4 2400MHz prodotta da Micron. Ciò rende il prezzo di questi monitor più costoso.
Qui termina il nostro post su tutto ciò che devi sapere su Nvidia. Ricorda che puoi condividerlo sui social network in modo che raggiunga più utenti. Puoi anche lasciare un commento se hai qualche suggerimento o qualcosa da aggiungere.
Tutte le informazioni su tablet yoga lenovo
Tutto sul primo tablet della gamma Lenovo Yoga: caratteristiche tecniche, immagini, batteria, fotocamera, disponibilità e prezzo.
Nvidia rtx 【tutte le informazioni】
Abbiamo già con noi le nuove schede grafiche NVIDIA RTX. Dal modello di punta: NVIDIA RTX 2080 Ti, al modello per la maggior parte dei giocatori in 4K:
▷ Nvidia quadro 【tutte le informazioni】?
Tutte le informazioni sulle schede grafiche professionali Nvidia Quadro: caratteristiche, design, prestazioni, vantaggi e svantaggi ✅