Esercitazioni

▷ Cos'è la latenza del computer e come misurarla

Sommario:

Anonim

Sicuramente molti di coloro che hanno una connessione Internet e non sanno ancora quale sia la latenza, o meglio, il concetto di latenza. La latenza è presente in ognuno dei componenti che compongono un sistema informatico e non solo in una rete Internet. Quindi oggi proveremo a definire cos'è la latenza e su quali dispositivi è attiva. Vedremo anche come possiamo misurarlo in base a quali casi.

Indice dei contenuti

Nell'informatica ci sono molti parametri che devono essere presi in considerazione quando si acquisiscono determinati componenti. Uno di questi è proprio la latenza, anche se non abbiamo una misura esplicita in tutti i casi, proprio perché è noto che esiste e può essere molto simile in tutti i dispositivi, ad esempio sui dischi rigidi.

D'altra parte, altri hanno queste misure e sono anche molto importanti, ad esempio il router, in alcuni casi e soprattutto la memoria RAM. Senza ulteriori indugi, vediamo cos'è la latenza e come possiamo misurarla sul nostro computer.

Latenza, significato generale

Prima di tutto, ciò che dovremo fare è definire il concetto di latenza in termini generici, perché in questo modo possiamo immaginare meglio dove può esistere la latenza.

La latenza, in termini informatici, può essere definita come il tempo che intercorre tra un ordine e la risposta che si verifica a quell'ordine specifico. Quindi, come possiamo supporre, la latenza viene misurata in un'unità di tempo, in particolare in millisecondi o microsecondi, poiché la seconda sarebbe una misura troppo elevata da applicare ai sistemi di microcomputer.

Con la latenza stiamo misurando il tempo che stiamo aspettando da quando impartiamo un ordine fino a quando non riceviamo la risposta che ci aspettiamo, sotto forma di informazioni su un computer o in movimento o suono nella vita reale.

Ogni elemento del computer funziona tramite stimoli elettrici, quindi potremmo dire che è il tempo necessario per eseguire tutti gli interruttori elettrici e logici necessari dall'inizio dell'azione attraverso un dispositivo periferico, fino a quando il computer esegue l'azione e mostra i risultati.

Latenza Internet

Quando parliamo di latenza nell'informatica, la maggior parte delle volte, ci riferiamo alla latenza di una rete di connessione Internet. L'interconnessione tra i nodi in una rete si basa sull'interazione di segnali elettrici, che viaggiano attraverso un mezzo, sia fisico, come i cavi che aereo, sotto forma di onde. Inoltre, è necessario utilizzare una serie di protocolli che ci consentano di rendere un supporto compatibile con un altro e stabilire, in qualche modo, un ordine nelle informazioni che inviamo e riceviamo.

La latenza di rete misura la somma delle sfide che si verificano poiché richiediamo (o inviamo) informazioni e il nodo remoto ci risponde. In altre parole, misura il tempo impiegato da un pacchetto di dati per spostarsi da un posto a un altro. Questa volta, ovviamente, si misura anche in millisecondi. Se ad esempio abbiamo una latenza di 30 millisecondi, ciò significa che, poiché abbiamo inviato una richiesta dal nostro browser, fino a quando il server non l'ha ricevuta e, a sua volta, ci ha risposto con ciò che vogliamo, sarà trascorso un tempo di 30 millisecondi. Sembra poco, ma a volte lo notiamo molto, vedremo in quali situazioni.

Questo termine è anche noto con il nome di Lag, specialmente nel mondo dei videogiochi, ma entrambi i termini esprimono esattamente lo stesso.

Ciò che influenza la latenza

Questa misura è una delle più importanti e che dobbiamo sempre prendere in considerazione nella nostra connessione, in base al tipo di applicazioni che utilizzeremo. Generalmente abbiamo una serie di fattori che influenzano la latenza:

Dimensione del pacchetto e protocolli utilizzati

Se il pacchetto di trasmissione è piccolo, sarà più facile trasmettere e viaggiare rispetto a uno pesante, poiché non sarà necessario dividerlo e unirlo. In questo senso, anche l'hardware dell'apparecchiatura influenza, ragion per cui, con router o vecchie schede di rete, sarà necessario più tempo di elaborazione per eseguire un'azione. Ciò è particolarmente critico nei computer con bassa capacità di elaborazione.

Dobbiamo anche tenere conto dei protocolli di trasmissione dei dati. Questi protocolli ci consentono di garantire che un pacchetto arrivi in ​​buone condizioni e attraverso il percorso corretto, da un nodo all'altro, introducendo ulteriori informazioni su come dovrebbe essere gestito, che tipo di crittografia porta e altri aspetti importanti per la sua identificazione e instradamento. Come puoi immaginare, anche l'estrazione di tutte le informazioni contenute in questi pacchetti richiederà tempo e questo si tradurrà in latenza.

Esistono numerosi protocolli di trasmissione nelle reti, ma i più noti sono senza dubbio TCP (Transmission Control Protocol) e IP (Internet Protocol) e la loro combinazione. Questi protocolli vengono utilizzati per varie funzioni, principalmente per l'instradamento corretto dei pacchetti (protocollo IP) e per il controllo degli errori e per garantire che le informazioni arrivino correttamente (protocollo TCP).

Il mezzo di trasmissione fisico, latenza in fibra ottica

Allo stesso modo, la trasmissione attraverso un mezzo fisico, nella maggior parte dei casi, sarà più veloce rispetto a farlo per mezzo di onde, sebbene l'implementazione di frequenze a 5 GHz abbia fornito a questo tipo di reti una velocità di trasmissione maggiore.

Il mezzo più veloce attualmente è senza dubbio la fibra ottica, poiché praticamente non introduce latenza o ritardo nella connessione. La trasmissione di dati attraverso impulsi fotoelettrici è attualmente quella con la massima capacità, sia in larghezza di banda che in velocità di commutazione.

Del numero di commutazioni che devono verificarsi fino al raggiungimento della destinazione.

Avrà anche molto a che fare con i salti che il pacchetto deve fare prima di raggiungere la destinazione, non è lo stesso avere un cavo diretto tra un nodo e l'altro, piuttosto che passare attraverso 200 nodi diversi fino all'arrivo. Ognuno di loro perderà tempo mentre sono incaricati di spostare il pacchetto da una porta all'altra, dobbiamo tenere presente che un pacchetto non arriva mai direttamente a destinazione, prima di viaggiare attraverso una moltitudine di server che dovranno elaborarlo e persino aggiungere ulteriori informazioni per inoltrarlo. a destinazione. E forse questa destinazione è in Conchinchina e oltre.

A questo punto, avrai notato che non abbiamo parlato troppo della larghezza di banda di una connessione, ed è esattamente ciò che guardiamo di più quando assumiamo un provider di Internet.

Differenza tra larghezza di banda e latenza Quando ognuno è importante?

Quando parliamo della larghezza di banda di una connessione, ci riferiamo alla quantità di informazioni che siamo in grado di trasmettere da un punto all'altro per unità di tempo. Più larghezza di banda abbiamo, più pacchetti possiamo scaricare contemporaneamente. L'unità di misura è quella dei bit al secondo b / s, sebbene attualmente la misura sia quasi sempre quella dei Megabit al secondo (Mb / s). Se parliamo in termini di memoria, sarà Megabyte al secondo (MB / s) in cui un byte equivale a 8 bit.

Se guardiamo che stiamo commettendo un errore, parliamo della velocità di Internet quando parliamo di larghezza di banda, e questa dovrebbe essere la latenza. Tuttavia, siamo tutti abituati a questo, e non abbiamo dubbi al riguardo, quindi parleremo della latenza per fare riferimento ad essa e della velocità per fare riferimento alla larghezza di banda.

Ora dobbiamo sapere quando dovremmo considerare entrambe le misure a seconda di ciò per cui utilizziamo la nostra connessione.

Larghezza di banda

Se vogliamo utilizzare la nostra connessione per scaricare contenuti posizionati staticamente su un server (immagini, video, giochi), la larghezza di banda sarà essenziale. Non ci interessa se la connessione richiede 10 secondi per stabilire, l'importante è che il download del file richieda il minor tempo possibile. Se un file occupa 1000 MB e abbiamo una connessione di 100 MB / s, saranno necessari 10 secondi per scaricarlo. Se abbiamo una connessione di 200 MB / s, ci vorranno 5 secondi, facile.

latenza

Sarà essenziale quando vogliamo utilizzare la nostra connessione per riprodurre contenuti in tempo reale come lo streaming o per giocare a giochi online di massa. Se ce ne rendiamo conto, in questo caso abbiamo bisogno che ciò che viene trasmesso e ricevuto sia fatto simultaneamente, senza che l'immagine si blocchi e carichi i buffer. Quando giochiamo e vediamo che un avatar del giocatore appare magicamente, scompare e salta, significa che lui o noi abbiamo Lag o latenza elevata. Quello che vediamo, anche se sta accadendo in quel momento, vediamo solo bit senza continuità perché il tempo necessario per inviare le informazioni al nostro team è molto più lungo di quello che sta realmente accadendo.

Se parliamo di giochi sparatutto in prima persona e abbiamo una latenza molto alta, non scopriremo quando ci uccideranno, né sapremo l'esatta posizione di un avversario. Naturalmente, la larghezza di banda sarà importante, ma la latenza gioca un ruolo chiave.

Come misurare la latenza della nostra connessione

Per misurare la latenza della nostra connessione, possiamo usare uno strumento che è stato implementato in Windows sin dal suo inizio, chiamato Ping. Per usarlo dovremo aprire una finestra di comando, andando nel menu di avvio e digitando " CMD ". Si aprirà una finestra nera in cui dobbiamo posizionare il seguente comando:

ping

Ad esempio, se vogliamo vedere la latenza tra Professional Review e il nostro team, inseriremo " ping www.Profesionalreview.com ".

Dobbiamo guardare la parte di " time = XXms ", che sarà la nostra latenza. Vediamo come il tipo di connessione influisce sulla latenza. Per fare questo, vedremo la differenza tra una connessione cablata e una connessione Wi-Fi da lontano sullo stesso computer eseguendo il ping del nostro router.

Vediamo che, via cavo, la latenza è praticamente nulla, meno di 1 millisecondo, mentre con il Wi-Fi stiamo già introducendo l'ordine di 7 millisecondi. È proprio per questo motivo che i giocatori vogliono sempre utilizzare una connessione fisica a un Wi-Fi. Questi 7 ms si tradurranno in blocchi di immagini e cretini se li aggiungiamo al proprio ritardo che metterà la connessione remota.

Visita il nostro tutorial per ulteriori informazioni sul comando ping e su come conoscere l'IP esterno

Bene, ci sarà più o meno chiaro quale sia la latenza su Internet e come dovremmo tenerne conto. Ora vediamo dove appare di più la latenza.

Latenza in RAM

Sicuramente questa sarà la seconda sezione più importante in cui dobbiamo tenere conto della latenza di un elemento della nostra attrezzatura, o almeno quella che ha guadagnato più fama negli ultimi anni con DDR3 e DDR4 RAM.

Nel caso della RAM, la definizione è leggermente diversa da quella che abbiamo capito nelle reti. In questo caso, entra in gioco un elemento tanto importante quanto il clock che il nostro processore funziona (frequenza). In ogni caso, parliamo sempre di una misura del TEMPO, e non di qualcos'altro.

La latenza effettiva nella RAM si chiama CAS o CL e non è altro che il numero di cicli di clock che trascorrono da quando una richiesta viene effettuata dalla CPU e la RAM ha le informazioni disponibili. Stiamo misurando il tempo tra la richiesta e la risposta.

Visita questo articolo completo che parla della latenza della RAM per scoprire tutto.

Latenza del disco rigido

Un altro dispositivo in cui possiamo trovare tempi di latenza di grande importanza è nei dischi rigidi, in particolare quelli basati su elementi meccanici. In questo caso, la latenza è tradotta in diversi termini e focalizzata su funzioni specifiche:

Tempo di accesso

Fondamentalmente è il tempo impiegato dall'unità di memoria per essere pronta a trasmettere i dati. Un disco rigido è costituito da giradischi in cui i dati sono fisicamente registrati, a loro volta questi dati devono essere letti da una testa meccanica che si muove perpendicolarmente spazzando l'intera superficie del disco.

Il tempo di accesso è il tempo impiegato dal disco rigido per leggere la nostra richiesta di informazioni e individuare la testa meccanica esattamente nel cilindro e nel settore specifico in cui tali informazioni devono essere lette. Allo stesso tempo, il disco rigido gira ad alta velocità, quindi il mandrino, una volta situato nel settore, dovrà attendere che la traccia lo raggiunga. Solo in questo momento le informazioni saranno preparate per essere lette e trasmesse.

Il tempo di accesso può essere suddiviso in diverse funzioni che abbiamo descritto in questi paragrafi:

Tempo di ricerca

È precisamente il tempo necessario per posizionare la testa sul cilindro, sul settore e sulla pista che contengono i dati. Questo tempo di ricerca può variare tra 4 millisecondi per le unità più veloci, fino a 15 ms. Il più comune per i dischi rigidi desktop è 9 ms.

Nelle unità SSD non ci sono parti meccaniche, quindi il tempo di ricerca è compreso tra 0, 08 e 0, 16 ms. Molto meno di quelli meccanici.

Latenza di rotazione:

Questo concetto misura il tempo impiegato dal mandrino per raggiungere la traccia dati a causa della rotazione del disco rigido. I dischi rigidi ruotano continuamente, quindi per determinati intervalli di tempo la testa incontrerà tracce di dati intermittenti. Maggiore è il numero di giri (giri), più veloce è l'accesso ai dati su una traccia specifica. Per un disco rigido medio di 7.200 RPM otterremo una latenza di 4, 17 ms.

Altri ritardi che aggiungono latenza

Altri ritardi tipici della trasmissione di informazioni includono il tempo di elaborazione del comando e il tempo di stabilizzazione del mandrino. Il primo sarà il tempo impiegato dall'hardware per leggere, elaborare e trasmettere i dati al bus, che in genere è di circa 0, 003 ms. Il secondo è il tempo impiegato dal mandrino per stabilizzarsi dopo lo spostamento, dato che è meccanico, ciò richiederà un certo tempo di circa 0, 1 ms.

Quindi possiamo anche aggiungere altre volte al tempo di trasmissione dei dati come il seguente:

  • Tempo di settore: tempo impiegato per la validazione del settore del disco rigido e per la sua collocazione fisica e logica. Head jump time: tempo che intercorre tra il passaggio da una testa all'altra per leggere le informazioni. Dal momento che dobbiamo tenere presente che i dischi rigidi hanno due teste per ogni piastra che hanno. Normalmente è tra 1 e 2 ms. Tempo cambio cilindro: logicamente il tempo che intercorre tra i cambi da un cilindro all'altro. Questo è di solito circa 2 o 3 ms.

In cosa si traduce? Bene, un disco rigido meccanico è dannatamente lento rispetto a un SSD. Questo è il motivo per cui gli SSD aumentano sostanzialmente le prestazioni di qualsiasi computer, anche di quelli meno recenti.

Latenza in mouse e cuffie wireless

Né possiamo dimenticare i mouse wireless nel campo della latenza. Abbiamo già verificato empiricamente che la latenza in un mezzo di radiofrequenza aumenta rispetto alle connessioni fisiche, e questo non fa eccezione nei topi wireless.

I mouse wireless funzionano principalmente, in una gamma di frequenza di 2, 4 GHz, possiamo immaginare che sia molto veloce, specialmente se il ricevitore è vicino, ma non avrà una latenza inferiore rispetto a un mouse via cavo, anche di modelli interni nella gamma. È proprio per questo motivo che la maggior parte dei mouse da gioco dispone di connettività cablata e non wireless, ad eccezione dei modelli di fascia alta con un costo elevato.

Esattamente la stessa cosa accade con le cuffie, tuttavia, in questo caso specifico, si tratta del suono, dove biologicamente abbiamo già una certa latenza per reagire ai suoni prodotti nel nostro ambiente. Ecco perché i vantaggi di un auricolare wireless (buono) e cablato saranno molto simili, nelle nostre orecchie e ai fini dell'uso. Pertanto, non sarà importante quanto un mouse o un altro componente.

Conclusione sulla latenza nel nostro computer

Bene, queste sono le principali misure di latenza che dobbiamo prendere in considerazione nelle nostre apparecchiature informatiche. Senza dubbio, il più importante di tutti sarà sicuramente quello della connessione Internet, poiché è quello che noteremo di più nel nostro uso quotidiano della rete, soprattutto se ci dedichiamo a giocare online. E ovviamente anche quello di un disco rigido se il nostro sistema è installato su un sistema meccanico.

In tutti gli altri casi, praticamente non possiamo fare molto per migliorare le prestazioni dei componenti, dal momento che è una loro caratteristica intrinseca, in particolare i dischi rigidi. Se abbiamo acquistato un SSD derivante dall'utilizzo di un HDD, noteremo sicuramente che la differenza di prestazioni è spaventosa.

Nel caso della RAM, se hai visto il nostro articolo appositamente dedicato ad esso, saprai come possiamo misurarlo, ma c'è poco che possiamo fare per migliorarlo, infatti, è praticamente impercettibile per noi, tenendo conto delle alte frequenze a cui i moduli e tutto il lavoro della scheda madre. Inoltre, questa carenza è compensata dall'alta frequenza di coloro che lavorano.

La latenza è qualcosa che farà sempre parte dell'architettura di un computer o di qualsiasi altro elemento. Ci sarà sempre un intervallo di tempo tra una richiesta e un'esecuzione indipendentemente dal mezzo utilizzato e dall'elemento collegato. Noi stessi e i nostri stimoli sono la più grande fonte di GAL o latenza.

Raccomandiamo anche:

Pensi che la latenza sia davvero importante su un computer o una rete? Lasciaci commenti sulla tua opinione su questo argomento. Riesci a pensare a qualsiasi altro componente in cui la latenza dovrebbe essere presa in considerazione?

Esercitazioni

Scelta dell'editore

Back to top button