- Modificato
Vado per analogia con ricordi di trasmissioni digitali. Il ping più basso meglio è ma è funzione della distanza tra te e il server raggiunto. Per il jitter il valore ottimale sarebbe pari a zero ma questo è praticamente impossibile. Purtroppo quest'ultimo è tenuto poco in considerazione anche se è fonte di ritardi nella trasmissione a causa degli errori nel riconoscimento dei bit. In pratica definisce lo spostamento nel tempo della presenza del bit ricevuto nel momento in cui si dovrebbe presentare, quindi in ritardo o in anticipo al momento in cui lo vado a "leggere". Traduco: se il bit si presenta troppo in anticipo o in ritardo rispetto a quando lo vado a guardare, rischio di non vederlo o di non riconoscerlo per cui introduco errori di lettura dei dati ricevuti. A quel punto il sistema è costretto a richiedere la ritrasmissione dei dati a causa degli errori e, quindi, si traduce il perdita di velocità.
Spero di essere stato abbastanza chiaro. Altri, più esperti di me potranno contribuire alla spiegazione.