armadio114 30ms su un gioco dove devi premere pensare e guardare fanno una differenza abissale
Il tempo di reazione medio umano è misurato essere nell'intorno tra gli 800 e i 1200ms, qui si parla di 50 volte meno. Ha senso quel che state dicendo? No, non ce l'ha, e non mi interessa quanti trofei possiate avere, nessuno dice che siete scarsi al gioco, ma che l'effetto che noti è dettato da altre cose, non dai 20ms di latenza in più. 😉
Se vuoi far le prove, esistono degli strumenti nei router (non in tutti, probabilmente con OpenWRT si può fare) per simulare lato software la latenza di rete: ci scommetterei che a parità di condizioni uno che ti aggiunge 20 o 30ms di latenza durante il gioco, se non mostri il numerino in alto a destra non te ne accorgi minimamente.
Più che la latenza network in sé e per sé, punterei il dito ad esempio sul server di gioco, ospitati in datacenter diversi con magari tecnologie hardware sottostanti diverse (tanto son tutti macchine EC2, dove si sbattono ti sbattono...), a carichi diversi, e magari con software, sistemi operativi e ottimizzazioni diverse. Visto quanta roba cambia, oltre ai 20ms di RTT? Ed è solo l'inizio...
handymenny Dubito fortemente che un gioco real time invii i dati su connessione HTTP over TCP, sono praticamente tutti su UDP con meccanismi lato applicativo per tollerare una determinata percentuale di pacchetti persi (che con il TCP non ci sarebbero). Quindi tra i due è l'ICMP ad essere più penalizzato a livello di latenza, perché gestito dal sistema operativo con una priorità inferiore.