chigos85 I dati consumati dipendo dalla velocità raggiunta e dal tempo impiegato per il test.
Supponendo che la velocità sia costante, i dati consumati sono velocità x tempo.
Perciò (se il tempo dello speedtest è lo stesso) il server che raggiunge massimo 100 Mb/s consumerà 1/10 del server che raggiunge 1000 Mb/s.
Chiaramente la velocità non è costante, quindi dovresti "integrare" la funzione che rappresenta la velocità nel tempo.