Stefans hai perfettamente ragione e non è una cosa assurda; sai che una linea su FC in tecnologia SHDSL/HDSL simmetrica a 2Mb/s e multipli, ha un ping dalla CPE al POP di 2ms! una FTTC con uscita METRO raggiunge 5ms di ping poi tutta la differenza la fà il trasporto e , per ultimo, non dimentichiamoci che non esistono solo il MIX ed il NAMEX, infatti numerosi players ( Google, Meta,Dazn,distributori) installano servers, CDN,etc direttamente all'interno del METRO. Personalmente avendo diverse linee sia su OF che FC, da napoli su OF gestore dimensione, raggiungo Milano in 21ms e con Ehiweb su FC raggiungo Milano in 19ms

    Se vi può servire come confronto, visto che abbiamo stesso provider, entrambi su OF area bianca e stesse problematiche posto anche i miei. Gli speedtest invece sono praticamente uguali come banda e come ping a quelli di @erik_giro

    Control connection MSS 1452
    Time: Sun, 23 Mar 2025 17:28:37 GMT
    Connecting to host it3.speedtest.aruba.it, port 5201
    Reverse mode, remote host it3.speedtest.aruba.it is sending
    Cookie: 7qxgywxfwxorqxesw53yh6jthkyqmxjkja5r
    TCP MSS: 1452 (default)
    [ 5] local 192.168.8.148 port 50483 connected to 217.61.40.76 port 5201
    Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test, tos 0
    [ ID] Interval Transfer Bitrate
    [ 5] 0.00-1.01 sec 249 MBytes 2.08 Gbits/sec (omitted)
    [ 5] 1.01-2.00 sec 261 MBytes 2.20 Gbits/sec (omitted)
    [ 5] 2.00-3.00 sec 267 MBytes 2.24 Gbits/sec (omitted)
    [ 5] 0.00-1.01 sec 246 MBytes 2.04 Gbits/sec
    [ 5] 1.01-2.01 sec 237 MBytes 1.99 Gbits/sec
    [ 5] 2.01-3.01 sec 267 MBytes 2.24 Gbits/sec
    [ 5] 3.01-4.01 sec 260 MBytes 2.18 Gbits/sec
    [ 5] 4.01-5.00 sec 266 MBytes 2.24 Gbits/sec
    [ 5] 5.00-6.00 sec 255 MBytes 2.14 Gbits/sec
    [ 5] 6.00-7.01 sec 259 MBytes 2.16 Gbits/sec
    [ 5] 7.01-8.01 sec 148 MBytes 1.24 Gbits/sec
    [ 5] 8.01-9.01 sec 261 MBytes 2.19 Gbits/sec
    [ 5] 9.01-10.01 sec 264 MBytes 2.22 Gbits/sec
    [ 5] 10.01-11.00 sec 261 MBytes 2.19 Gbits/sec
    [ 5] 11.00-12.00 sec 256 MBytes 2.15 Gbits/sec
    [ 5] 12.00-13.00 sec 260 MBytes 2.18 Gbits/sec
    [ 5] 13.00-14.01 sec 264 MBytes 2.18 Gbits/sec
    [ 5] 14.01-15.01 sec 266 MBytes 2.23 Gbits/sec
    [ 5] 15.01-16.01 sec 266 MBytes 2.23 Gbits/sec
    [ 5] 16.01-17.00 sec 263 MBytes 2.22 Gbits/sec
    [ 5] 17.00-18.00 sec 260 MBytes 2.18 Gbits/sec
    [ 5] 18.00-19.00 sec 266 MBytes 2.24 Gbits/sec
    [ 5] 19.00-20.01 sec 271 MBytes 2.24 Gbits/sec


    Test Complete. Summary Results:
    [ ID] Interval Transfer Bitrate Retr
    [ 5] 0.00-20.01 sec 4.99 GBytes 2.14 Gbits/sec 213660 sender
    [ 5] 0.00-20.01 sec 4.98 GBytes 2.14 Gbits/sec receiver
    snd_tcp_congestion bbr

    iperf Done.

    Control connection MSS 1452
    Time: Sun, 23 Mar 2025 17:32:00 GMT
    Connecting to host paris.cubic.iperf.bytel.fr, port 9201
    Reverse mode, remote host paris.cubic.iperf.bytel.fr is sending
    Cookie: 3do3t5nltfr3hgdhcecj2ty5j6wh5l6plbm2
    TCP MSS: 1452 (default)
    [ 5] local 192.168.8.148 port 50499 connected to 5.51.3.42 port 9201
    Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test, tos 0
    [ ID] Interval Transfer Bitrate
    [ 5] 0.00-1.01 sec 77.4 MBytes 642 Mbits/sec (omitted)
    [ 5] 1.01-2.01 sec 103 MBytes 866 Mbits/sec (omitted)
    [ 5] 2.01-3.01 sec 110 MBytes 921 Mbits/sec (omitted)
    [ 5] 0.00-1.00 sec 116 MBytes 969 Mbits/sec
    [ 5] 1.00-2.02 sec 122 MBytes 1.01 Gbits/sec
    [ 5] 2.02-3.00 sec 122 MBytes 1.04 Gbits/sec
    [ 5] 3.00-4.00 sec 128 MBytes 1.07 Gbits/sec
    [ 5] 4.00-5.00 sec 129 MBytes 1.08 Gbits/sec
    [ 5] 5.00-6.00 sec 131 MBytes 1.10 Gbits/sec
    [ 5] 6.00-7.00 sec 132 MBytes 1.10 Gbits/sec
    [ 5] 7.00-8.00 sec 132 MBytes 1.11 Gbits/sec
    [ 5] 8.00-9.01 sec 133 MBytes 1.11 Gbits/sec
    [ 5] 9.01-10.01 sec 133 MBytes 1.11 Gbits/sec
    [ 5] 10.01-11.01 sec 132 MBytes 1.11 Gbits/sec
    [ 5] 11.01-12.01 sec 133 MBytes 1.11 Gbits/sec
    [ 5] 12.01-13.00 sec 132 MBytes 1.11 Gbits/sec
    [ 5] 13.00-14.01 sec 134 MBytes 1.12 Gbits/sec
    [ 5] 14.01-15.00 sec 134 MBytes 1.13 Gbits/sec
    [ 5] 15.00-16.00 sec 136 MBytes 1.14 Gbits/sec
    [ 5] 16.00-17.00 sec 138 MBytes 1.16 Gbits/sec
    [ 5] 17.00-18.01 sec 142 MBytes 1.18 Gbits/sec
    [ 5] 18.01-19.01 sec 144 MBytes 1.21 Gbits/sec
    [ 5] 19.01-19.99 sec 146 MBytes 1.25 Gbits/sec


    Test Complete. Summary Results:
    [ ID] Interval Transfer Bitrate Retr
    [ 5] 0.00-20.05 sec 2.59 GBytes 1.11 Gbits/sec 0 sender
    [ 5] 0.00-19.99 sec 2.58 GBytes 1.11 Gbits/sec receiver
    snd_tcp_congestion cubic

    iperf Done.

      erik_giro [ 5] 0.00-20.05 sec 44.2 MBytes 18.5 Mbits/sec 0 sender

      Premetto che arrivati a questo punto ti serve qualcuno di più competente di me nell'ambito delle reti.

      Domanda idiota, e probabilmente buttata lì, ma riesci a rifare il test IPerf (il primo) collegando l'ONT a una porta da 1Gbps del tuo router? (O cambia il wirespeed dalla configurazione non sò esattamente cosa ti consenta il tuo ferro)

        Bifolco entrambi su OF area bianca e stesse problematiche posto anche i miei

        sarebbe utile vedere qualche test anche da qualcuno in area nera come confronto. Li farei io ma per qualche giorno sono impossibilitato

        Lorenzo1635 Riesci a fare uno speedtest (sessione singola) verso:
        Wind3 (Milano)
        Telia (Copenaghen)

        Questi test sono inutili, soprattutto se fatti da browser. E da CLI non si possono fare in singola sessione

          152563 le CDN sono installate a bordo dei core regionali. Non nel metro, convergente per fisso e mobile, dove passano solo tunnel su Ethernet over WDM . Allo stato attuale delle cose.

          152563 SHDSL/HDSL simmetrica a 2Mb/s e multipli, ha un ping dalla CPE al POP di 2ms

          una FTTH GPON fa anche meno di 2 ms , dipende tutto da dove è ubicato il PoP di core dove termina la linea:

          Premi per mostrare Premi per nascondere

          PING 93.146.155.1 (93.146.155.1) 56(84) bytes of data.
          64 bytes from 93.146.155.1: icmp_seq=1 ttl=254 time=1.20 ms
          64 bytes from 93.146.155.1: icmp_seq=2 ttl=254 time=1.00 ms
          64 bytes from 93.146.155.1: icmp_seq=3 ttl=254 time=1.19 ms
          64 bytes from 93.146.155.1: icmp_seq=4 ttl=254 time=1.71 ms
          64 bytes from 93.146.155.1: icmp_seq=5 ttl=254 time=1.28 ms
          64 bytes from 93.146.155.1: icmp_seq=6 ttl=254 time=1.87 ms
          64 bytes from 93.146.155.1: icmp_seq=7 ttl=254 time=1.99 ms
          64 bytes from 93.146.155.1: icmp_seq=8 ttl=254 time=1.09 ms
          64 bytes from 93.146.155.1: icmp_seq=9 ttl=254 time=1.11 ms!<

          puffin23 Questi test non hanno senso, soprattutto se fatti da browser. E da CLI non si possono fare in singola sessione

          Concordo. Ma sono gli unici server che so per certo usare CUBIC e non BBR.

          Lorenzo1635

          Connecting to host it3.speedtest.aruba.it, port 5201
          Reverse mode, remote host it3.speedtest.aruba.it is sending
          Cookie: dyl6dfvy5qlle5623ldnfqpduonlyhrxoook
          TCP MSS: 1452 (default)
          [ 5] local 192.168.1.233 port 56688 connected to 217.61.40.76 port 5201
          Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test, tos 0
          [ ID] Interval Transfer Bitrate
          [ 5] 0.00-1.01 sec 103 MBytes 859 Mbits/sec (omitted)
          [ 5] 1.01-2.00 sec 107 MBytes 900 Mbits/sec (omitted)
          [ 5] 2.00-3.00 sec 111 MBytes 930 Mbits/sec (omitted)
          [ 5] 0.00-1.01 sec 108 MBytes 893 Mbits/sec
          [ 5] 1.01-2.01 sec 104 MBytes 876 Mbits/sec
          [ 5] 2.01-3.02 sec 109 MBytes 912 Mbits/sec
          [ 5] 3.02-4.01 sec 109 MBytes 914 Mbits/sec
          [ 5] 4.01-5.01 sec 108 MBytes 903 Mbits/sec
          [ 5] 5.01-6.01 sec 106 MBytes 896 Mbits/sec
          [ 5] 6.01-7.01 sec 107 MBytes 900 Mbits/sec
          [ 5] 7.01-8.01 sec 86.8 MBytes 729 Mbits/sec
          [ 5] 8.01-9.00 sec 107 MBytes 901 Mbits/sec
          [ 5] 9.00-10.00 sec 108 MBytes 902 Mbits/sec
          [ 5] 10.00-11.00 sec 112 MBytes 939 Mbits/sec
          [ 5] 11.00-12.00 sec 104 MBytes 871 Mbits/sec
          [ 5] 12.00-13.01 sec 108 MBytes 897 Mbits/sec
          [ 5] 13.01-14.02 sec 105 MBytes 882 Mbits/sec
          [ 5] 14.02-15.01 sec 105 MBytes 879 Mbits/sec
          [ 5] 15.01-16.01 sec 105 MBytes 884 Mbits/sec
          [ 5] 16.01-17.01 sec 101 MBytes 847 Mbits/sec
          [ 5] 17.01-18.01 sec 108 MBytes 908 Mbits/sec
          [ 5] 18.01-19.01 sec 106 MBytes 886 Mbits/sec
          [ 5] 19.01-20.01 sec 110 MBytes 922 Mbits/sec


          Test Complete. Summary Results:
          [ ID] Interval Transfer Bitrate Retr
          [ 5] 0.00-20.01 sec 2.07 GBytes 889 Mbits/sec 70467 sender
          [ 5] 0.00-20.01 sec 2.07 GBytes 887 Mbits/sec receiver
          snd_tcp_congestion bbr

          iperf Done.

          ecco qua quanto richiesto. Io purtroppo non ne capisco molto di questi test ma da quello che mi dici un problema c'è.

            erik_giro

            Lato mio, Aruba, Area Bianca (POP CR CASALMORANO)

            Control connection MSS 1452
            Time: Sun, 23 Mar 2025 17:47:09 GMT
            Connecting to host it3.speedtest.aruba.it, port 5201
            Reverse mode, remote host it3.speedtest.aruba.it is sending
                  Cookie: jumyy7ape7pbh3jq2gcrg5hq2ef4tlsupgrr
                  TCP MSS: 1452 (default)
            [  5] local 192.168.178.20 port 54115 connected to 217.61.40.76 port 5201
            Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test, tos 0
            [ ID] Interval           Transfer     Bitrate
            [  5]   0.00-1.01   sec   108 MBytes   898 Mbits/sec                  (omitted)
            [  5]   1.01-2.00   sec   111 MBytes   943 Mbits/sec                  (omitted)
            [  5]   2.00-3.00   sec   111 MBytes   934 Mbits/sec                  (omitted)
            [  5]   0.00-1.02   sec   114 MBytes   941 Mbits/sec
            [  5]   1.02-2.00   sec   111 MBytes   942 Mbits/sec
            [  5]   2.00-3.01   sec   114 MBytes   942 Mbits/sec
            [  5]   3.01-4.01   sec   111 MBytes   941 Mbits/sec
            [  5]   4.01-5.00   sec   112 MBytes   942 Mbits/sec
            [  5]   5.00-6.00   sec   112 MBytes   942 Mbits/sec
            [  5]   6.00-7.00   sec   111 MBytes   935 Mbits/sec
            [  5]   7.00-8.02   sec  91.1 MBytes   754 Mbits/sec
            [  5]   8.02-9.00   sec   111 MBytes   939 Mbits/sec
            [  5]   9.00-10.01  sec   113 MBytes   941 Mbits/sec
            [  5]  10.01-11.01  sec   111 MBytes   942 Mbits/sec
            [  5]  11.01-12.00  sec   112 MBytes   942 Mbits/sec
            [  5]  12.00-13.01  sec   113 MBytes   942 Mbits/sec
            [  5]  13.01-14.01  sec   112 MBytes   941 Mbits/sec
            [  5]  14.01-15.00  sec   112 MBytes   942 Mbits/sec
            [  5]  15.00-16.00  sec   112 MBytes   942 Mbits/sec
            [  5]  16.00-17.00  sec   112 MBytes   942 Mbits/sec
            [  5]  17.00-18.00  sec   112 MBytes   941 Mbits/sec
            [  5]  18.00-19.01  sec  90.1 MBytes   747 Mbits/sec
            [  5]  19.01-20.01  sec   109 MBytes   922 Mbits/sec
            - - - - - - - - - - - - - - - - - - - - - - - - -
            Test Complete. Summary Results:
            [ ID] Interval           Transfer     Bitrate         Retr
            [  5]   0.00-20.01  sec  2.15 GBytes   923 Mbits/sec  100            sender
            [  5]   0.00-20.01  sec  2.14 GBytes   921 Mbits/sec                  receiver
            snd_tcp_congestion bbr
            
            iperf Done.

            Ma sei cliente Aruba o PianetaFibra?

              Lorenzo1635 Pianeta Fibra che è parte di Aruba. Sono autenticato a IT3 PSP.

                erik_giro Pianeta Fibra

                Sul Forum di voi clienti non riesci a chiedere un'opinione anche agli altri utenti?
                Specie vista la presenza del personale dell'ISP.
                Quantomeno per sapere se ritengono normale un numero così elevato di ritrasmissioni verso un speedtest interno alla loro rete.

                  erik_giro che ho dei test

                  Perdonami se ti ho fatto fare dei test random - e nemmeno troppo approfonditi - ma non ho idea di come individuare un metodo sistematico per misurare il tuo problema.

                  Però visto l'enorme quantità di ritrasmissioni nel test BBR aggiunto al fatto che CUBIC non satura il canale è sicuramente un problema che è presente.

                  Non so se @MiloZ ha qualche idea migliore

                  Linea PF su nuova rete Aruba. Trasporto Fibercop (FW):

                  $ iperf3 -4 -V -t 20 -O 3 -R -c it3.speedtest.aruba.it
                  iperf 3.9
                  Linux 5.15.0-131-generic #141-Ubuntu SMP Fri Jan 10 21:18:28 UTC 2025 x86_64
                  Control connection MSS 1388
                  Time: Sun, 23 Mar 2025 18:24:49 GMT
                  Connecting to host it3.speedtest.aruba.it, port 5201
                  Reverse mode, remote host it3.speedtest.aruba.it is sending
                        Cookie: xxx
                        TCP MSS: 1388 (default)
                  [  5] local 10.80.0.2 port 34170 connected to 217.61.40.76 port 5201
                  Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test, tos 0
                  [ ID] Interval           Transfer     Bitrate
                  [  5]   0.00-1.00   sec   237 MBytes  1.99 Gbits/sec                  (omitted)
                  [  5]   1.00-2.00   sec   247 MBytes  2.07 Gbits/sec                  (omitted)
                  [  5]   2.00-3.00   sec   252 MBytes  2.11 Gbits/sec                  (omitted)
                  [  5]   0.00-1.00   sec   248 MBytes  2.08 Gbits/sec
                  [  5]   1.00-2.00   sec   248 MBytes  2.08 Gbits/sec
                  [  5]   2.00-3.00   sec   249 MBytes  2.09 Gbits/sec
                  [  5]   3.00-4.00   sec   248 MBytes  2.08 Gbits/sec
                  [  5]   4.00-5.00   sec   247 MBytes  2.07 Gbits/sec
                  [  5]   5.00-6.00   sec   252 MBytes  2.11 Gbits/sec
                  [  5]   6.00-7.00   sec   242 MBytes  2.03 Gbits/sec
                  [  5]   7.00-8.00   sec   242 MBytes  2.03 Gbits/sec
                  [  5]   8.00-9.00   sec   183 MBytes  1.53 Gbits/sec
                  [  5]   9.00-10.00  sec   243 MBytes  2.04 Gbits/sec
                  [  5]  10.00-11.00  sec   248 MBytes  2.08 Gbits/sec
                  [  5]  11.00-12.00  sec   250 MBytes  2.10 Gbits/sec
                  [  5]  12.00-13.00  sec   248 MBytes  2.08 Gbits/sec
                  [  5]  13.00-14.00  sec   252 MBytes  2.11 Gbits/sec
                  [  5]  14.00-15.00  sec   247 MBytes  2.07 Gbits/sec
                  [  5]  15.00-16.00  sec   247 MBytes  2.07 Gbits/sec
                  [  5]  16.00-17.00  sec   250 MBytes  2.09 Gbits/sec
                  [  5]  17.00-18.00  sec   244 MBytes  2.04 Gbits/sec
                  [  5]  18.00-19.00  sec   249 MBytes  2.09 Gbits/sec
                  [  5]  19.00-20.00  sec   253 MBytes  2.12 Gbits/sec
                  - - - - - - - - - - - - - - - - - - - - - - - - -
                  Test Complete. Summary Results:
                  [ ID] Interval           Transfer     Bitrate         Retr
                  [  5]   0.00-20.00  sec  4.78 GBytes  2.05 Gbits/sec    0             sender
                  [  5]   0.00-20.00  sec  4.77 GBytes  2.05 Gbits/sec                  receiver
                  snd_tcp_congestion bbr
                  rcv_tcp_congestion cubic
                  
                  iperf Done.

                    erik_giro Che non ci sono ritrasmissioni sulla sua linea. Si apre però la possibilità che le misure fatte possano essere falsate dal fatto che abbiamo usato Windows (piattaforma non ufficialmente supportata da IPerf3) ma anche non fossero esatte dubito che facciano scendere il risultato di un ordine di grandezza.

                    Su windows mi esce così:

                    iperf 3.1.3
                    CYGWIN_NT-10.0 xxx 2.5.1(0.297/5/3) 2016-04-21 22:14 x86_64
                    Time: Sun, 23 Mar 2025 18:29:46 GMT
                    Connecting to host it3.speedtest.aruba.it, port 5201
                    Reverse mode, remote host it3.speedtest.aruba.it is sending
                          Cookie: xxxx
                          TCP MSS: 0 (default)
                    [  4] local 10.80.100.64 port 17210 connected to 217.61.40.76 port 5201
                    Starting Test: protocol: TCP, 1 streams, 131072 byte blocks, omitting 3 seconds, 20 second test
                    [ ID] Interval           Transfer     Bandwidth
                    [  4]   0.00-1.00   sec  17.2 MBytes   144 Mbits/sec                  (omitted)
                    [  4]   1.00-2.00   sec  17.3 MBytes   145 Mbits/sec                  (omitted)
                    [  4]   2.00-3.00   sec  16.8 MBytes   141 Mbits/sec                  (omitted)
                    [  4]   0.00-1.00   sec  16.9 MBytes   142 Mbits/sec
                    [  4]   1.00-2.00   sec  17.0 MBytes   142 Mbits/sec
                    [  4]   2.00-3.00   sec  16.9 MBytes   142 Mbits/sec
                    [  4]   3.00-4.00   sec  17.0 MBytes   143 Mbits/sec
                    [  4]   4.00-5.00   sec  16.9 MBytes   141 Mbits/sec
                    [  4]   5.00-6.00   sec  16.8 MBytes   142 Mbits/sec
                    [  4]   6.00-7.00   sec  17.0 MBytes   143 Mbits/sec
                    [  4]   7.00-8.00   sec  17.1 MBytes   143 Mbits/sec
                    [  4]   8.00-9.00   sec  17.2 MBytes   144 Mbits/sec
                    [  4]   9.00-10.00  sec  17.2 MBytes   144 Mbits/sec
                    [  4]  10.00-11.00  sec  17.2 MBytes   144 Mbits/sec
                    [  4]  11.00-12.00  sec  17.3 MBytes   145 Mbits/sec
                    [  4]  12.00-13.00  sec  16.9 MBytes   142 Mbits/sec
                    [  4]  13.00-14.00  sec  13.5 MBytes   113 Mbits/sec
                    [  4]  14.00-15.00  sec  17.0 MBytes   143 Mbits/sec
                    [  4]  15.00-16.00  sec  16.9 MBytes   143 Mbits/sec
                    [  4]  16.00-17.00  sec  16.9 MBytes   142 Mbits/sec
                    [  4]  17.00-18.00  sec  17.2 MBytes   144 Mbits/sec
                    [  4]  18.00-19.00  sec  17.0 MBytes   143 Mbits/sec
                    [  4]  19.00-20.00  sec  17.1 MBytes   143 Mbits/sec
                    - - - - - - - - - - - - - - - - - - - - - - - - -
                    Test Complete. Summary Results:
                    [ ID] Interval           Transfer     Bandwidth       Retr
                    [  4]   0.00-20.00  sec   338 MBytes   142 Mbits/sec    0             sender
                    [  4]   0.00-20.00  sec   337 MBytes   141 Mbits/sec                  receiver
                    CPU Utilization: local/receiver 8.3% (3.4%u/4.9%s), remote/sender 0.3% (0.0%u/0.3%s)
                    
                    iperf Done.

                    gandalf2016 Fermo restando che la prima cartina tornasole è un bel download in http da un server senza BBR in TCP, in sessione singola

                    Può essere utile anche se è un dato che va comunque preso con le pinze, nel senso: se la velocità in download singolo stream è particolarmente performante se ne potrebbe dedurre che non ci siano particolari criticità sugli apparati di trasporto OF, ma non mi fiderei molto del contrario, ovvero anche in caso di download mozzati su server non BBR la linea potrebbe essere perfetta lato packet loss in ambito gaming.

                      MiloZ hai qualche consiglio su altri test da fare?

                      MiloZ se la velocità in download singolo stream è particolarmente performante se ne potrebbe dedurre che non ci siano particolari criticità sugli apparati di trasporto OF

                      Si, ovviamente in questo senso .

                      erik_giro
                      Dal momento che dici di aver problemi su tutti i giochi [Valorant, Warzone, Fortnite, Delta Force etc etc], e che diversi di questi giochi hanno server su rete AWS\Google dove per altro Aruba ha delle PNI dirette, escluderei i server di gioco come causa (a maggior ragione se altri ISP Openstream della tua zona hanno i medesimi problemi).

                      Con WinMTR vedi poco perchè non hai una panoramica su quello che succede in maniera continuativa (ed in quale momento) sulla linea, quindi a meno che la problematica non mi si manifesti in maniera particolarmente evidente nel breve lassso di tempo in cui stai con gli occhi sul programma non puoi capire bene come stanno le cose.

                      Programmi tipo PingPlotter e Multiping sono molto più utili se configurati a dovere.
                      Fino ad ora in tutti i casi in cui ho notato perdite di pacchetti in gaming (quindi principalmente a livello UDP\TCP ) ci sono sempre state contestualmente anomalie anche sui pacchetti ICMP.

                      WIreshark non lo uso per questo tipo di test, aggiungo che in alcuni casi tenendo la cattura dei pacchetti attiva i giochi crashano, ricordo feci qualche prova in passato con alcuni giochi (se non erro o Warzone o Battlefield) non c'era verso di iniziare una partita tenendo Wireshark attivo.

                        Informativa privacy - Informativa cookie - Termini e condizioni - Regolamento - Disclaimer - 🏳️‍🌈
                        P.I. IT16712091004 - info@fibraclick.it

                        ♻️ Il server di questo sito è alimentato al 100% con energia rinnovabile