Teniamo anche presente che lato utente/ultimo miglio la richiesta di banda non cresce in maniera lineare, e quando una tecnologia arriva a soddisfare le esigenze con un certo margine anche per il futuro, non è necessario che incrementi in fretta - a meno di cambiamenti epocali delle necessità.
Per fare un esempio, nelle aziende i collegamenti dei PC degli utenti sono passati nel giro di poco più di 10 anni da 10Mb/s a 1Gb/s - lo standard 10Base-T è del 1990, 100BASE-T del 1995, 1000BASE-T del 1999.
Poi il gigabit è bastato per circa vent'anni, e anche ora i 10Gb/s sono perlopiù interessanti per chi lavora con file di notevoli dimensioni (es. produzioni video), per l'impiegato che usa l'applicazione web molto meno, o anche per lo streaming di contenuti video già elaborati e compressi.
Ovviamente la storia è un po' diversa per i link che raccolgono il traffico utente e lo smistano, e le interconnessioni fra server - con l'aumentare di applicazioni che in media fanno più traffico e necessitano di una latenza più ridotta.
Con la fibra installata che ha già ora possibilità di crescita 10G e poi oltre - vediamo come è stata sfruttato e spremuto il doppino posato decenni fa, senza nemmeno essere stato progettato per l'uso che se ne fa ora - la fibra dovrebbe avere una vita utile di diversi decenni.
Poi magari si tratta di risolvere alcuni colli di bottiglia, come lo splitting che può diventare eccessivo, le velocità di upload che potrebbero essere troppo basse più si vuole memorizzare in cloud, e le capacità delle reti di raccolta e trasporto - che già ora non reggerebbero un traffico sostenuto di 1Gb/s da parte di un gran numero di utenti.
Se poi arriva il teletrasporto a mezzo internet, e occorre poter raggiungere lo zettabyte/s, sarà un altro paio di maniche.