• News
  • Google propone le "web enviroment integrity API": minaccia per l'open web?

Da diverso tempo Google sta lavorando ad un sistema per distinguere se una determinata richiesta web è stata effettuata da un bot o da un umano. Per fare questo sta sviluppando delle "web enviroment integrity API" con cui i vari client web (come i broswer), dopo aver ricevuto una certificazione da un determinatà autorità, potranno autenticarsi ai server web mostrando di essere dei browser certificati. I server web potranno perciò comportarsi in maniera diversa in base al tipo di client che effettua la richiesta.

Ovviamente esistono già vari meccanismi con cui i server web possono tentare di individuare i bot (come lo user agent o gli header della richiesta HTTP) ma sono tutti sistemi aggirabili, con un po' di fatica. La novità sta nel fatto che questo nuovo sistema basato sulla certificazione sembra non essere aggirabile.

Fonti: GitHub, Vivaldi Blog, DDay, MorroLinux

    • [cancellato]

    • Modificato

    matteoc

    Essenzialmente è un meccanismo per proteggere il business di Google dai bot - e non si capisce perché dovrebbe imporlo ad altri. Gli utenti non ne hanno alcun beneficio, visto che non fa nulla nel senso inverso (garantire all'utente che il sito non sia compromesso). Evidentemente il numero di bot comincia a preoccupare seriamente Google, ma quello è un problema suo, e un meccanismo del genere potrebbe seriamente compromettere l'usabilità e la sicurezza di un browser, ad esempio se non "certificasse" un browser con NoScript o uBlock Origin installati, perché impediscono agli ads di Google di raggiungere l'utente. e di raccogliere dati.

    Credo che le autorità antitrust dovrebbero seriemente darci un'occhiata - se Internet Explorer era un problema perché Microsoft cercava di imporre gli standard web per poi vendere i suoi toool, con Chrome è anche peggio, perché c'è di mezzo la privacy degli utenti.

    le manie di controllo di google sono leggendarie... speriamo che non passi queste scempio altrimenti addio web come lo abbiamo oggi.

    Insomma un sistema che continuerebbe a permettere a Google di fare ciò che gli pare con lo scraping (indovinate chi sarà la "authority"...) ma impedirebbe ad altri di fare ugualmente.

    Artistico

    Beh queste mosse il Gargler (nome appositamente dispregiativo) ha sempre provato a farle, evidemente qualcuno lì ha manie di grandezza e di controllo oltre particolare piacere nel denaro.
    Ci si può anche lamentare ma finché si continua a usare Gargler Chrome, Gargler mail e Android c'è poco da fare...
    Ma dato che tanto alla fine comunque la maggior parte degli utenti usa loro prodotti alla fine si rischia comunque di rimanere fregati, metti caso che "eheh tu usi Firefox, io Gargler non ti certifico e ti attacchi, però puoi usare Gargler Chrome", un po' come per la storia di drive che con Firefox sembra limitare la velocità in upload mentre con Chrome/ium no.

    3 mesi dopo
    • [cancellato]

    matteoc

    Visto che è sotto la lente di diversi Antitrust non gli conviene portare acqua al loro mulino. Comunque Google sta provando varie vie per cercare di incrementare la sua capacità di controllo, spera evidentemente prima o poi di imbroccarne una.

    Intanto c'è anche chi ha inviato al DPC Irlandese una rimostranza riguardo il blocco degli ad-blocker su Youtube: https://www.theregister.com/2023/10/26/privacy_advocate_challenges_youtube

    Informativa privacy - Informativa cookie - Termini e condizioni - Regolamento - Disclaimer - 🏳️‍🌈
    P.I. IT16712091004 - info@fibraclick.it

    ♻️ Il server di questo sito è alimentato al 100% con energia rinnovabile