Nous vivons à l'ère du Zetta octet. La masse de données est considérable : 64 zettaoctets estimés en 2020, soit 64 000 milliards de Giga octets ou encore 64 milliards de Tera octets ! A titre de comparaison il y avait seulement 1 Zo de données en 2000...

A coté de l'expansion considérable des volumes de stockage, la capacité de calcul des super ordinateurs atteignait en 2021 en ordre de grandeur 1018 instructions par seconde (IPS), soit 1 milliard de milliards d'instructions exécutées à la seconde !

Cet article nous montre l'évolution des processeurs de leurs origines jusqu'en 2000 :

https://promethee-ti.eu/2022/07/06/breve-cpu-1-2/

Un pentium 4 de 2004 contenait 125 millions de transistors et est capable de calculer 105 000 MFLOPS , soit 105 milliards d'instructions à la seconde. La suite de l'évolution est résumée dans cet article :

https://www.itpro.fr/evolution-processeurs/

La mise en parallèle des coeurs de processeurs a soutenu cette évolution qui conduit aux puissances de calcul phénoménales observées aujourd'hui.

L'article qui suit explique en détails (mais en anglais) la loi de Moore et d'autres aspects de l'évolution des technologies numériques.

https://ourworldindata.org/technological-change

La loi de Moore prévoyait que « les capacités des dispositifs informatiques pour un prix donné doublent tous les deux ans ». Cette loi prévoit l'évolution du nombre de transistors des puces électroniques par centimètre carré. Le cofondateur d’Intel prédisait qu’il doublait environ tous les ans (à partir de 1965), puis tous les deux ans (à partir de 1975).

En parrallèle des progrès continus des ordinateurs, un système d'interconnexion décentralisé est né: internet était conceptualisé en 1973 (apparition du protocole TCP/IP) puis se développe plus largement à partir de 1983, avec la mise en place des DNS.

Résumé historique d'internet et de son évolution :
https://www.tuteurs.ens.fr/internet/histoire.html

Ce contexte technologique posé, intéressons-nous aux sociétés qui dominent ce marché. Vous les connaissez toutes, en utilisez les services d'au moins une, et avez déjà croisé le sigle GAFAM. Sinon c'est l'acronyme de Google, Amazon, Facebook, Apple et Microsoft, les acteurs majeurs du secteur numérique.

Pour beaucoup d'entre nous, le point d'entrée vers Internet est Google. C'est le G de GAFAM. Il est non neutre. Car c'est l'algorithme (secret) de la multinationale qui classe l'ordre des réponses, avec sa puissance de calcul et de stockage utilisant plusieurs millions de serveurs (le chiffre exact est secret). Je ne vais pas développer le portrait des autres acteurs majeurs, mais résumer leurs points commun : beaucoup de serveurs, beaucoup de matière grise, beaucoup de données (car beaucoup d'utilisateurs) et beaucoup d'argent.

Si Google offre un service gratuit en apparence, pour son moteur de recherche ou son service e-mail, c'est le commerce de données et surtout la publicité qui constituent ses principaux revenus. Vous connaissez l'adage "quand le produit est gratuit, le produit, c'est toi", lol. Peut-on assimiler l'extraction et le retraitement des données d'utlisateurs à une forme d'espionage ?

Autrefois, en 1998, par exemple, quand on se connectait à une adresse internet, votre machine était en liaison avec un serveur. Aujourd'hui, une requête enclenche d'autres requêtes et vous êtes connectés à de multiples serveurs. Lors des connexions, les serveurs font appel à d'autres serveurs ... qui font parfois appel à d'autres serveurs, sans qu'on s'en aperçoive.

Si on met en parallèle l'évolution technologique et l'evolution de l'expérience d'internaute, on peut constater que la seconde partie a moins évolué que la première. Pour la simple et bonne raison que les capacités de calcul et de stockage sont en partie dédiées à des opérations invisibles pour l'internaute, comme l'enregistrement de ses données de navigation et de choix, et d'en extraire des données. C'est précisément là qu'une partie non négligeable des prodigieuses puissances de calcul est absorbée et explique que l'expérience de l'internaute n'utilise qu'une partie des capacités déployées.

Si vous ne le faites pas déjà, observez les urls qui défilent (en général en bas de votre navigateur web) lors des requêtes que vous faites. Elles s'enchainent tellement vite que vous n'avez pas le temps de les voir toutes. Mais cet exercice nous montre factuellement que les requêtes multiples existent et vous y reconnaitrez souvent les serveurs de Google.

Avant de conclure cette première partie, je vous invite à découvrir la série Dopamine, de courts épisodes d'environ 7 mn qui expliquent le business model et l'algorithme des principales applications utilisées, dont YouTube, propriété de Google, qui envoie aujourd'hui 100 heures de vidéo à la seconde aux 4 coins du monde : https://www.arte.tv/fr/videos/RC-017841/dopamine/

Avec ces premiers éléments de réponse à la question : que se passe t'il en backoffice ? , nous pourrions approffondir le thème du commerce des données, qui est un des secteurs les plus lucratifs du moment. Mais mieux vaut vous mettre sur la piste de vos propres recherches en la matière : intéressez-vous aux activités de la société Cambridge Analitica, par exemple.

Concluons en revenant au titre de l'article, la souveraineté numérique, et disons que la première étape consiste à prendre conscience de ce qui se passe, au plan technologique (hardware et software), au premier plan ET en arrière plan, de se poser quelques questions de tous ordres, y compris éthique et d'entreprendre une clarification de son usage de ces outils.

Dans le prochain article nous poursuivrons notre exploration et partagerons des pistes concrètes pour regagner du terrain dans le domaine de la souveraineté numérique...à moins que nous nous sentions déjà irrémédiablement dépassés ?