Le web est un espace dans lequel les services proposés peuvent voir leur consommation littéralement exploser suite à l’adoption massive par les utilisateurs. Quel est le lien avec la surcharge informationnelle ? Cela à t-il une incidence sur nos capacités à évaluer l’information trouvée sur Internet ?
La société Socialnomics aime à rappeler dans ses vidéos de présentation que pour réunir 50 millions d’utilisateurs, il a fallu 38 ans au média radio, 13 ans au média télévision et 4 ans au média Internet. Quand dans notre histoire avons-nous vu un service passer de 10 à 700 millions d’utilisateurs en moins de 10 ans ? C’est le cas de Facebook . Les principales fonctionnalités plébiscitées par les utilisateurs, sont jeunes : LinkedIn, le réseau social professionnel n’a que 9 ans, Facebook a 8 ans, YouTube, le deuxième moteur de recherche au monde, a 7 ans, Twitter a 6 ans en 140 caractères, et Google+ tout juste un an.
Alors la difficulté réside non seulement dans le changement d’échelle quasi entropique de la production de documents numériques mais également dans la vitesse de mutation des usages. Et dans ce cas, la loi de Moore est dépassée. En 1965, Gordon Moore, co-créateur d’Intel, fait un postulat empirique : les capacités des terminaux, des serveurs et des réseaux doublent tous les 18 mois et corrélativement, cela entraîne une diminution proportionnelle des coûts.
Plusieurs économistes gageaient que le modèle économique des industries liées à Internet serait basé sur cette théorie. Or des sociétés comme Twitter ou Facebook n’ont pas ce genre de modèle économique, tout simplement parce qu’à leur création elles n’avaient pas de modèle économique. Créé par pulsion au lieu de l’analyse d’un marché, les services qu’ils ont proposés ont répondu à un besoin qui n’avait pas été encore anticipé.
Pour preuve de la décorrélation entre la loi de Moore et les économies liées à Internet, il suffit d’observer l’évolution de la courbe du nombre de noms de domaine depuis 1995 fournit par le site Netcraft (vue linéaire). On y voit, de façon assez visible, que la progression se fait par à coup brutaux.
Un univers en extension
Aucun moteur de recherche n’est en mesure de quantifier précisément le nombre de pages accessibles sur le web. Le site « The Next Web » nous fournit une infographie pour nous rappeler à quel point le web est vaste et à quelle vitesse le nombre de pages progresse.
Lors de la première indexation officielle de Google, le fameux moteur de recherche recense près de 26 millions de pages, deux ans plus tard, le cap du milliard de pages est franchi. En sachant qu’il peut y avoir plusieurs URL (chemin d’accès) pour une même page (objet informationnel unique), les professionnels du web proposent un ratio de 10 URL pour 1 page tandis que le site TechCrunch propose lui un ratio de 25 URL pour 1 page. Soit, 588 pages uniques par domaine pour le premier et 235 pages uniques par domaine pour le second. Que l’on opte ensuite pour l’un ou pour l’autre, l’évolution du nombre de pages indexées sur la période 2008-2012 est la même, soit 21%.
Si l’on applique le ratio des professionnels du web sur le nombre de domaines évalué en juin 2012 à 697 089 482 , on arrive à près de 410 milliard de pages (697089482 noms de domaines x 588 pages par nom de domaine = 409 888 615 416 pages).
En juin 2011, soit il y a tout juste un an, Cisco estimait qu’il faudrait 7 millions de DVD pour stocker la somme d’informations correspondant au trafic global d’Internet… pendant 1 heure.
Comment peut-on encore penser que la surcharge informationnelle et donc cognitive, n’a pas d’effet sur nos capacités à évaluer l’information sur internet ?
Concocté à partir du mémoire de recherche « Évaluer l’information sur le web, peut-on arriver à une pertinence sociocognitive satisfaisante ?« .