Trafic et long tail par Alexa

Dans un article du 9 Novembre 2006, Geoffrey Mack publie sur le blog d’Alexa une analyse des statistiques issues de leur outil.

Pour rappel, Alexa fournit des stats issues de l’analyse du surf de plusieurs millions d’utilisateurs de la barre d’outil Alexa.

Bien qu’imprécises car sous-représentées en France et sur-représentées chez les professionnels, les statistiques qu’il fournit ont le mérite d’exister et donne un ordre d’idée du trafic d’un site.

En plus du nombre de visiteur, Alexa fournit un classement des sites les plus visités au monde.
Je vous invite d’ailleurs à consulter le top 500 mondial, le top 100 français ainsi que le Movers and Shakers, très utilise pour découvrir les sites qui buzzent en ce moment.

Après cette petite présentation, revenons-en au billet de Geoffrey.
Ce dernier nous donne une illustration de la théorie de la « Long Tail » (longue traîne en français), appliquée aux statistiques à travers un graphique simple.

Long tail Alexa Large

 

Ce graphique présente la répartition du trafic en fonction du classement des sites. Où se trouve la courbe me direz-vous ?

Regardez bien dans le coin en bas à gauche. Pour nous aider, voici une image d’un zoom sur cette courbe :

 

Alexa Long Tail

 

Cette courbe ressemble à une exponentielle inversée.

Quelles conclusions en tirer ?
Quelques milliers de sites concentrent une grande partie du trafic alors que plusieurs millions de sites accueillent quelques visiteurs par jour.
Entre les deux, la pente vertigineuse de la courbe montre qu’il existe finalement très peu de sites de taille moyenne.

Pourrait-on dire qu’il n’existe pas de demi-mesure sur le web ? Soit un site rencontre un succès mondial, sur il est positionné sur une niche, soit il reste confidentiel ?

Si on analyse le top 500 des sites les plus fréquentés au monde, on constate que tous les grands domaines d’internet sont entre les mains de monopoles ou d’oligopoles.
Le marché de la recherche est détenu par quelques moteurs (Google, Yahoo, Microsoft), les fournisseurs d’emails par Aol, Microsoft ou Gmail, l’hébergement de Vidéo est dominé par Youtube et l’encyclopédie en ligne est monopolisée par Wikipédia.
Les exemples sont nombreux. Aucun gros domaine pourvoyeur de trafic n’est détenu par plus de 5 acteurs.

Le web n’échapperait donc pas à la fameuse loi Pareto du 80/20 ?

Si Google n’existait pas

Le site américain Google Operating System nous fait part de sa vision d’un « web sans Google ». Je vous propose d’en lire la traduction libre.

Si Google n’existait pas :

* Nous serions heureux d’avoir 4 Mo de quota par boite email (cf. Gmail).

* Nous paierions pour utiliser des logiciels de gestion d’images (cf. Picasa) ou de cartographie (cf. Google Earth).

* Beaucoup de sites ne pourraient être gratuits sans les revenues générés par la publicité (cf. Google AdSense).

* Opéra serait toujours en shareware (Google finance Opéra).

* Notre page d’accueil serait un portail ou une page vierge.

* Les moteurs de recherches mixeraient dans leurs résultats les liens sponsorisés et les liens naturels.

* Chaque site devrait développer un moteur de recherche interne (cf. la fonction site: de google).

* Nous penserions que “bêta”est un mot dangereux, réservé aux développeurs.

En définitive, les nouvelles technologies seraient bien moins excitantes !