Nouvel algorithme des stats Alexa

Le tant décrié, mais irremplaçable Alexa, vient d’annoncer la modification de ses algorithmes de calcul de stats.
Dans un billet d’explication sur le blog officiel, la filiale d’Amazon donne pour seule information :
« We now aggregate data from multiple sources to give you a better indication of website popularity among the entire population of Internet users. »

Reste à savoir quelles sont ces « multiples sources » qui viennent enrichir les données issues de la barre d’outil. Personnellement, j’ai du mal à imaginer qui peut fournir des informations si précises à Alexa, en quasi temps réel (le délai de mise à jour des stats est de 48h).
La seule amélioration possible selon moi, est l’utilisation de matrices de redressement, rendue à présent possible par le questionnaire sur le CSP des utilisateurs de la toolbar.

Nous obtiendrons sûrement plus d’infos dans les jours à venir sur l’impact de cette nouvelle version, d’autant plus que pour le moment, seuls les 6 deniers mois sont disponibles. Geoffrey Mac explique en effet sur le blog, que les données plus anciennes sont en cours de recalcul.

News Alexa : provenance des visiteurs et classement par pays

 

Je viens de découvrir ce matin qu’Alexa vient d’ajouter à ses statistiques la répartition des visiteurs par pays ainsi que le classement du site à l’échelle des nations.

Après comparaison des chiffres Alexa avec Google analytics, il semble que la répartition des visiteurs par pays soit calculée sur le trafic des 6 derniers mois (voire plus).

D’autre part, comme vous pouvez le constater, les chiffres sont plutôt approximatifs pour le très jeune site à l’étude.

En revanche, j’ai pu noter que pour des sites à plus fort trafic, les chiffres d’Alexa se rapprochent de la réalité.

Alexa vs Google Analytics

 

Une raison de plus pour installer l’extension Firefox « Search Status » qui fournit en un coup d’oeil un grand nombre d’info Alexa.

Trafic et long tail par Alexa

Dans un article du 9 Novembre 2006, Geoffrey Mack publie sur le blog d’Alexa une analyse des statistiques issues de leur outil.

Pour rappel, Alexa fournit des stats issues de l’analyse du surf de plusieurs millions d’utilisateurs de la barre d’outil Alexa.

Bien qu’imprécises car sous-représentées en France et sur-représentées chez les professionnels, les statistiques qu’il fournit ont le mérite d’exister et donne un ordre d’idée du trafic d’un site.

En plus du nombre de visiteur, Alexa fournit un classement des sites les plus visités au monde.
Je vous invite d’ailleurs à consulter le top 500 mondial, le top 100 français ainsi que le Movers and Shakers, très utilise pour découvrir les sites qui buzzent en ce moment.

Après cette petite présentation, revenons-en au billet de Geoffrey.
Ce dernier nous donne une illustration de la théorie de la « Long Tail » (longue traîne en français), appliquée aux statistiques à travers un graphique simple.

Long tail Alexa Large

 

Ce graphique présente la répartition du trafic en fonction du classement des sites. Où se trouve la courbe me direz-vous ?

Regardez bien dans le coin en bas à gauche. Pour nous aider, voici une image d’un zoom sur cette courbe :

 

Alexa Long Tail

 

Cette courbe ressemble à une exponentielle inversée.

Quelles conclusions en tirer ?
Quelques milliers de sites concentrent une grande partie du trafic alors que plusieurs millions de sites accueillent quelques visiteurs par jour.
Entre les deux, la pente vertigineuse de la courbe montre qu’il existe finalement très peu de sites de taille moyenne.

Pourrait-on dire qu’il n’existe pas de demi-mesure sur le web ? Soit un site rencontre un succès mondial, sur il est positionné sur une niche, soit il reste confidentiel ?

Si on analyse le top 500 des sites les plus fréquentés au monde, on constate que tous les grands domaines d’internet sont entre les mains de monopoles ou d’oligopoles.
Le marché de la recherche est détenu par quelques moteurs (Google, Yahoo, Microsoft), les fournisseurs d’emails par Aol, Microsoft ou Gmail, l’hébergement de Vidéo est dominé par Youtube et l’encyclopédie en ligne est monopolisée par Wikipédia.
Les exemples sont nombreux. Aucun gros domaine pourvoyeur de trafic n’est détenu par plus de 5 acteurs.

Le web n’échapperait donc pas à la fameuse loi Pareto du 80/20 ?

Fusions-Acquisition, Google et Yahoo en tête

Suite à l’acquisition de Youtubes par Google, le très sérieux Blog Google Blogoscoped publiait il y a 10 jours un récapitulatif des dernières fusions/acquisitions des grands acteurs du web.

Nous avons repris et complété ce tableau en y ajoutant notamment le nom du nouveau service issu de l’acquisition mais surtout son domaine d’activité.

Entreprise
Acheteur
Nom
du service
Activité

Montant
($ millions)
Skype Ebay
Voix/Ip
2 600
YouTube Google
Vidéos
1 650
5% d’AOL Google
FAI
1 000
MySpace News Corp
Communauté
580
dMarc Broad. Google
Régie radio
102
Grouper Sony
Vidéos
65
Flickr Yahoo
Photos
32
del.icio.us Yahoo
Communauté
32
Bloglines IAC (Ask)
Blogs
25
Weblogs Inc. AOL
Blogs
25
Blogger Google
Blogs
20
LiveJournal SixApart
Blogs
20
Oddpost Yahoo
Yahoo Mail
Mail
20
Jumpcut Yahoo
Vidéo
15
Rojo SixApart
Rss
10
Picasa Google
Photos
5
MeasureMap Google
Statistiques
5
2.6% de Baidu Google
Recherche
5
weblogs.com Verisign
Blogs
2
Writely Google
Google Docs
Editeur en ligne
2
Dodgeball Google
Communauté
1
Upcoming.org Yahoo
Communauté
1
WebJay Yahoo
Communauté
1
Urchin Google
Google Analytics
Statistiques
?
Keyhole Google
Google Earth
Cartographie
?
Deja News Google
Google Groups
Newsgroups
?

* Estimations

A la vue de ces chiffres, il est clair que le prix payé par Google pour Youtubes semble excessivement élevé si on le compare à d’autres rachats (Blogger, Keyhole) à la rentabilité plus évidente.
Rappelons que Youtubes perd près de 3 millions de dollars par mois de coût de bande passante et rencontre des problèmes de droits d’auteur.

La polémique sur cette acquisition est vive dans la blogosphère : Fred Cavazaa LeeAnn Prescott BusinessWeek.
Cependant, d’autres voix sont plus optimistes et parlent de réduction des coûts grâce à l’énorme capacité d’hébergement de Google et des accords avec les Majors.

Enfin il est à noter que la plupart des acquisitions sont des sites communautaires, de partage de photos, vidéos, musiques ou plus généralement d’informations.
Le partage, un des principaux éléments du Web 2.0 !

Google Analytics gratuit pour tous

C’est en mars 2005 que Google rachète Urchin, une des sociétés leaders en mesure d’audience internet aux Etats-unis.

Renommé Google Analytics pour l’occasion, Google fait rapidement évoluer les offres de cet outil relativement cher vers des tarifs beaucoup plus attractifs.

Quelques mois plus tard, Google va encore plus loin en proposant gratuitement son outil de statistiques.
Mais devant l’énorme succès de ce service, l’éditeur de San Francisco a du momentanément restreindre l’accès à Google Analytics le temps de mieux dimensionner son architecture.

De mois en mois, Google a élargi le cercle des privilégiés jusqu’à l’ouvrir à nouveau pour tout le monde le 16 août.

Nous testons Google Analytics depuis plusieurs mois et vous encourageons à découvrir ce fabuleux outil, notamment l’impressionnante section « Synthèse données/site ».

Rendez-vous sur la page d’inscription.

Les outils de mesure d’audience (Xiti, Mediametrie…)

Vous le savez, les statistiques constituent un des principaux outils d’analyse du business sur le web.

Nous avons testé des dizaines d’outils. Voici un petit état des lieux des différentes solutions actuelles :

  • Analyse des logs

Les outils gratuits tels que Webalize ou Awstats sont basés sur l’analyse des fichiers logs des serveurs web.
Ces outils fournissent des données simple mais fiables, mais sont de grands consommateurs de ressources informatiques.
En effet, l’analyse des fichiers logs (plusieurs gigaoctets par jour pour les sites à fort trafic) peut quotidiennement monopoliser plusieurs heures de serveur.
De plus, étant gérées par les éditeurs et donc potentiellement modifiables, les statistiques issues de ces outils peuvent difficilement être utilisées à des fins commerciales (vente d’espaces publicitaires).

  • Analyse par tag

En France, trois sociétés concentrent une grande partie du marché : Médiamétrie-estats, Xiti et le challenger Weborama.
Médiamétrie bénéficie de sa renommée dans les médias traditionnels, tandis que Xiti et Weborama sont des pure-players très reconnus sur le web.
Ces trois outils sont des références dans le secteur de la publicité et fournissent des statistiques extrêmement pointues pour l’analyse du trafic (et le référencement).
Cependant, leur coût peut-être très élevé selon votre trafic, jusqu’à plusieurs dizaines de milliers d’euros par an.

Aujourd’hui, Google nous offre une nouvelle alternative, en mettant gratuitement à disposition de tous un outil qui n’a rien à envier aux grands noms de la mesure d’audience.
Découvrez tout de suite Google Analytics !

Google Sitemaps devient Google Webmaster tools

Vous connaissez peut-être Google Sitemaps ?
A l’origine, Google Sitemaps était une interface chez google qui vous permettez simplement de soumettre un fichier sitemap au moteur de recherche. Ce fichier vous permet de fournir à google l’intégralité des pages présentes sur votre site.

Cette fonction peut être utile lorsque votre site contient des centaines de milliers de pages. Il permet à google de mieux comprendre votre site et de ‘lindexer plus rapidement et plus efficacement. Du moins dans la théorie, car les effets positifs d’un sitemap sur le référencement ne sont pas encore clairement prouvés.

Au fils du temps, cette interface s’est progressivement enrichie de données statistiques issues du moteur de recherche.

Aujourd’hui, la soumission d’un fichier sitemap n’est plus qu’une des nombreuses fonctions proposées par Google Sitemaps.
C’est pourquoi Google a annoncé il y a quelques jours le changement de nom de « Google Sitemaps » pour « Google Webmaster tools ».

Voici un aperçu des nombreuses stats auxquelles vous aurez accès :

  • La listes des erreurs que googlebot a rencontré sur votre site classées par types
  • Un outil d’analyse de votre fichier robots.txt
  • Fournir à google l’adresse que vous préférez domaine.com ou www.domain.com
  • Les 20 requêtes les plus populaires sur lesquelles votre site apparait
  • Les 20 requêtes les plus populaires sur lesquelles votre site est cliqué
  • Des statistiques sur le crawl et la distribution du PageRank
  • Une analyse sur les mots-clefs les plus utilisés sur votre site et sur les backlinks

Vous l’aurez compris, Google Webmaster tools est un outil primordial à tout bon référenceur.