Google Analytics : attention à l’analyse des chiffres

Publié le 21 octobre 2014 Webanalytics

Google Analytics est un excellent outil pour analyser le trafic de son site Internet. On comprend ce qui se passe dessus, ce qui fonctionne bien et surtout ce qui fonctionne mal. La principale difficulté en réalité, c’est surtout de savoir l’utiliser et de réussir à bien analyser les chiffres qui sont affichés. Voici donc quelques conseils.

L’échantillon de base

La première erreur est de penser que tous les chiffres sont utilisables. Google Analytics vous montre en effet toutes les données récupérées lors des visites, alors que certaines sont inexploitables. Il faut en effet que l’échantillon d’information soit représentatif et suffisamment important. Voici un exemple de base : un taux de rebond analysé sur 1000 pages vues sera bien plus représentatif qu’un taux de rebond analysé sur 10.

De base, plus les données sont importantes, plus elles auront tendance à être réalistes. J’ai personnellement tendance à considérer qu’en dessous de 150 unités (visiteurs, pages vues, actions, …), les données ne seront jamais assez fiables.

Si l’on veut le calculer de manière bien plus réaliste, il faut alors faire un peu de calcul pour déterminer la taille idéale de l’échantillon à analyser (en supposant que celui-ci soit représentatif de l’ensemble de votre cible et de votre trafic). Il existe plusieurs formules ou sites pour calculer cela, par exemple cet article de Wikipédia ou ce calculateur.

N’étant pas forcément un expert en mathématiques et statistiques, je souhaite juste vous faire prendre conscience de l’importance de la taille de l’échantillon. Par exemple, en utilisant le dernier lien donné avec un nombre de visites de 20 000 et une marge d’erreur de 5%, l’outil me donne un échantillon de base à analyser d’au moins 370 individus pour être fiable.

Ce qui est important ici, ce n’est pas la véracité du chiffre, mais le fait d’avoir un ordre d’idée de la grandeur de données dont on a besoin pour affirmer ou non certaines choses. Par exemple, dire que le temps moyen sur le site est mauvais (ou bon) ne voudrait rien dire avec uniquement 150 visiteurs. Ayez donc toujours en tête cette notion pour chaque donnée analysée (par exemple le taux de transformation d’un mot clé, ou encore le taux de rebond d’une page).

La saisonnalité

Quand on prend les chiffres de manière brute, nous avons tous tendance à avoir la même réaction : on compare avec la période précédente et on peut se dire que les chiffres augmentent, baissent ou se stabilisent. Lorsque l’on agit ainsi, on ne prend plus en compte la saisonnalité de son trafic et de ses visiteurs. La période précédente que vous analysez doit être similaire à celle actuelle, sinon toute votre analyse sera toujours faussée.

Il est alors fortement conseillé de toujours analyser vos données par rapport à la même période que l’année précédente, et jamais par rapport à la période précédente.

Et même dans ce cas, attention à votre analyse. D’autres facteurs saisonniers peuvent changer d’une année sur l’autre :

  • la date des jours fériés ;
  • les périodes de vacances ;
  • les évènements de votre secteur d’activité ;
  • ceux de votre entreprise ;

Les chiffres pondérés

Là aussi, c’est un concept utile. De base, Google Analytics vous permet de trier vos données par colonne. Le souci, c’est que ce tri est souvent peu fiable, notamment à cause de mon concept d’échantillon représentatif.

Sachez que lors vous triez certaines colonnes, vous aurez parfois accès en haut à gauche du tableau à une option de tri appelée « Pondérés » (juste à côté de « Variable Secondaire »).

Les données de Google Analytics avec tri pondéré
Avec le tri pondéré, je peux me concentrer sur les pages importantes

Cela vous permettra alors de trier vos données en prenant en compte l’échantillon de base. C’est notamment très utile pour trier vos pages par taux de rebond, et pour faire ressortir proportionnellement au nombre de pages vues celles qui ont le plus cette problématique.

Les mauvaises informations

En parlant de taux de rebond, on arrive notamment à certaines fausses informations. On a tendance à utiliser les chiffres globaux de manière systématique, alors que ce n’est pas toujours pertinent.

Je m’explique : certaines données de l’ensemble du site sont utiles pour comprendre le trafic de son site, par exemple le nombre de visites et visiteurs ou encore le nombre de transactions et de prises de contact. Mais on va souvent utiliser à tort les moyennes globales des autres données. Je parle ici de ces données :

  • Le taux de rebond ;
  • Le temps moyen passé sur le site ;
  • Le taux de transformation.

On va faire appel à ces chiffres pour évaluer la qualité d’un site sur une période donnée, ou pour connaître l’impact de son travail. Mais en réalité, c’est une très mauvaise idée. Il s’agit là en fait d’une moyenne réalisée sur l’ensemble des visites, pages et source de trafic. Le problème, c’est que l’on va ainsi mélanger des pages très qualitatives et d’autres non ainsi des sources de trafic très rentables et d’autres qui fonctionnent à perte… A vouloir tout condenser, on perd la capacité à agir sur son site.

Ce qui est important ici, c’est de comprendre que tous les chiffres ne sont pas bons à utiliser, et qu’il faut y faire appel au bon moment. Si je prendre l’exemple du taux de transformation, avoir une vue globale de ce taux ne vous permettra pas d’agir, tandis que le fait de le décomposer par source de trafic, mot clé ou encore annonce va vous pousser à agir efficacement.

Posez-vous la question suivante : ce chiffre me permet-il d’agir correctement sur mon site et mon trafic ?

La problématique des actions

Avant dernière problématique des outils de WebAnalytics, ils mesurent de base la page vue. Quand la page se charge, le script est effectué.

Mais de base, impossible de savoir ce que fait l’internaute dans la publication. Tant qu’il ne cliquera pas sur un lien interne, vous ne saurez rien de lui. S’il utiliser des boutons, vous n’en saurez rien. Vous pourriez ainsi passer à côté d’actions comme :

  • la lecture d’une vidéo ;
  • l’impression de la page ;
  • l’inscription à une newsletter ;
  • le téléchargement d’une documentation ou d’un fichier ;

Pensez donc toujours à activer et implanter le suivi d’évènement pour mieux comprendre votre trafic.

Le taux de rebond et le temps passé

Dernier point, et pas des moindres : sachez que le taux de rebond et le temps passé sont deux données faussées. Comme expliqué, les outils de Webanalytics mesurent le trafic au chargement de la page. Lors d’un rebond, le script est donc exécuté à l’arrivée, mais pas à la sortie de l’internaute). Le résultat est simple : toutes les visites avec rebond vont donc avoir un temps moyen de 0 seconde (au niveau global et au niveau de la page) et un nombre de pages par session de 1.

Google Analytics et le temps passé sur la dernière page
Un exemple de temps passé faussé

Quand on regarde cela de manière globale, c’est encore plus frappant :

Le piège du taux de rebond
Le piège du taux de rebond

Ce qui nous amène donc au point suivant : toutes les dernières pages de chaque visites auront ainsi un taux de sortie de 100%, ce qui est normal, mais aussi un temps passé de 0 seconde. Il est donc très important d’analyser :

  • d’une part les pages de mauvaise qualité qui ont un fort taux de rebond ;
  • d’analyser le reste de votre trafic et de vos données en excluant les données du taux de rebond.

D’ailleurs, rappelez-vous toujours que le taux de rebond est complexe à analyser, et que ce n’est pas parce qu’il est élevé qu’il est mauvais (j’en parlais ici ou encore , et vous pouvez aussi lire ce très bon article de Julien Coquet sur ce sujet).

Daniel Roch

Conférencier, auteur, consultant et expert SEO WordPress, CEO de SeoMix et SEOKEY

4 Commentaires

Cédric Le 21 octobre 2014 à 15h25

Pour ceux qui s’intéressent de près aux statistiques, je vous recommande la formation des frères Peyronnet : Masterclass Stats+Web (http://www.peyronnet.eu/blog/masterclass-stats-web/) dans laquelle on reprends certains de ces concepts, notamment la manière de déterminer la taille de l’échantillon.

Alexandre Santoni Le 23 octobre 2014 à 10h42

Très bon article sur quelques points chaud et simple à bien comprendre et maîtriser sur l’analyse de données. Juste après, la réussite d’une telle entreprise est la mise en place d’une structure efficace de suivi des évolutions, ce qui n’est pas évident.

Audrey Le 24 octobre 2014 à 16h24

Article fort intéressant. Tous ces points importants montrent clairement qu’il est bien d’avoir un outil aussi performant que Google Analytics mais encore faut il savoir l’utiliser et l’exploiter. Et pour bien l’exploiter, il faut bien évidemment assurer en analyse de données. Pour les propriétaires de site ou de blog qui ont décidé de prendre en charge eux-même le référencement de leurs sites/blogs, une petite formation sur comment utiliser et exploiter cet outil leur sera vraiment bénéfique.

Patrice Midori Le 28 octobre 2014 à 12h05

Bonjour Daniel,

Comme souvent, les chiffres peuvent en effet avoir plusieurs interprétations et il est donc important de pas faire de conclusion trop hâtive.
J’ajouterai également que les normes de référence ne seront pas forcément les mêmes d’un type de site à un autre (vitrine, catalogue, boutique …) ou d’une thématique à l’autre.

Patrice

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *