Audit technique SEO : guide pour bien le réaliser

Publié le 5 janvier 2023 Optimisation technique SEO
Jean-Marie Even

Toute prestation SEO complète nécessite un audit SEO et notamment un audit technique. Dans cet article, vous allez découvrir les étapes à suivre pour auditer la santé technique de votre site internet. Vous y apprendrez ainsi quels sont les outils utilisés par les consultants SEO, les points à vérifier pour vous assurer d’être au top d’un point de vue technique, mais également les pièges que l’on retrouve souvent sur les sites à auditer.

Qu’est-ce qu’un audit technique SEO ?

L’audit technique SEO est une prestation généralement proposée par une agence SEO, servant à analyser les aspects techniques d’un site et plus particulièrement ceux qui auront un impact sur son référencement. En effet, comme vous le savez sans doute déjà, le référencement Google se compose de trois principaux critères : contenu, popularité et technique. C’est ce dernier point qui est traité dans ce type de prestation.

Pourquoi faire un audit technique SEO de son site web ?

La prestation d’audit technique SEO permet de vous rendre compte de l’état actuel de votre site internet sur des points techniques qui peuvent avoir un impact considérable sur votre SEO.

Imaginez que vous interdisiez à Google de crawler tout ou une partie importante de votre site ? Ou encore que votre site soit bloqué par la majorité des navigateurs web ?

Ce serait évidemment un gros problème pour le référencement de ce dernier.

L’audit technique sert justement à éviter ce type d’erreur et à optimiser tous les aspects qui feront que Google adorera votre site.

Grâce à ce guide, vous aurez toutes les étapes clés pour réaliser un audit technique SEO complet. Vous pourrez ainsi appliquer les corrections nécessaires et avoir un site en meilleure santé. Il restera ensuite à vous concentrer sur vos contenus et votre popularité.

Quels sont les outils et logiciels nécessaires pour un audit technique ?

Tout bon référenceur dispose dans sa boite à outils de quelques scripts, logiciels et outils en ligne lui permettant de réaliser un audit technique SEO de manière efficace. Voyons ensemble les outils indispensables !

Un crawler

Google et les autres moteurs de recherche explorent le web en permanence à l’aide de robots circulant de liens en liens. C’est ce que l’on appelle crawler le web. Chez Google, ce robot se nomme « Googlebot », vous en avez surement déjà entendu parler.

Un logiciel permettant de crawler votre site est donc obligatoire pour réaliser un bon audit technique SEO. En effet, utiliser un crawler SEO est la première étape pour détecter des erreurs que peut rencontrer le moteur de recherche. Pour ce faire, nous vous recommandons Screaming Frog, un logiciel indispensable si vous travaillez dans le référencement. Il est d’ailleurs gratuit pour les sites comportant moins de 500 URL.

screaming frog crawler seo

Un navigateur web

Le navigateur web permet de réaliser diverses analyses techniques du site internet : vérifier la compatibilité mobile, utiliser des extensions de navigateur comme « SEO META in 1 click » pour faciliter vos analyses, utiliser des outils en ligne, comme GTmetrix pour évaluer le temps de chargement d’une page web, etc. Il permet aussi d’accéder à la Google Search Console dont nous parlerons plus bas.

La Google Search Console

Classique me direz-vous, mais connaissez-vous vraiment cet outil gratuit qu’est la Search console ? Mis à disposition par Google lui-même, il regorge d’informations clés pour corriger votre site sur l’aspect technique. Vous y trouverez notamment les pages redirigées ou renvoyant une erreur 404, mais vous pourrez également tracker la vitesse de chargement de vos pages, voire leur comptabilité mobile, leurs données structurées et bien plus encore.

search console seo

Outils en ligne

Beaucoup d’outils en ligne servent à gagner du temps sur plusieurs aspects de votre audit technique SEO, notamment pour tester la sécurité de votre site, sa vitesse ou encore les redirections liées à votre nom de domaine. Nous détaillons l’utilisation de ces outils dans les différentes étapes de l’audit technique SEO.

Vous avez ces outils ouverts sur votre ordinateur et vous vous sentez prêt pour vous lancer dans l’analyse technique de votre site internet ? C’est parti !

Réaliser un audit technique SEO : Les étapes

La réalisation d’un audit technique SEO passe par plusieurs étapes que nous développons ci-dessous :

Crawl du site

Commencez par lancer votre logiciel de crawl, à savoir Screaming Frog. Une fois que vous avez ajouté l’URL de votre site internet, allez dans « Configuration > SEO Spider » puis descendez pour ajouter le sitemap.xml de votre site internet.

Rendez-vous ensuite dans « Configuration > Accès à l’API > Google Search Console » puis connectez Screaming Frog à votre Google Search Console en suivant les étapes. Cette dernière étape permettra à Screaming Frog de récupérer plus d’informations qu’en analysant simplement le site en lui-même.

En parallèle, ouvrez un onglet sur la Google Search Console, vous y retrouverez divers onglets à analyser pour compléter l’analyse que vous réalisez avec le crawler.

Les Codes de réponse

Repérez les liens internes en 301, 302, 404, 500, etc. Toutes ces erreurs peuvent être pénalisantes pour les moteurs de recherche. Il faut donc corriger ces liens internes et rediriger les URL en erreur. Pour vous aider à le faire, utilisez la section « liens entrants » de Screaming Frog. Le but ici sera d’obtenir le maximum d’URL qui répondent en 200.

Les Pages en noindex

Vous avez des URL avec un attribut « noindex » ? Dans ce cas, vérifiez la pertinence de leur présence sur votre site. En effet, pourquoi faire perdre du temps à Google avec des pages qu’il ne pourra pas indexer ? Supprimez donc les liens internes pointant vers ces pages pour que Google ne cherche plus à les visiter inutilement. Il s’agit souvent par exemple des pages « Mon panier » ou « Mon compte » sur les sites e-commerce.

Les URL canonisées

Listez les URL canoniques et canonisées présentes sur votre site internet : vous vous rendrez sans doute compte que certains liens internes mériteraient d’être remplacés ou supprimés. Cette pratique n’est pas forcément à proscrire, mais il faut la limiter à l’essentiel pour éviter de perdre en budget crawl avec des pages qui ne seront pas à indexer par le moteur de recherche.

url canoniques crawl screaming frog

Les pages orphelines

Les pages orphelines sont des pages qui n’ont pas de lien interne à partir du maillage interne du site, un potentiel problème pour la diffusion du PageRank sur votre site, listez donc ces URL pour contrôler la pertinence de votre maillage interne. Il vous faudra, en fonction de la situation, supprimer ces pages ou bien les rattacher au site via des liens internes.

Le niveau de profondeur

À l’aide de Screaming Frog, analyser la profondeur de vos pages est une étape fondamentale dans l’optimisation de votre maillage interne. En effet, plus une page nécessite de clics pour y accéder, plus Googlebot aura de mal à la trouver et la crawler. Sachez également que la quantité de PageRank envoyé vers des pages profondes sera plus faible. Veillez donc à optimiser votre maillage interne en tenant compte de ces bonnes pratiques.

Les images

Vous avez certainement des images sur votre site. Que celles-ci soient au format JPG, PNG ou encore WebP, elles peuvent ralentir votre site. D’une manière globale, listez les URL des images ayant un poids supérieur à 500 ko. Une fois ces URL listées, compressez-les pour les rendre moins gourmandes en ressources lors du chargement de la page.

Les PDF et autres médias

Listez les autres médias présents sur le site : vidéos, fichiers PDF… Une fois que vous disposez de cette liste, vérifiez que les fichiers respectent les bonnes pratiques du référencement : lisibilité pour les moteurs de recherche, balise title, liens, etc.

Les balises

Les balisages présents dans le code source sont importants en référencement naturel. Suite à votre crawl, relevez les pages n’ayant pas de titre H1, pas de balise title, etc. Autant de points à améliorer pour booster votre positionnement Google.

Analyse de la pagination

Limitez la pagination si possible et assurez-vous qu’elle soit bien réalisée. Elle ne doit comporter ni attribut canonique, ni indication noindex. Assurez-vous que Google puisse accéder en un minimum de clics à chaque page de votre site web.

Vérification des Sitemaps XML et HTML

Assurez-vous d’avoir un sitemap XML sur votre site et qu’il soit bien représentatif des URL à indexer par Google. Ce fichier permettra de faciliter l’indexation de votre site. N’oubliez pas de le soumettre dans la Google Search Console.

Concernant le sitemap HTML, celui-ci doit être présent en footer sur la page d’accueil, souvent nommé « plan du site ». Cette page regroupe les URL à indexer également.

Construction des URL

Il y a fort à parier que toutes vos URL ne soient pas bien construites d’un point de vue SEO, mais également d’un point de vue expérience utilisateur. Souvent, elles incluent des « stop words », des caractères spéciaux et sont très longues !

Pour vous donner un exemple concret, imaginons que vous rédigiez un article nommé : « Tout savoir sur les fiches Google My Business ».

Ne créez pas une URL de ce type : https://site.fr/tout-savoir-sur-les-fiches-google-my-business

Mais plutôt comme ceci : https://mondomaine.fr/fiches-google-my-business

Cette bonne pratique permettra d’améliorer l’expérience utilisateur et vous assurera une compatibilité avec tous les moteurs de recherche. N’appliquez pas cette recommandation pour modifier vos URL déjà existantes, au risque de créer des URL en 404. Gardez-la simplement en mémoire pour la publication de vos nouvelles pages.

Le Fichier robots.txt

Le fichier robots.txt (si vous en avez un) se trouve à l’adresse suivante : mondomaine.fr/robots.txt

Ce fichier permet de limiter l’accès de Google à certaines URL ou certains répertoires du site, idéal pour faire gagner du temps à Google.

Dans les faits, l’utilité du fichier robots.txt est à relativiser, car sur un site bien construit, les URL à ne pas explorer ne sont pas censées être accessibles via votre maillage interne. Si vous respectez cette pratique, le fichier robots.txt n’est pas utile dans la majorité des cas.

Pour l’exemple, voici ci-dessous le fichier robots.txt du site SeoKey, respectant évidemment ces bonnes pratiques 😉 :

fichier robots.txt seo

Les ressources bloquantes

Vérifiez les types de ressources présents sur votre site web. Évitez notamment le flash et les iFrames. Ces formats peuvent poser des soucis vis-à-vis des navigateurs internet utilisés aujourd’hui.

Les données structurées

Vérifiez via le site https://validator.schema.org/ la présence d’un fil d’ariane balisé en schema.org sur votre site. Celui-ci améliore la compréhension de la structure de votre site par Google.

Les données structurées ont étés créées pour faciliter la compréhension de certaines informations par les moteurs de recherche que sont Yahoo, Google, Bing et Yandex.

Par exemple, sur une page de recette de cuisine, il est recommandé d’ajouter le balisage schema.org « Recipe » qui donnera des informations supplémentaires telles que le temps de préparation, le temps de cuisson, etc.

Pour citer un autre exemple d’application, sur un site e-commerce, on retrouve souvent des avis rédigés par les acheteurs. Pour cette typologie d’information, le balisage « AggregateRating » permettra de donner une moyenne des avis publiés pour le moteur de recherche.

Parmi les balisages les plus populaires, on retrouve :

  • Article
  • LocalBusiness
  • FAQ
  • Organization
  • Product
  • Rating
analyse schema.org seo

HTTPS

Vérifiez que votre site dispose bien d’un certificat SSL et qu’il est donc en « https:// ». Cela permettra aux utilisateurs de naviguer de manière sécurisée et surtout de ne pas être bloqué par certains navigateurs web.

Vérifiez également les redirections des versions en « http:// » et avec ou sans « www ».

Analyse du temps de chargement

Assurez-vous que le temps de chargement de votre site est optimisé pour ne pas nuire à l’expérience utilisateur. C’est un point important à prendre en considération pour le SEO.

Vérifiez les performances de vos différentes pages importantes avec les outils GTmetrix et PageSpeed Insights. Vous pourrez ensuite effectuer les modifications nécessaires en fonction des ressources qui ralentissent votre site web.

De manière générale, voici quelques recommandations pour un site web rapide :

  • Avoir un serveur performant ;
  • Avoir un système de cache ;
  • Optimiser et minifier les fichiers CSS et Js ;
  • Réduire le poids des médias.
test de vitesse site gt metrix

Compatibilité mobile

Google explore le web en version mobile, ce qui signifie que votre site internet doit impérativement être adapté aux mobiles, tablettes et autres appareils portables.

Sachez qu’un onglet nommé « Ergonomie mobile » présent dans la Google Search Console vous permettra d’analyser la compatibilité mobile de votre site internet et de relever des problèmes d’ergonomie comme un texte trop petit ou encore des éléments cliquables trop rapprochés.

Google met également à disposition un outil en ligne permettant de tester votre site sur ces points clés : https://search.google.com/test/mobile-friendly

Pour aller plus loin et analyser ce point dans les détails, allez sur votre site via le navigateur Google Chrome puis faites clic droit > inspecter l’élément. Une fois la console du navigateur ouverte, vous trouverez en haut à gauche une fonction pour tester votre site sur différents modèles de tablettes et smartphones.

Une fois ce test effectué, demandez à votre entourage de tester avec leurs smartphones et tablettes votre site sur diverses pages pour vous assurer que votre site soit bien responsive.

site web responsive seo

Sécurité du site web

Un site internet bien référencé, c’est une chose. Mais dans un audit technique, il ne faut pas oublier le volet sécurité. Pour vous prémunir du piratage, suivez les bonnes pratiques énumérées ci-dessous :

  • Réalisez une sauvegarde de votre site internet de manière périodique ;
  • Installez une extension de sécurité comme Secupress pour WordPress ;
  • Réalisez les mises à jour de votre CMS et des plugins ;
  • Supprimez les extensions et thèmes inactifs et obsolètes sur votre CMS ;
  • Veillez aux extensions que vous utilisez, leur fréquence de mise à jour, etc. ;
  • Créez une URL de connexion à votre interface d’administration qui ne sera connue que par vous-même ;
  • Renforcez vos identifiants pour que personne ne puisse les deviner.

L’analyse de vos logs

Analyser vos logs vous permet d’extraire un grand nombre d’informations concernant le comportement de vos utilisateurs, mais aussi des robots sur votre site.

Pour votre analyse, nous vous recommandons « Screaming Frog Log Analyzer » qui permettra de rendre lisible votre fichier d’analyse de logs.

Vous pourrez notamment y traiter des informations telles que :

  • La fréquence de crawl de votre site ;
  • Les pages les plus crawlées ;
  • Le budget crawl ;
  • La vitesse de chargement.

Ces informations vous permettront d’aller plus loin dans l’analyse du comportement des robots des moteurs de recherche vis-à-vis de votre site.

analyse de log screaming frog

Multilingue

Dans le cas où votre site internet est traduit dans plusieurs langues, il y a certains points auxquels vous devez faire attention.

Pour avoir un site web multilingue, 3 options s’offrent à vous :

  • le sous domaine ;
  • le répertoire ;
  • un nom de domaine avec TLD géolocalisé, pratique la plus pertinente, mais également la plus contraignante dans la gestion quotidienne.

Pour aider les moteurs de recherche à comprendre que votre site existe en plusieurs langues, intégrez à celui-ci des attributs hreflang, qui indiqueront les différentes versions d’une URL en fonction des différentes langues.

Ne traduisez pas votre contenu tel quel avec un outil comme Google Traduction, veillez à faire une relecture complète des contenus et à adapter les mots-clés en fonction des différents pays ciblés.

Pensez par ailleurs à ne pas activer de redirection automatique en fonction de la localisation de l’adresse IP de connexion, sous peine de faire crawler très souvent votre site en version anglophone par Google. En effet, la majorité des robots qui crawlent le web sont basés sur des adresses IP américaines.

Optimisations de votre CMS

Il y a fort à parier que le CMS que vous utilisez soit perfectible. Dans tous les cas, son analyse doit être intégrée à l’audit technique. Si vous utilisez WordPress, vous devriez vous intéresser à nos articles traitant du référencement naturel WordPress, qui expliquent comment l’optimiser d’un point de vue SEO.

extension seo wordpress

Gardez en mémoire que les CMS ne sont pas créés par des SEO et que chacun d’eux dispose de points perfectibles. C’est notamment le cas de WordPress, mais aussi de Magento, Shopify, Prestashop ou encore Wix pour ne citer qu’eux.

À vous de jouer !

Une fois votre audit technique terminé, vous aurez détecté un certain nombre de correctifs à appliquer. Vous pouvez vous en charger vous-même ou bien faire appel à nos développeurs et consultants si vous le souhaitez.

Une fois votre site optimal d’un point de vue technique, vous pourrez vous concentrer sur les contenus et la popularité de votre site pour lui faire gagner des positions sur des mots-clés pertinents pour votre activité, et ainsi générer du trafic qualifié. Chez SeoMix, nous proposons des prestations d’audit SEO ainsi que des accompagnements SEO pour vous créer une stratégie sur-mesure et vous épauler dans le développement de votre visibilité sur les moteurs de recherche.

Jean-Marie Even

Consultant SEO chez SeoMix

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *