Pourquoi votre site perd ses positions Google — les 9 vraies causes (+ protocole de récupération)
Votre trafic chute, vos pages disparaissent des résultats, et les conseils habituels ne changent rien. Ce guide démonte les 9 causes réelles — dont plusieurs sont systématiquement ignorées par les articles généralistes — et vous donne un protocole concret pour reprendre le terrain perdu.
90%
des pages web ne reçoivent aucun trafic organique Google (Ahrefs, 2024)
48h
suffisent à perdre 60–70% du trafic après une Core Update mal absorbée
6
Core Updates par an en moyenne — chacune peut redéfinir vos positions du jour au lendemain
⚠️
Important : une perte de trafic peut avoir une, deux, ou sept causes simultanées. Ce guide couvre les 9 plus courantes pour les PME et indépendants suisses. Ne traitez pas une seule piste avant d’avoir fait un diagnostic complet — vous risqueriez d’aggraver les autres problèmes.
Google déploie des mises à jour majeures de son algorithme plusieurs fois par an. Ce que la plupart des articles ne précisent pas : il existe plusieurs types distincts d’updates, et chacune cible des problèmes différents. Confondre une Core Update avec une Spam Update conduit à des corrections inefficaces — voire contre-productives.
Core Update
Réévalue globalement la qualité et la pertinence du site. Touche souvent des thématiques entières. Récupération : 3 à 6 mois minimum, en général à la mise à jour suivante.
Helpful Content Update
Cible les contenus écrits pour les moteurs plutôt que pour les humains. Signal site-wide : une mauvaise page tire toutes les autres vers le bas.
Spam Update
Vise les pratiques de manipulation : liens artificiels, cloaking, contenu généré en masse sans valeur. Peut déboucher sur une pénalité manuelle consultable dans Search Console.
Comment identifier quelle update vous a touché :
1. Relevez la date exacte de la chute dans Google Search Console (Performances → comparer deux périodes).
2. Comparez à l’historique officiel sur Google Search Status Dashboard (search.google.com/search-status).
3. Chute lors d’une Core Update = problème de qualité de contenu. Chute lors d’une Spam Update = vérifiez vos backlinks et l’onglet « Actions manuelles » dans Search Console.
· · ·
Cause 02
Vos Core Web Vitals se sont dégradés sans alerte
Les Core Web Vitals sont des métriques de performance intégrées directement dans l’algorithme de classement de Google depuis 2021. Ce que beaucoup ignorent : Google a remplacé le FID (First Input Delay) par l’INP (Interaction to Next Paint) en mars 2024. Si votre monitoring est encore basé sur FID, vous êtes aveugle sur un critère de classement actif depuis plus d’un an.
Métrique
Bon
À améliorer
Mauvais
LCP (chargement principal)
< 2.5s
2.5 – 4s
> 4s
INP NOUVEAU mars 2024
< 200ms
200 – 500ms
> 500ms
CLS (stabilité visuelle)
< 0.1
0.1 – 0.25
> 0.25
TTFB (réponse serveur)
< 800ms
800ms – 1.8s
> 1.8s
3 outils pour tester vos Core Web Vitals :
PageSpeed Insights — données de terrain réelles (CrUX) + données lab. L’outil officiel de Google, il mesure l’INP sur de vraies interactions utilisateurs.
Pingdom Tools — excellent pour analyser le TTFB et la métrique Requests (nombre de requêtes HTTP, souvent négligée).
Experte.com PageSpeed — teste toutes vos pages en un seul clic. Idéal pour repérer les pages problématiques en masse sur un site de 50+ pages.
Note pour les sites suisses : un TTFB élevé provient souvent d’un hébergement mutualisé en France ou en Allemagne sans CDN. Un hébergeur avec serveurs en Suisse (Infomaniak, Hostpoint) ou l’activation de Cloudflare réduit ce délai de 30 à 60%, ce qui se répercute directement sur le classement.
· · ·
Cause 03
La cannibalisation de mots-clés mine vos pages en silence
La cannibalisation est l’une des causes les moins connues des PME, et pourtant l’une des plus fréquentes. Elle survient quand deux pages de votre site ciblent le même mot-clé principal : Google ne sait pas laquelle mettre en avant, fait des choix aléatoires, et les deux pages finissent par mal se classer alors qu’une seule, bien optimisée, s’en sortirait correctement.
Exemple concret :
Une agence web publie une page service « création site web Lausanne » et un article de blog « comment créer un site web à Lausanne ». Les deux ciblent des variantes très proches. Google alterne entre les deux dans ses résultats selon les jours. Aucune n’atteint le top 3, alors que la page service seule y serait sans difficulté.
Comment détecter et corriger la cannibalisation :
1 Google Search Console → Performances → filtrez par mot-clé → regardez si plusieurs URLs apparaissent pour la même requête. Si oui : cannibalisation active.
2 Requête Google : site:votredomaine.ch "mot-clé cible" — si plusieurs pages s’affichent, vous avez trouvé le problème.
3 Solution : désignez une URL canonique, redirigez les autres en 301, ou fusionnez les contenus sur la page la plus forte. Ne supprimez pas sans rediriger.
· · ·
Cause 04
Votre profil de backlinks stagne, régresse ou est toxique
Les backlinks restent l’un des signaux d’autorité les plus puissants pour Google. Mais au-delà de la quantité et de la qualité, deux dimensions sont systématiquement oubliées : la vélocité d’acquisition (link velocity) et les liens perdus. Un profil qui stagne envoie un signal de perte de pertinence, même si les liens existants sont de bonne qualité.
⚠️ Link velocity drop
Si vous acquériez 5 liens par mois et que vous n’en avez plus obtenu depuis 6 mois, Google interprète ce ralentissement comme une perte de popularité. Le classement suit la tendance à la baisse.
🚨 Lost links invisibles
Quand un site qui vous cite ferme ou supprime votre lien, vous perdez de l’autorité passivement. Sur 12 mois, des dizaines de liens peuvent disparaître sans que vous le remarquiez.
5 outils pour auditer votre profil de backlinks :
AhrefsLe plus complet. Index mis à jour en temps réel. La vue « Lost & New links » est indispensable pour détecter les liens perdus.
SEMrushCombine analyse de backlinks et suivi de positions. Utile pour corréler les pertes de liens avec les chutes de classement.
Moz ProLa Domain Authority permet de comparer votre profil à celui de vos concurrents directs sur votre marché local.
MajesticTrust Flow et Citation Flow : deux métriques complémentaires pour évaluer la fiabilité qualitative des liens entrants.
GSC gratuitSearch Console → Liens → liste des sites qui vous citent. Limité mais 100% gratuit et directement depuis Google.
Une stratégie pour obtenir des backlinks de qualité ne repose pas uniquement sur la sollicitation active : un contenu de qualité supérieure attire naturellement des liens depuis d’autres sites qui le trouvent pertinent à citer.
· · ·
Cause 05
Votre contenu vieillit et subit la freshness decay
Google dispose d’un mécanisme appelé QDF — Query Deserves Freshness. Sur certaines requêtes, un contenu récent est favorisé même s’il est moins exhaustif qu’un contenu plus ancien. Un article de 2022 sur « les meilleures pratiques SEO » sera naturellement déclassé au profit d’un article de 2025, même si le vôtre est techniquement supérieur sur le fond.
Très sensibles au QDF
Actualités, tarifs, logiciels, réglementations, comparatifs d’outils, tendances SEO
Peu sensibles au QDF
Guides evergreen, définitions, recettes, tutoriels de fond, histoire
Rafraîchir sans tout casser :
Mettez à jour la date de publication, ajoutez un encart « Mis à jour en [mois] [année] » en début d’article, actualisez les statistiques citées, remplacez les outils obsolètes. Ne changez pas l’URL et ne supprimez pas le contenu existant — enrichissez-le. C’est suffisant pour déclencher un re-crawl et signaler la fraîcheur à Google.
· · ·
Cause 06
Votre budget de crawl est gaspillé sur des pages sans valeur
Le crawl budget désigne le nombre de pages que Googlebot est prêt à explorer sur votre site dans une période donnée. C’est une ressource limitée. Si ce budget s’épuise sur des pages sans valeur — pagination, URLs avec paramètres, archives vides — vos pages importantes sont crawlées moins fréquemment, voire pas du tout. Résultat : elles perdent en fraîcheur aux yeux de Google et décrochent progressivement.
Pages qui gaspillent le budget de crawl :
✗/page/2/, /page/3/ (pagination WordPress)
✗?filter=, ?sort=, ?ref= (paramètres GET)
✗Pages de tags vides ou quasi-vides
✗URLs avec et sans slash final (duplicata)
✗Pages d’archives d’auteur (WordPress)
✗Résultats de recherche interne indexés
Pour auditer : Search Console → Indexation → Pages → regardez les URLs « Découvertes – pas encore indexées ». Un volume trop important indique que Googlebot ne parvient pas à tout crawler. Résolution prioritaire : noindex sur les pages parasites + configuration du fichier robots.txt pour bloquer les URLs inutiles.
· · ·
Cause 07
Vos signaux E-E-A-T sont insuffisants
E-E-A-T signifie Expérience, Expertise, Autorité, Fiabilité. C’est le cadre utilisé par les Quality Raters de Google — des milliers d’humains qui évaluent la qualité des sites et dont les jugements servent à entraîner les algorithmes. Le premier « E » pour Expérience a été ajouté fin 2022 : il signifie que l’auteur doit avoir vécu le sujet de première main, pas seulement le connaître de façon théorique.
EXPÉRIENCE
Montrez que vous avez vécu le sujet. Projets réalisés avec photos, résultats concrets de clients, anecdotes tirées du terrain. Un article sur la création de sites doit montrer des sites créés.
EXPERTISE
Page « À propos » détaillée : années d’expérience, certifications, domaines maîtrisés. Auteur identifié sur chaque article avec biographie et lien vers un profil LinkedIn à jour.
AUTORITÉ
Mentions dans des médias tiers, citations dans d’autres articles, backlinks de sites reconnus dans votre secteur. Google cherche que d’autres sources valident votre expertise.
FIABILITÉ
Mentions légales, politique de confidentialité complète, HTTPS sans exception, adresse physique visible, avis Google vérifiés. Un site sans ces signaux est perçu comme peu fiable.
Consultez nos études de cas pour voir comment nous renforçons ces signaux E-E-A-T dans les projets que nous accompagnons.
· · ·
Cause 08
L’optimisation mobile-first est incomplète ou dégradée
Depuis 2024, Google n’indexe que la version mobile de votre site. Si votre version mobile charge une image non compressée de 3 Mo, affiche des textes illisibles sans zoom, ou présente des boutons trop rapprochés — c’est cette version dégradée que Google utilise pour vous classer. La version desktop peut être parfaite : elle ne compte plus pour l’indexation.
✓
Taille de la police : minimum 16px sur mobile. Google pénalise le texte illisible sans zoom — c’est une erreur listée explicitement dans Search Console.
✓
Zone de clic : minimum 44×44 pixels par élément interactif. Les boutons trop petits ou trop proches génèrent des erreurs « Ergonomie sur mobile » dans Search Console.
✓
Contenu masqué : tout contenu caché en CSS uniquement sur mobile (display:none) est ignoré par Google pour l’indexation. Il ne doit pas contenir d’informations clés.
✓
Diagnostic mobile : Search Console → Expérience → Ergonomie sur mobile liste toutes les erreurs spécifiques à votre site avec les URLs concernées.
La concurrence locale s’est structurée pendant ce temps
Votre site n’a pas nécessairement empiré — vos concurrents se sont améliorés plus vite que vous. En Suisse romande, le marché SEO local s’est considérablement densifié depuis 2022 : des acteurs qui avaient peu de présence en ligne ont investi massivement, repoussant les positions précédemment acquises vers la page 2 ou plus loin.
Google Search Console : date exacte de la chute + pages perdantes. Vérifier les Actions manuelles. Croiser avec l’historique des Core Updates sur search.google.com/search-status.
48h
Phase 2 — Quick wins techniques
Corriger les Core Web Vitals hors seuil. Ajouter noindex sur les pages parasites. Résoudre les erreurs 404 et redirections cassées. Corriger les erreurs d’ergonomie mobile listées dans Search Console.
2 sem.
Phase 3 — Contenu et E-E-A-T
Mettre à jour les articles périmés (date + enrichissement). Corriger les cannibalisations détectées. Renforcer les signaux E-E-A-T manquants. Demander la réindexation des pages corrigées dans Search Console.
1–3 m.
Phase 4 — Autorité et liens
Désavouer les liens toxiques identifiés. Reprendre une stratégie d’acquisition de liens naturels. Surveiller l’évolution hebdomadairement dans Search Console et corriger au fil de l’eau.
Réalité à connaître : après une Core Update, Google indique lui-même que la récupération complète ne survient en général qu’à la Core Update suivante, soit 3 à 6 mois. Le travail de fond réalisé maintenant produira ses effets au prochain cycle d’évaluation algorithmique.
Vous ne savez pas par où commencer ?
Un audit SEO complet identifie précisément lesquelles des 9 causes s’appliquent à votre site, et dans quel ordre les traiter. Pas de généralités : une analyse de vos pages, vos mots-clés, votre concurrence locale en Suisse romande. Notre accompagnement SEO local suisse accompagne les PME et indépendants suisses dans ce diagnostic depuis 2019.
Combien de temps faut-il pour récupérer ses positions après une Core Update ?
En général, Google indique que la récupération complète suite à une Core Update n’intervient qu’à la mise à jour suivante, soit 3 à 6 mois. Cela ne signifie pas qu’il faut attendre sans rien faire — les améliorations apportées dès maintenant seront évaluées lors du prochain cycle. Un travail rigoureux sur la qualité du contenu et les signaux E-E-A-T peut accélérer une récupération partielle avant la prochaine Core Update.
Comment savoir si mon site a reçu une pénalité manuelle de Google ?
Rendez-vous dans Google Search Console → Sécurité et actions manuelles → Actions manuelles. Une pénalité manuelle y est clairement listée avec la raison. Les pénalités manuelles sont rares — la grande majorité des chutes de trafic sont dues à des filtres algorithmiques, non à des pénalités manuelles. Si l’onglet est vide, la cause est algorithmique.
Est-ce que supprimer des pages peut améliorer mon classement global ?
Oui, dans certains cas. Depuis la Helpful Content Update, des pages vides, dupliquées ou de très faible qualité tirent le signal global du site vers le bas. Consolider ou supprimer ces pages — avec redirection 301 vers une URL pertinente — peut améliorer la perception de la qualité globale du site par Google. Ne supprimez jamais sans rediriger.
Google peut-il désindexer mon site sans m’avoir prévenu ?
Google ne notifie pas pour les filtres algorithmiques, qui représentent l’immense majorité des baisses de classement. Il notifie uniquement en cas de pénalité manuelle, via Search Console. En revanche, des causes techniques — balise noindex posée accidentellement, erreur dans le fichier robots.txt, problème de certificat HTTPS — peuvent faire sortir des pages de l’index du jour au lendemain. Vérifiez régulièrement Search Console → Indexation → Pages.
Comment surveiller mes positions Google sans outil payant ?
Google Search Console est l’outil gratuit le plus fiable. Il donne la position moyenne de chaque page sur chaque requête, le volume d’impressions et les clics. Ses limites : données moyennées sur plusieurs jours, pas de suivi en temps réel. Pour un tracking quotidien gratuit sur quelques mots-clés, Ubersuggest propose une version gratuite limitée. Une recherche manuelle en navigation privée reste la méthode la plus directe pour vérifier votre position sur une requête précise à un instant donné.
Votre site perd du terrain chaque jour sans diagnostic précis
Un audit identifie exactement lesquelles des 9 causes s’appliquent à vous. Pas de généralités : une analyse de votre site, vos mots-clés, votre concurrence locale.
Fondateur de VLdesign, agence web suisse romande basée entre Lausanne et Genève. 26 ans d'expérience dans la création de sites internet, le référencement local SEO et l'accompagnement digital des PME suisses. Passionné par WordPress, l'ergonomie web et la stratégie de contenu. J'écris sur ce blog les retours terrain de mes projets clients.
PartagerLinkedInXWhatsAppCopier le lien l’offre d’hébergement WordPress propulsée par Celeste Un site WordPress lent ou instable, c’est du chiffre d’affaires qui…
Nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir nous permettra de traiter des données telles que le comportement de navigation. Le fait de ne pas consentir peut avoir un effet négatif sur certaines fonctions.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.