Fichier robots.txt et URLs produits
Les URL bloquées l’ont été en raison de paramètres contenus dans celles-ci, tels que la taille et la couleur d’un produit donné. Chaque variation de taille et de couleur avait une URL distincte avec le paramètre approprié. Ces multiples URL avec paramètres ne possèdent pas de valeur pour le référencement naturel et, si elles sont indexées en grand nombre, elles peuvent perturber le bot Google. Pour éviter cela, les URL avec ces paramètres ont été bloquées dans le fichier robots.txt. En conséquence, le Google Bot lié à Google Ads a été aussi bloqué, ce qui a provoqué une erreur au niveau du Merchant Center.
Synergie SEO / SEA
Dans ce cas précis, nous avons opté pour la deuxième option. Nous avons indiqué dans les urls un paramètre “codé” qui ne se heurte pas aux blocages du robots.txt, afin de continuer à bloquer les urls avec paramètres dans le robots.txt tout en exploitant ces derniers dans les campagnes Shopping. Cette solution demande un travail de développement conséquent, mais est nécessaire pour mettre en place une stratégie SEO et Shopping / Ads sur le long terme. Il est indispensable que les actions SEO et SEA soient harmonisées pour assurer une stratégie digitale réussie, et l’optimisation des contenus des landing pages et des choix de positionnements des mots-clés sont essentiels à cet égard. N’hésitez pas à nous contacter pour obtenir une stratégie SEM personnalisée.
[…] Lire aussi : Google Shopping et Fichier robots.txt […]