Le protocole HTTPS comme facteur de positionnement

La semaine dernière, Google a annoncé que les sites sécurisés (HTTPS et SSL) obtiendront un coup de pouce dans les classements de recherche. Par le passé, nous n’avions que des doutes sur l’impact du HTTPS dans le positionnement d’une page, mais l’annonce de Google en a fait un facteur officiel.

Le protocole de transfert hypertexte sécurisé (HTTPS) est une surcouche de protocole HTTP classique avec un chiffrement SSL ou TLS.

Ce protocole permet au visiteur de valider l’identité du site qu’il visite par l’intermédiaire d’un certificat émis par un tiers de confiance. Ce protocole garantit – en théorie – l’intégrité et la confidentialité des données échangées entre l’utilisateur et le serveur. Généralement payant (un cinquantaine d’euros par an et par domaine en moyenne), certaines options gratuites commencent à voir le jour comme StartSSL.

C’est donc le bon moment pour prendre un peu d’avance sur vos concurrents tant que tout ceci est encore nouveau.

Que savons-nous sur ce niveau critère de positionnement?

A priori, ce critère est totalement indépendant des autres signaux pris en compte par l’algorithme Google. Contrairement à Penguin ou Panda, ce signal est géré en temps réel en fonction de la page visitée. En effet, les sites peuvent avoir différents protocoles en fonctions des sections présentées. Ainsi, le blog d’un site eCommerce peut avoir un protocole HTTP alors que la boutique (sur un sous domaine ou non) peut utiliser le protocole HTTPS.

Quels sont les risques ?

Changer de protocole signifie – pour Google Webmaster Tools – changer d’URL et, comme à chaque changement d’URL, il est possible d’observer une baisse de positionnement après la mise en place.

Lors du passage de HTTP à HTTPS, il est important de prendre toutes les précautions et planifier correctement ce changement. : Redirection 301, nouveaux sitemaps … N’hésitez pas à investir quelque heures dans un développeur si vous n’avez pas d’équipe IT en interne. Il faudra veiller à rassembler toutes les données existantes sur le site, planifier une stratégie complète et cohérente et mettre en place les certificats SSL. Une fois un place, il faudra suivre les résultats durant les semaines qui suivent.

Notez également que le temps de chargement de vos page peut augmenter. Toutes les données chiffrées devront alors être décryptées par les visiteurs du site, puis à nouveau sur le serveur d’hébergement. Cela prend un peu plus de temps que d’envoyer les données de texte pur.
Le SSL crypte également le contenu de la page, les feuilles de style, et toutes les autres fonctionnalités de la page tels que les images et les vidéos. Si votre site à déjà quelques années, il peut être temps d’envisager une mise à niveau plus globales.

Et vous, comptez vous utiliser un certificat SSL pour votre site ?

Lire la suite

L’impact des liens en NoFollow sur le classement de votre site

Quand il s’agit de liens en nofollow et leur impact sur le positionnement d’un site, de nombreux webmasters sont à la recherche d’une réponse clair et définitive. Si la mixité semble, plus que jamais, de mise, Matts Cutts à publié une vidéo pour répondre aux questions sur les liens en NoFollow.

Dans cette vidéo, Matt Cutts nous informe que les liens en nofollow (attribut rel = « nofollow ») ne peuvent pas pénaliser un site. Il met cependant en garde certaines pratiques pouvant générer une action manuelle.

Si vous commentez en masse tous les articles que vous pourrez lire, alors Google pourrait effectuer une action manuelle anti-spam.
En prenant l’exemple d’Anon.tc sur TechCrunch, Matt Cutts a voulu illustré un cas flagrant d’une personne faisant des commentaires absurdes dans l’unique but d’obtenir des liens et/ou du trafic.

“Je me souviens, il y a quelques temps, que les éditeurs de TechCrunch se sont plaints que l’utilisateur enregistré sous le nom anon.tc laissait de nombreux «commentaires stupides» sur les articles. Après une inspection, nous avons que ces liens étaient en nofollow. Cependant, même dans ce cas, il ne pouvait pas échapper à une punition. Si nous voyons que des actions sont entreprises à grande échelle en vue de manipuler le comportement des utilisateurs, nous prenons les mesures nécessaires contre ces sites.”

Quelle que soit la position de Google, n’utiliser jamais de techniques massives sur vos sites principaux. Si vous commentez pour contribuer activement et sincèrement à la discussion, n’hésitez pas à laisser un lien vers votre site. Dans tous les autres cas, nous vous recommandons d’utiliser vos autres propriétés

Lire la suite

Google : des mesures contre les contenus générés automatiquement

Google parle souvent de l’importance de la qualité tant dans le contenu que dans les backlinks. Dans sa nouvelle vidéo, Matt Cutts a, une fois de plus, fermement déclaré que Google prenait des mesures contre les pages générées automatiquement et qui ne fournissent aucune valeur pour les internautes.

La vidéo est une réponse à la question suivante :

« Que fait Google contre les sites qui ont un script qui sélectionne automatiquement les requêtes de recherche et créent une page dynamiquement pour répondre à cette requête ?”

Matt Cutts reconnaît que ce genre de résultats de recherche apporte une mauvaise expérience utilisateur et Google se dit être prêt à prendre des mesures contre ce genre de sites. Il confirme également que Google a des lignes directrices précises sur les pages générées automatiquement et qui n’offrent aucune valeur à l’internaute.

Lire la suite

Google recevrait plus de 20 000 demandes de reconsidération chaque mois

C’est en tout cas ce que dévoile Matt Cutts dans sa dernière vidéo ! Près de 5000 demandes de réexamen sont envoyé chaque semaine via leur outil Google Webmaster Tools .

Le principal objectif de Google est de proposer des résultats de qualité dans ses pages de recherche. Jusqu’a peu, leur objectif secondaire était de rassurer les webmasters sur les actions mise en place par Google. La mise en place des vidéos de Matt Cutts ainsi que la section dédiée aux actions manuelles éventuellement prise par Google vont dans ce sens.

 

Quand soumettre une demande de réexamen

Google a des normes de qualité claires qu’il utilise pour déterminer si un site est un considéré comme spam ou non. Si votre site ne respecte pas ces critères, il sera probablement impacté. Vous recevrez des notifications de ces pénalités dans votre tableau de bord disponible dans votre compte Google Webmaster Tools (GWT pour les intimes). Il est donc important que vous en créer un maintenant, si vous ne l’avez pas déjà fait.
Avec ces notifications, vous serez en mesure de prendre des mesures pour corriger le tire et alors, et seulement alors, vous devez déposer une demande de réexamen.

Rappelez-vous que les demandes de réexamen ne fonctionnent que si votre site a été pénalisé manuellement. Si votre site a chuté dans les résultats de recherche suite à une mise à jour algorithmique, une demande de réexamen ne vous fera pas gagner grand chose.  

Comment rédiger une demande de réexamen

Une fois que vos « mauvais » backlinks ont été enlevés, vous pouvez déposer une demande de réexamen. Veillez à donner un maximum de détails pour maximiser vos chances d’obtenir une réponse favorable. Cela montrera les efforts que vous avez mis rendre votre site aussi clean que possible aux yeux de Google. Aussi, plus vous détaillerez votre problème, plus Google sera en mesure de vous aider.

Une fois que vous soumettez une demande, vous en serez immédiatement averti dans GWT que votre demande a été soumise. Normalement, il faut quelques jours pour que Google puisse répondre à votre demande. Une fois qu’elle aura été traitée, vous en serez également informé.

Le délai moyen de traitement peut varier de quelques jours à quelques semaines selon le nombre de demandes que Google a à traiter.

Que devez vous préciser dans votre demande de réexamen ?

Faire une demande de réexamen est assez simple, mais quand le résultat est si important, il est naturel de se soucier de ce qu’il faut mentionner ou non. Je reçois parfois des demandes sur la façon de rédiger une demande de réexamen et s’il n’y a pas de réponse unique, je conseille souvent d’articuler votre demande de réexamen autour de trois éléments clés :

  1. Dire que vous avez travaillé ardument pour comprendre les bonnes pratiques de Google.
  2. Montrer que vous avez fait tout ce qui était en votre pouvoir pour supprimer les liens problématiques (mettez quelques exemples de demande de retrait (email, capture d’écran ainsi qu’une liste de liens déjà retirés – Utilisez Google Docs pour partager ces infos, on ne sait jamais ;-))
  3. Préciser que toutes vos actions de promotion sont en parfait accord avec les lignes directrices de Google.

Lire la suite

Utiliser Screaming Frog SEO Spider dans le cadre de projets de référencement

Disponible sur PC comme sur Mac, Screaming Frog SEO Spider va vous permettre d’analyser les liens d’un site, ses images, ses scripts et autres CSS sous un angle utile au référencement. Balises vides, comportant plus de 160 caractères ou moins de 70 caractères, balises dupliquées, H1 manquantes…

Si la version lite ne donne pas un accès complet aux options de configuration et limite les analyse à 500 url* elle peut s’avérer utile pour de nombreuses taches quotidiennes. Dans cet article, nous allons voir comment nous pouvons utiliser l’outil à différentes étapes d’un projet de référencement.

 

Créer un sitemap

Vous pouvez utiliser Screaming Frog SEO Spider pour créer vos plans de site. Dans le menu de configuration, cliquez sur Exclude pour exclure les URLs que vous ne voulez pas/n’avez pas besoin dans votre Sitemap (URLs avec paramètres…, URL d’un dossier quelconque…)

Lancez une analyse complète de votre site et, une fois terminé, exportez les données en cliquant sur Advanced Export >> XML Sitemap.

En complément de la création d’un sitemap, vous pouvez vérifier que votre sitemap existant ne comprend pas d’erreurs. Si vous avez votre fichier XML sous la main, cliquez sur Mode sélectionnez List. Ensuite, sélectionnez le fichier XML désiré pour l’importer dans Screaming Frog. Une fois l’analyse terminée, l’outil vous montrera les les problèmes éventuels (liens brisés…)

 

Chercher des erreurs d’exploration

Google Webmaster Tools réagit parfois lentement face aux changements que vous effectuez sur votre site. Il peut mettre un peu de temps pour trouver toutes les corrections que vous avez apportées sur vos liens brisés etc… Dans cette situation, vous pouvez cependant utiliser Screaming Frog pour vérifier les corrections de vos erreurs 3xx (par exemple 301), 4xx (par exemple 404s) et 5xx.

Vous pouvez, par exemple, exporter vos pages avec un code 404s pour les comparer avec celles que vous avez dans Google Webmaster Tools. Vous pouvez également exporter les pages contenant des erreurs depuis votre interface GWT puis les importer dans Screaming Frog pour vérifier que les corrections ont été apportées

Générer quelques backlinks

Renforcez les liens vers votre site fait sûrement partie de vos taches quotidiennes. Screaming Frog peut vous aider à le faire en analysant les sites de votre thématique pour rechercher les liens brisés.
Contactez ensuite les différents webmasters en leur communiquant les liens ‘problématiques’ et, pourquoi pas, les avertir qu’un article similaire de votre blog pourrait tout à fait remplacer ce lien brisé.

C’est en effet une excellente façon d’augmenter votre visibilité et créer des connexions sur un axe gagnant-gagnant.

Vérifier la bonne implémentation du code Google Analytics

Je vous montrais il y à quelques temps comment nous pouvions utiliser ScrapeBox pour vérifier si le code Google Analytics était bien implémenté dans les pages, nous pouvons tout aussi bien le faire avec Screaming Frog SEO Spider.
Pour cela, la version payante est nécessaire. En effet, la version lite ne permet pas de recherche une chaine de caractères dans le code source de vos pages. Si vous utilisez la version payante, cliquez sur Configuration >> custom et renseigner les différents champs en fonction de vos besoins. L’ID GA (UA-XXXXXXXX-X) peut être renseigné pour confirmer que les page contiennent bien le code. Pensez également à créer un filtre pour chercher les pages qui ne contiennent pas ce code et vérifier, la cas échéant, que cela est voulu.

Si nous vous parlons de Google Analytics dans cet exemple, vous pouvez bien entendu recercher n’importe quel chaine de caractère (ID Adsense…)

Les utilisations possibles sont immenses, n’hésitez pas à en partager dans les commentaires si vous le souhaitez.

Quelles alternatives ?

En fonction de l’utilisation que vous pourrez en faire, différentes alternatives s’offrent à vous. Si je travaille souvent avec Xenu (gratuit et vraiment très performant), on peut souligner VisualSEO, un nouveau logiciel, que je n’ai pas encore testé (mais cela ne saurait tarder) disponible en version bêta gratuite.

 

* Je vous invite à lire l’article Utiliser gratuitement Screaming Frog SEO Spider sur NoviSEO pour contourner cette limitation

Lire la suite