Retour sur les conférences du SEO Camp’us Paris 2021

Zooka peut optimiser vos performances et améliorer votre business en ligne

La team Zooka était présente au SEO Camp’us Paris 2021 ce jeudi 23 septembre à L’Usine. L’occasion pour nous de vous partager de nouvelles astuces SEO, SEA et data analytics si vous n’avez pas pu assister aux conférences de cette première journée. 

1- « Vos tags peuvent-ils perturber votre SEO ? Performance, qualité de la donnée… »  de Nicolas Guillard

Pour commencer la journée, nous sommes allés écouter Nicolas Guillard qui nous a proposé une conférence sur l’optimisation du taggage des sites. En effet, si le tracking permet de collecter des données utiles pour adapter sa stratégie marketing et être plus efficace, avoir trop de tags peut être nuisible ! 

Et oui, la mise à jour Core Web Vitals de Google rend encore plus importante l’optimisation des performances des sites. Et plus vous déclenchez de tags, plus vos performances vont se dégrader. 

Il est donc essentiel de régulièrement auditer son taggage, de vérifier que votre TMS (Tag Management System) est bien configuré, que les bonnes balises se déclenchent aux bons moments et que les tags ajoutés manuellement, issus de vos partenaires par exemple, n’appellent pas d’autres tags en cascade. Seul un bon tracking et un plan de taggage propre peuvent apporter de bonnes données. 

Optimiser vos tags utiles et leur déclencheurs et supprimer les balises inutiles vous permet d’assurer la qualité des données. Et ce n’est qu’avec des données fiables et exploitables que vous allez pouvoir booster vos performances webmarketing. 

2- « Quand Google se fâche, filtres, pénalités, achat de liens et core update » 

Mikaël Priol de netlinking.fr nous a fait un rappel des guidelines de Google et nous a montré leurs évolutions au fil du temps. Par exemple, alors que la firme de Mountain View sanctionnait le recours à des systèmes de liens avec sa mise à jour Pingouin de l’algorithme (achat de backlinks notamment), cette pratique est désormais tolérée si elle est employée de manière raisonnable. La génération de contenu automatisé reste quant à elle totalement proscrite par le moteur de recherche qui a mené des ajustements de son algorithme pour repérer davantage cette technique. 

En tant qu’expert du netlinking, Mikaël Priol nous a exposé des cas concrets de sites qui ont subi des pénalités à cause d’un usage abusif du netlinking. Il nous a d’ailleurs appris que 40 milliards de spams sont identifiés par Google par jour

Le conférencier nous a ensuite exposé une formule qui résume le système de ranking du moteur de recherche numéro 1 dans le monde : 

Google = Pertinence x popularité = Note de contenu x Note de popularité

Mikaël Priol a enfin exposé les résultats provisoires d’une expérience de réindexation menée durant ces derniers mois. Suite à une pénalité, certaines pages ont été retirées des SERPs ou ont vu leur positionnement dégradé. A l’aide de techniques SEO diverses, il a tenté d’améliorer la visibilité de ces pages. L’expérience étant toujours en cours, nous ne pouvons vous donner la conclusion de ce test mais nous ne manquerons pas de les partager avec vous lorsque Mikaël Priol publiera ses retours d’expérience. 

3- « Cas pratique de l’accompagnement stratégique en e-commerce et SEO à l’international » 

Lors de son intervention, Stéphane Jambu de hi-commerce.fr a émis une proposition de méthodologie d’accompagnement SEO qu’il a lui-même employée. 

Pour commencer, il faut définir des objectifs afin d’adapter son plan d’action. Il explique qu’il s’est ensuite rendu sur place, chez son client, pour interviewer les salariés afin de pouvoir réaliser une analyse SWOT. Il a rappelé l’importance du branding, entre positionnement et storytelling, qui laisse place à une étude du contexte sectoriel de l’entreprise et de ses produits en fonction de la stratégie commerciale à déployer en e-commerce

Suite à cela, il convient d’élaborer une stratégie de contenu, qu’il s’agisse d’un buyer persona, du customer journey, des types de média à préconiser, la mise en place d’un calendrier de publication et de suivi. Après quoi, il a évoqué un cas de visibilité déportée : la création d’un site en parallèle d’un autre pour expliquer sa mission. 

Ainsi, trois missions types de sites se distinguent : 

RassurerVendreRassembler
site corporatesite e-commercesite éducatif et communautaire

Il a également précisé que deux types de scénarios étaient envisageables : l’ambitieux, dispositif intégral déployé progressivement, ou le prudent qui est dégradé. Il a d’ailleurs pris l’exemple de la publication d’un site temporaire avant une V1 pour indexer celui-ci avec du contenu de qualité.

4- « GA4, privacy, GTM server side, outils consentless : où va l’analytics en 2022 ? » 

Vincent Lahaye de Ouest France et Aristide Riou de SouthWatts nous ont présenté une conférence sur l’avenir de l’analytique web. Ces deux experts en Privacy ont bien insisté sur le fait que le RGPD, le renforcement des contrôles par la CNIL ainsi que  faisaient bouger les choses côté Analytics. 

Voici le résumé des 4 points qui ont été abordés  lors de cette conférence sur les outils analytiques et la Privacy

  1. Consent management platform ou CMP
    Les lois européennes vont être de plus en plus rigoureuses quant au respect du RGPD. Il est essentiel d’équiper son site d’une bonne solution de CMP. L’idéal est de s’équiper d’une solution existante. Parmi les CMP clé en main, on peut citer Axeptio, idéal pour les sites qui regroupent peu de traceurs et Didomi, solutions à privilégier pour les “gros” sites.
  2. Google Analytics est un outil, les données qu’il présente ne sont pas la réalité. Il est donc normal d’observer des différences entre les données de son BO et ses données Analytics. Par exemple, si un utilisateur ne donne pas son consentement pour les cookies il ne sera pas comptabilisé dans les sessions ou les transactions. Aussi, dans des zones où la connexion Internet est mauvaise, le site va précharger les ressources essentielles et/ou à la place du tracking.
  1. Mutation des modèles de données
    Les outils analytiques évoluent, et parmi les plus grands changements, on peut citer l’arrivée de GA4. Cet outil a un fonctionnement différent d’Universal Analytics : toutes les interactions sont considérées comme des events.  Dans les rapports de base, vous ne verrez plus les sessions par exemple. Il vous faudra personnaliser vos rapports pour intégrer ces données.
  1. Qualité des données
    Il est essentiel de travailler avec les bonnes données pour prendre les meilleures décisions. C’est pourquoi, en attendant que GA4 soit réellement au point, il est préférable d’utiliser à la fois GA4 et Universal Analytics. 

Aristide Riou et Vincent Lahaye nous ont aussi rappelé un point essentiel à savoir pour les propriétaires de site. Si vous recevez un message vous demandant de payer immédiatement une amende parce que votre site ne respecte pas le RGPD, vous êtes certainement face à une arnaque. La CNIL informe, discute et laisse un délai pour se mettre en conformité avant de mettre une sanction. 

5 – « 4 mois pour ranker sur une thématique ultra concurrentielle » 

Cette conférence animée par Julien Jimenez de NextLevel est basée sur un cas concret client, qui lui a permis de se positionner dans les premiers résultats sur un mot clé short trend très concurrentiel et très en vogue. 

Contrairement au titre de la conférence, un plan d’action sur trois mois a été mis en place par les équipes Korleon. Le premier mois, l’agence a analysé les SERP, l’intention de recherche autour du mot-clé choisi et a nettoyé les erreurs de statut http. Les intervenants ont aussi affirmé que certaines SERP ne permettaient plus à une home page de se positionner, qu’une intention de recherche était mouvante et qu’il fallait donc s’adapter à ces critères. Ils ont également ajouté que Google Search Console est l’un des outils les plus puissants en matière de détection et résolution d’erreurs alors qu’il est souvent négligé. Et nous sommes tout à fait d’accord sur ce point ! 

Puis, ils ont nettoyé le Sitemap XML en ne donnant à Google que les URL jugées utiles, contrairement aux CGV, afin qu’elles ne soient pas crawlées par les bots. Il est primordial de juger la pertinence d’une page à recevoir un lien pour ne pas faire de faux pas. 

Le mois suivant, l’agence a fait du onsite, avec notamment la refonte du top menu pour faire en sorte que chaque catégorie soit un mot-clé longue traîne lié au mot-clé principal de la page d’accueil. Elle a également optimisé les Core Web Vitals, travaillé le maillage interne, fait du netlinking et publié des articles Google News sans intégration de lien pour apporter de l’autorité au client en ne citant que son site. 

En continuant le netlinking en ajoutant beaucoup de liens et optimisant toujours la sémantique le troisième et dernier mois, le site est passé de la trentième à la cinquième position dans la SERP, en ayant multiplié les impressions et les clics par trois. 

On ne peut que dire bravo à Julien Jimenez et son équipe pour cette belle performance ! 

6 – « Les pratiques indispensables à adopter sur Google Ads » 

Conférence particulière pour Benjamin Chevillon, qui a été contraint de l’effectuer à distance en raison du Covid. Il a commencé sa présentation sur le SEA par préciser qu’il n’existait pas de bonne pratique en SEA, mais qu’il n’y avait seulement que des bons réflexes ! 

Benjamin Chevillon nous a donné le conseil de toujours garder un œil sur le CTR de son site via l’outil Creatopy. Il a expliqué que plus le taux était élevé, plus cela signifiait que l’annonce correspondait à la recherche. Il a ensuite évoqué l’application de la méthode SKAG, conçue pour réduire ses coûts tout en augmentant son trafic et permettant de booster le CTR. Cette méthode permet de générer du trafic qualifié et d’augmenter le retour sur investissement

Benjamin préconise aussi de garder un oeil sur le niveau de qualité de son contenu sponsorisé, et d’utiliser le plus possible les extensions (de lien, d’accroche, d’extrait de site, de prix, d’appels, de promotions et d’images) pour toucher les différents types d’audience. Qu’elle soit démographique, par affinité, par intention ou similaire, il est important de profiter des nombreux réseaux mis à notre disposition par Google Ads (Search, Display, Shopping, YouTube qui devient un vrai réseau social, et Discovery). A partir de cela, le conférencier conseille d’identifier le réseau, le rapport acquisition/conversion pour utiliser celui qui vous sera le plus profitable. Il a terminé sa prise de parole en mentionnant la possibilité de retargeter une audience sur le réseau Search, si celui-ci n’était pas adapté. 

7 – « La vie cachée des positions »

Jason Miller, créateur de l’outil de monitoring Seowl, nous a parlé de positionnement dans cette conférence SEO Camp’us et notamment de la volatilité des rankings dans les résultats de recherche. 

En effet, le positionnement n’est pas une donnée fixe puisque plusieurs changements de positions d’une page sur un même mot clé ont lieu chaque jour. Cela peut expliquer le fait que SEMRush affiche une certaine position sur un mot clé dans ses rapports alors que vous constatez un autre ranking en faisant le test en temps réel.

L’expert SEO, pour prouver la volatilité des positions, a mené un test grâce à son outil. Il a interrogé la SERP 20 fois en 1 minute sur le même mot clé en utilisant des IP différentes. Le constat est sans appel : dans la même minute, son outil a révélé des changements de positions allant jusqu’à 10 places d’écart !

Jason Miller nous a ensuite présenté les facteurs qui expliquent et/ou influencent cette volatilité : 

  1. Profondeur de la page dans la SERP
    Mieux une page est positionnée, moins elle va subir de variations : peu de variations dans les 10 premiers résultats mais des écarts importants dans les pages de résultat plus lointaines
  2. Tests de position de Google
    Google avance et/ou recule les pages dans son index pour tester la pertinence. D’ailleurs, 72% des pages testées vers le bas sont descendues en position moyenne en 1 trimestre
  3. Temps partagé dans la SERP
    Les URLs ne sont pas tjrs présentes dans la SERP notamment sur des mots clés TRÈS concurrentiels comme « google »
  4. Device
    Les résultats sur mobile sont bcp plus volatiles que sur desktop 

Le positionnement est donc une donnée à interpréter avec des pincettes. Il vous donne une vision de vos performances SEO mais ne vous fiez pas uniquement à cet indicateur pour évaluer vos performances. 

Nous tenons à remercier toute l’équipe du SEO Camp pour cette journée et cet événement à la fois enrichissant et convivial. Encore de belles conférences et des échanges instructifs avec les experts de la sphère Search Marketing lors de cette édition. Vivement le SEO Camp’us Paris 2022 !