dimanche 28 février 2010

Atelier SEO n°1 : audit technique – outils webmaster SEO gratuits

Un audit technique constitue souvent le 1er travail d'une prestation en référencement SEO. En suivant une check-liste SEO propre à chaque référenceur, l'audit technique permet de faire un état des lieux des besoins du client en termes d'optimisation technique du site audité. De nombreux outils webmaster SEO gratuits sont disponibles sur le web, rassemblés dans des boîtes à outils pour référenceurs.

L'apport d'un audit technique SEO

L’audit technique permet de répondre à différentes questions :

  • Quels sont les facteurs d’optimisation technique à mettre en place ?
  • La technologie utilisée est-elle SEO friendly ?
  • L’architecture du site est-elle adaptée aux robots ?
  • Votre contenu est-il accessible ?
  • Etc.

Les outils pour référenceurs – David Degrelle – 1ère position



La boîte à outils du référenceur – Sébastien Billard – Relevant Traffic



Outils SEO gratuits pour réaliser un audit technique


Face à l'abondance d'outils webmaster SEO gratuits, il s'agit de bien les sélectionner. N'oubliez pas que ces outils ne feront pas d'interprétation des données à votre place :

Ateliers referencement SEO en master 1 PSM 2010

2ème année que j'organise des ateliers référencement SEO auprès d'étudiants du master 1 PSM (produits et services multimédia) à Montbéliard. L'objectif principal reste une aide pour rendre plus visible leurs blogs et sites de projets rhizome dans les moteurs de recherche. L'objectif secondaire consiste à leur donner une culture de base en référencement SEO et en visibilité sur le web. 4 ateliers SEO seront au programme : audit technique – audit lexical – optimisation éditoriale – stratégie de liens.


4 ateliers de référencement SEO au programme


Au programme des 4 ateliers de référencement SEO, nous retrouvons :
  • Un audit technique. Ce livrable constitue souvent le 1er travail d'une prestation en référencement SEO. Le but d'un audit technique est de dresser un état des lieux des forces et faiblesses du site audité du point de vue de son indexation et de son optimisation technique.
  • Un audit lexical. Le référencement de votre site dépend également du contenu éditorial qu'il propose. Une fois votre stratégie de présence sur le web mise en place, il est essentiel d'analyser la concurrence sur les positions que vous visez. Mots clés métiers, mots clés marque et toute la longue traîne seront à travailler à l'aide de ce livrable.
  • L'optimisation éditoriale. Les moteurs de recherche privilégient le contenu original, le contenu unique, le contenu frais. L'optimisation éditoriale de votre site passe par le respect des règles de rédaction web et notamment la production régulière de contenus.
  • Une stratégie de liens. Le web est affaire de liens. La mise en place de liens se fait aussi bien au niveau interne avec le maillage interne qu'au niveau externe avec les liens entrants et les liens sortants. Echanges de liens, linkbaiting, optimisation des ancres voire inscription dans les annuaires de recherche seront au programme.

En attendant, voici une liste de saines lectures : Blog d'olivier Andrieu - Abondance ; Blog de Sébastien Billard sur le référencement ; Blog de Matt Cutts - Google webspam ; Zorgloob - actualités sur google ; Witmamine - blog sur le référencement et le marketing en ligne ; Oseox - site et blog sur la création de trafic etc.

Cours référencement naturel SEO - Master 1 PSM - Montbéliard

J'ai démarré cette semaine une série d'intervention en master 1 PSM (produits et services multimédia) à Montbéliard. L'objectif de cette session est de donner les bases du référencement SEO aux étudiants afin de les aider à améliorer la visibilité de leurs projets annuels : les projets rhizomes. Vous trouverez progressivement les différents supports présentés aux étudiants.

Semaine 1 : présentation du domaine du search marketing et retours d'expérience.



Cf Présentation du domaine du search marketing

Semaine 2 : Pré-requis SEO et référencement naturel





Semaine 2 : Indexation et optimisation technique SEO





[A suivre - Autres cours SEO]

lundi 22 février 2010

10 retours sur les conférences seocampus 2010

Le programme du seocampus 2010 a été riche que ce soit le vendredi 19 février ou le samedi 20 février 2010. Voici mes retours sur 10 de ces conférences.
[Mise à jour le 26 février 2010]

Conférences du cycle SEO


Conférences du cycle découverte


Tables rondes


Conférences plénières


Autres ressources disponibles sur le net


Autres retours disponibles sur le net


6 raisons pour lesquelles j'ai apprécié le SEOcampus 2010

Le titre est un peu tronqué : 6 raisons pour lesquelles j'ai apprécié le seocampus 2010 et pourquoi j'ai envie de participer au seocampus 2011. J'ai réalisé en effet 10 comptes-rendus de conférences mais je n'avais pas encore donné mon avis. D'autres participants l'ont déjà fait, les retours ont surtout eu lieu via twitter avec le hastag #seocampus. Voici le mien.

Raison n°1 : j'ai appris des choses en SEO


La manifestation s'appelle seocampus. J'avais donc comme attente d'apprendre des choses en termes de SEO et cela a été le cas. Pas nécessairement sur les thèmes à la mode SMO, twitter etc. mais sur le métier de référenceur, l'importance grandissante encore de la longue traîne, l'évolution des moteurs etc.

Raison n°2 : il me reste beaucoup à apprendre en SEO


1ère bonne raison de retourner au seocampus 2011. Les moteurs évoluent. Les pratiques de recherche aussi. Des domaines sont encore un peu flous pour moi au niveau des liens sponsorisés ou des web analytics. Des conférenciers sont géniaux : Aller écouter Olivier Andrieu, David Degrelle, Philippe Yonnet. Du pur bonheur. Peut-être pas la 1ère fois concernant Philippe car c'est de haut niveau mais à force de persévérance (salon e-commerce, salon e-marketing etc.). Il vaut vraiment le déplacement.

Raison n°3 : j'ai rencontré des gens sympas


Si on participe à ce type d'événement, si on débourse 160 euros (eh oui, j'étais rapide pour m'inscrire), ce n'est pas seulement pour écouter studieusement les intervenants. C'est aussi et surtout pour lier des contacts. Le seocampus m'a permis ainsi de rencontrer pour la 1ère fois Sébastien Billard, Isabelle Canivet, David Durand Pichard, Yann Lemort etc. de croiser Philippe Yonnet, David Degrelle et de discuter longuement avec mes collègues de la licence pro référenceur et rédacteur web.

Raison n°4 : je n'ai pas rencontré toutes les personnes que je voulais


2ème bonne raison de retourner au seocampus 2011. Mais là, il faut nous aider. C'est assez difficile de répérer qui est qui. Heureusement, j'ai eu l'aide d'un de mes anciens étudiants Arnaud Ducommun pour m'introduire auprès de membres de l'association seocamp. Peut-être prendre des idées dans les soirées connect ou simplement proposer une couleur de badge en fonction de son profil...

Raison n°5 : j'ai été bien reçu


Il n'y a pas forcément d'idée d'être traité comme un invité dans ce type de manifestation et pourtant, c'est le sentiment que j'ai eu. Bravo à l'organisation. Bravo aux membres bénévoles de l'association. Rien à redire. Ah si, pour dire... un petit café ou une boisson fraîche en fin de journée après une après-midi de conf, ça serait sympa. Mais c'est vraiment pour dire.

Raison n°6 : je sais que les organisateurs prendront en compte les retours des participants


Tout n'a pas été parfait au niveau des conférences. Certains conférenciers n'ont pas adapté leur discours au niveau attendu. Il existe un niveau découverte très légitime mais le public ne vient pas par exemple pour découvrir twitter en cycle avancé. Sans parler d'une conférence commerciale déplacée sur la question de la prise en compte de la performance.

Bonus : j'ai tellement apprécié seocampus que je vous propose 10 retours de conférences.

La reconnaissance des entités nommées et l'extraction de données

La conférence de Jean Veronis a porté sur la problématique de l'extraction d'information dans du contenu textuel. La reconnaissance des entités nommées et l'extraction de données a été abordée principalement du côté de son intérêt et de la méthodologie mise en place. Autrement dit : à quoi ça sert ? Et comment ça marche ?


La problématique d'extraction d'information dans du contenu textuel


Ex : noms propres (lieux, personnes, marques, entreprises, organismes etc. ce qu'on a l'habitude de faire commencer par des majuscules).
Mais pas seulement... pourcentages, dates, montant monétaires etc.

C'est un tâche mal définie. Où s'arrête-t-on ?

A quoi ça sert ?


Détection d'un buzz dans l'actualité. Outil dans wikio « ils font l'actualité ». Intérêt / navigation et SEO.
Essentiel que l'info soit présente en temps réel sur la page d'accueil pour mettre en avant une page en profondeur traitant du sujet.
Veille et suivi de tendances. [A l'image de google trends]
E-reputation. Ex : France Telecom et suicide
Moteurs de recherche. Orange le moteur (si actu = réponse d'actu dans les 3 1ères réponses). // avec réponses différentes selon actu ou pas sur la requête.
Autres applications = traduction automatique + classification de documents + base de faits etc + Extraction de relations entre les entités (siloBreaker).

Projet OpenCalais – ClearForestGnosis = donne à gauche les entités détectées.

Comment ça marche ?


2 problèmes : détection de l'entité puis interprétation.
Ex : orange = fruit, marque, ville etc.
Détection = prb qui semble simple. Mais où prenez-vous vos sources ? + variabilité.
Ex: Air France – Air-France-KLM – AF – AFR etc.+ erreurs orthographiques + multilinguisme + translittérations + entités inconnues.
Heuristiques = combinaison d'éléments pour faire le mieux possible (variantes – noms composés – autres langues etc.)
Bases patronymes et prénoms oui mais... ambigüités.
Statistiques permettent de catégoriser les entités.

Interprétation


Problème de la typologie.
Personnes, lieux etc.
Difficultés marques / entreprises ? Cela dépend de ce qu'on veut à l'arrivée.
Difficulté : comment on catégorise les entités nommées ?

Les modèles d'interventions des agences de search marketing

2ème table ronde sur le search marketing, les modèles d'interventions des agences de search marketing. En présence de plusieurs gros noms de la place, l'accent a été mis sur les process mis en place en SEO et les liens entretenus avec les responsables SEO chez l'annonceur.

Présentation des participants



Avec Yves Weber (YW) Directeur Général Associé de Brioude Internet Référencement, Sébastien Langlois (SL) Directeur Général de l'agence Aposition (Isobar), Emmanuel Benmussa (EB) Directeur du Pôle SEO chez Next-idea (ex Nextedia) François Houste (FH) Directeur Projets speciaux et Analytics, Agence LSF Interactive, Jean-Michel de Sousa (JMS) PDG de l'agence Sartepenso, Anji Ismail (AI) cofondateur de la société CapSEO.

Quelles sont les différences de positionnement entre les agences de référencement ?



(YW) : Brioude = reft depuis 1999. positionnement PME – TPE.
(SL) : Aposition = spécialisé SEO + isobar (SEM – autres leviers). Positionnement très qualitatif – référencement poussé.
(EB) : Next-IDea = reft agence depuis 2005.
(FH) : LSF Interactive = ensemble des leviers marketing. Cellule SEO – médias – luxe. Cellule R&D – search voyagistes.
(JMS) : Sartepenso = depuis 2001 – Grand groupe RMC – 01net. Accompagnement consulting, formation. Next-idea (360° - now 4 axes). SEO intégré dans les 4 axes. Grands comptes = lagardère, NRJ, pureplayer etc. Suivi – accompagnement – tests etc.
(AI) : CapSEO = communauté de référenceur. SEO + SMO. Approche / TPE – PME. Distribution de tâches / profils de référenceurs = sur un projet / nombreuses personnes avec approches différentes.

Quel process mis en place en SEO ?



(AI) : qualification du projet – repérage compétences.
(EB) : client mature – demande du trafic. Apport supérieur. Clients globaux = écosystème digital / communication globale. Ex : axe = influence / prbQ SMO. Liens à partir d'une communauté. Liens dans l'approche globale. Amener aux clients – technique / demandes/
(SL) : tension dans le SEO / adaptation à l'entreprise et ses prbQ et ses habitudes ET l'ambition de faire évoluer les pratiques. 1ère étape : choisir des personnes capables pour intégrer le process (compétence en communication importante). Choix des bonnes personnes dans l'agence + 2ème étape : comprendre l'objectif in fine du SEO. Ex : intégration dans communication globale.
(YW) : maturité du client. 3 leviers : conseils, accompagnement. Expertise : audit technique, éditorial. Production en dur – technique. Adaptation aux besoins. Aide à devenir plus mature chez le client. Schéma de prestation qui colle. On sort de la prestation type (production, éditorial, linking etc.).
(FH) : partie de production classique + 2 tendances : mise en perspective / stratégie globale. SEO pour augmenter la conversation, l'audience, la notoriété etc. SEO moyen d'acquisition... ET pédagogie : aide les clients à murir sur le web. Formation / équipe interne ex : rédactionnel. Pour acquérir bonnes pratiques – réflexes.
(JMS) : adaptation projets client et ses moyens (équipe – propre CMS – agence etc.). Apport profils différents (technique – rédactionnel – stratège qui devient essentiel).

Personnes compétentes chez l'annonceur / apport agence ?



(JMS) : expertise – veille – vision de l'évolution du référencement. Ex : travail pour intégrer un référenceur in house.
(FH) : vision extérieure à l'entreprise – multiplication des types de clients.
(YW) : gagner du temps – bénéficie du savoir-faire – développement outil spécifique.
(SL) : ça dépend – pas toujours apport. De manière pragmatique, développement lourd qu'un client ne peut se permettre. Apport / interprétation de variations. Prise de recul / fonctionnement interne = diminution des ambitions.
(EB) : 1ères questions que le client se posent = maturité du client. Déjà accord de la direction + la meilleure équipe en interne et avec les consultants. N'avoir qu'un prestataire ou qu'un référenceur in house serait une erreur. Partenariat avec les clients est essentiel.
(AI) : recul + avis différencié. Travail sur la « sagesse des foules ». Recherche personne satisfaite. Nécessité réseau important.

Question : SMO / SEO ?


(EB) : avant linking – mode SMO mais comment l'aborder ? Technique – marketing. Nécessité intégration dans communication globale = faire parler ces 2 métiers.

samedi 20 février 2010

Place du search marketing chez les « annonceurs »

Le début de la journée de samedi au SEOcampus a été marqué par deux tables rondes sur la place du search marketing. La 1ère table ronde a porté sur les enjeux économiques du search marketing pour les « annonceurs »

Présentation des intervenants


Avec Michael Vuillaume (MV) Chef de projet Marketing Trafic - Groupe Le Figaro, Céline Simon (CS) Chef de projet SEO du site Kelkoo, Thibaut Cauterman (TC) Responsable de la Business Unit Emploi chez Ouest France Multimedia, Stéphane Arnoult (SA) Responsable SEO - Société Overblog, David Cohen (DC) Responsable SEO de la société Companeo.

(MV) : groupe Figaro – nombreux sites / nombreuses problématiques SEO/webanalytics – Ecole de commerce – agence
(CS) : chef de projet SEO – spécifications, mise en place projets – analyse.
(SA) : Ancien Aposition. Univers SEO – marketing – technique. 11 M / VU
(DC) : génération de leads. 300 000 VU/mois
(TC) : Ouest France – 70 personnes. 2 M / VU / 8 M bassin lecteurs.

Organisation des équipes SEO


(TC) : 4 spécialistes (SEO – SEM – analytics – E-mail) 2 agences.
(DC) : 3 SEO 3 SEM + pôle rédactionnel = cellule marketing.
(SA) : 1 SEO (20 personnes) SEM rien – 10 technique. Logique de Pages lues – distribution
(CS) : 2 Stats – 1 gestion contenu (support pays) – 1 chef projet – 1 responsable SEO + 4 développeurs + SEM = équipe à part rattaché au marketing.
(MV) : 1 + prestataire + 1 SEM + évangélisation / profils technique.

Prise en compte du search / entreprise de presse ?


(TC) : prise en compte web à partir de 2001. Pb : cannabilisation audience papier / écran. Services à apporter + richesse du contenu. Intérêt / service commercial. Une fois prise de conscience, levier / marque.
(CS) : dès le début – essor grâce au SEO.

Référencement d'une plate-forme de blog ?


(SA) : plate-forme en place. Conscience SEO initiale mais évolutions à éloigner. Enjeu de monétisation. Mais difficulté / WP – plugin SEO. Méthodologie de travail = commencer par le portail (organisé / tags – pbQ forte de nettoyage) + 2ème temps / partie blog. Ex : 20% trafic / blog – considération technique / augmentation de la charge. D'autant que performance prend de l'importance.

Problème de l'organisation / directions marketing – technique (blocage entre les 2) ?


(DC) : entrée avec marketing – rédactionnel or placement au milieu de la cellule informatique (car projets plus de site / page à page).
(TC) : dans Business Unit (technique + marketing). Quand idée validée – possibilité de mettre en place.
(SA) : lien avec les associés. Essentiel : comprendre les prbQ de chacun. Nécessité de savoir négocier – faire des concessions. Parfois non. Comprendre prbQ marketing + enjeux techniques derrière. Est-ce que ça vaut le coup ? Nécessité d'ouverture / avancée projets + rentabilité de chacun.
(CS) : SEO à Grenoble avec ingénieurs. Phase production plus facile à démarrer + évangélisation dans la société. Ex : équipe marketing pour éviter les erreurs au départ.
(MV) : rattaché à l'équipe marketing. Optimisation existant + nouvelles fonctionnalités. Equipe technique pense SEO avant son intervention.
Évolution positive de l'organisation des cellules.

Difficulté d'être à la pointe / veille SEO ?


(MV) : travail de veille intégrée dans l'équipe marketing + présence salon / recherche prestataire / nouveautés. (CS) : liens avec agence – tests en interne.
(SA) : plus de difficulté – échange / agence. Sélection de sources. Mise en place de tests. Dès le départ, présenter ce travail nécessaire. Disponibilité pour ce travail.
(DC) : pas si seul (directeur marketing – directeur technique, SEO aussi). Quand équipe informatique – projets plus souvent menés / agence qui propose des projets.
(TC) : principe = tout le monde doit être sensibilisé au référencement. Tout est possible. Tout est testable. Idée = test selon protocole validé. Pour l'encadrement, faire prendre conscience du rapport coût / bénéfice. Aide possible par agence. 1Ère intervention : savoir de base + 2ème : j'ai telle problématique comment la résoudre ?

Relation avec Google ?


(DC) : journée de formation Google proposée.
(CS) : essai de contact chez eux. Réussite mais pas de réponse. Analyse seule, pas d'aide / chute de trafic soudaine.

Intervention auprès des journalistes ?


(MV) pas d'intervention métiers de journaliste + (TC) pas de liens avec les rédactions = secrétariat de rédaction / intégration liens – changement de titre.
Journalistes ont le talent d'écrire SEO - « je ne peux dire à un journaliste d'écrire SEO ».
(TC) : « on écrit pour les lecteurs ». Si optimisation, on dirait ce que est lu le plus = toucher à la ligne éditoriale.

Seocampus 2010 : présentation du moteur Wolfram Alpha en 8 points.

Présentation du moteur Wolfram Alpha en 8 points – Conférence présentée par Jon McLoore – Strategic Development Manager – Wolfram Research. Une conférence de haut vol pour saisir l'intérêt de la computation dans la mise en valeur de contenu web.

Qu'est-ce que Wolfram Alpha ?


Moteur de connaissance de calcul.
Nouvelles approches de recherche.
Réponses précises aux questions précises.
On ne vous demande jamais d'aller vers une autre page.

Objectif : rendre une connaissance utilisable pour tout le monde.

Quelle est cette connaissance ?


4 étapes différentes : avis personnel – faits – méthodes – compréhension.

Que recherche-ton ?


Recherche de faits – d'opinion d'avis (moteur). Vous devez apporter le méthode et la compréhension (vous).

Notre approche est différente = intérêt / faits et méthode = notion de computation (Wolfram Alpha). La compréhension relève encore à vous.

Que vous apporte la computation ?


  • Trouver la feuille dans la forêt.
Ex: infos génériques sur les durées de vie.
Précision de la question / ma situation. 39 year male UK
Quel est le sens de ces informations dans une recherche classique ? Peu de sens 39 ans male uk
Ex : mars midnight (réponse = quelqu'un qui a vu mars à minuit)
Là, situation géographique + mots ensemble = sens.

  • La combinaison de l'information
Ex : temps date naissance nicolas sarkozy
Ou comparaison entre 2 entreprises.
Ex : apple vs microsoft

  • La création de nouvelles connaissances
Ex : recette de crêpe. Si personne n'y a pensé – informations créées dessus.
Traitement de l'ambiguïté.

Problème mathématique très bien traité avec la computation.

  • L'application des connaissances directement

Recherche des informations à des fins précises. Application des connaissances directement.
Ex : simulation de crédit.
On peut éviter de travailler sur la phase méthodologique ou de compréhension.
Ex : mélange de couleur

Ex : bâtiments plus hauts à Paris.
L'information peut être réactualisée. Paris – facteur limitatif qui exclue les autres villes du monde.
Ces informations nécessitent un niveau de computation.

Comment élaborer un tel système ?


Depuis 23 ans. Logiciels de computation mathématique.
Thème commun = comment appliquer la computation à la connaissance.

Wolfram Alpha et SEO ?


Pas de recueil d'infos sur site web.
Intérêt / travail sur des données existantes. Requêtes pour élargir un groupe de données.
Amélioration de l'accès aux infos.
L'utilisation de l'info est intéressante, pas la méthode.
Rendre disponible ses infos ne suffit pas. Besoin de les rendre accessibles.

Contenu + Computation = contenu nouveau.

Pourquoi faut-il proposer des recommandations ?



Information + connaissance doivent être plus intéressantes que ce que vous donnez au départ aux clients. Ex : conseils.
Souvent les données ne sont pas utilisées. On ne sait pas quoi en faire ?
Technologies pour comprendre ces données.
Objectif = prendre des décisions.
Si vous avez des algorithmes de recommandations, possibilité de proposer à l'utilisateur des infos pertinentes.
Ex : j'ai envie de regarder un film drôle pendant 1 heure.

Comment gagner de l'argent ?


API – adverts (limité) – Iphone mais surtout travail en partenariat.

Ex : Bing commence à afficher des résultats passés par notre computation.
Possibilité de poser des questions plus intéressantes à ses propres données.

SEO en 2010 : 4 approches à privilégier pour une stratégie SEO efficace

SEO en 2010 : les approches à privilégier. Conférence de Philippe Yonnet, DGA Aposition – Isobar, lors du SEOcampus 2010. 4 innovations sont à intégrer pour une stratégie SEO efficace en 2010, du fait de l'évolution récente des moteurs : PR modeling – approche sémantique – SMO – référencement responsif.



Du Pr sculting (nofollow) au PR modeling


06/2009 – selon Matt Cuts, la balise nofollow n'aurait pas d'effets sur la manière dont le PR est transmis. Constat : discours ambigüe de Google. Cas où c'est légitime. Ex : mise en panier – quand pas d'intérêt pour les moteurs de recherche.
Est-ce la fin du PR sculpting ? Fin de la période durant laquelle les actions des référenceurs n'étaient pas considérées comme importantes par Google.
Le sculpting permettait de faire coller l'importance d'une page avec la distribution de PR au sein des pages d'un site. Page importante = dépend du nombre de liens qui pointent vers la page. Objectif : maximiser les scores d'importance pour... les pages importantes. Ces actions sont contraires à la philosophie google. Solutions : javascript compliqué – ajax compliqué – nofollow (ne marche plus).
PR modeling : travail = moins de liens – bons liens. Nécessité de respecter les vrais contraintes d'ergonomie. A partir d'une page, se demander quels sont les liens importants ? Où je veux amener l'internaute ?

La personnalisation des résultats change-t-elle la donne en SEO ?


Un tout petit petit peu. Ne change pas encore la donne mais tendance lourde.
Notion de 1ère position deviendra difficilement mesurable. Plutôt objectif d'être sur la 1ère page.

La recherche temps réel change-t-elle la donne ?


Non en général mais oui pour des requêtes d'actualité.
Avant google news. Maintenant, fil des agences de presse + twitter.

Plus de sémantique dans Google ?


Tendance lourde. Symbolisée par l'expansion de requêtes dans les moteurs de recherche. Cela consiste à proposer des résultats sur des mots apparentés / mot tapé. Cela augmente le bruit mais Google est capable aujourd'hui d'apporter des réponses d'expansion. Cette évolution est accompagnée d'une meilleure « désambiguation » des requêtes. Besoin d'avoir les termes qui apparaissent dans la requête. Ex : gm cars – gm wheat – gm screen star wars etc.

Certaines stratégies vont perdre de l'intérêt.
Besoin d'avoir des pages optimisées pour une variante de mon expression de départ.
Analyses des requêtes les plus tapées.
Keyword stuffing (ajouter des tonnes d'expression dans la page) encore moins.
= optimisation du contenu autrement.

Faut-il recourir au SMO pour améliorer son SEO ?


La montée en puissance des réseaux sociaux justifie le recours au SMO.
Tendance forte = temps passé par les internautes sur les médias sociaux. Révolution.
Possibilité de capter ce trafic comme 2ème source de trafic naturel en plus moteur. Ex : référencement des vidéos.



Vers le référencement responsif ? Query Intent SEO.


Évolution des moteurs. Spécialisés / contenus – thématiques etc. Moteurs de niches = verticalisation. Puis recherche « mélangée » alias recherche universelle chez Google. Et QIR = l'algorithme s'adapte à l'intention cachée derrière la requête.
Vers le référencement responsif. Ex : travail spécifique sur la géolocalisation.
Rappel des 3 grands types de requêtes :
- Navigationnelles (recherche d'une page web) base des moteurs d'aujourd'hui. Réponse = URL
- Informationnelles (recherche d'un élément d'information)
- Transactionnelles (objectifs de transaction).

Typologie de requêtes différentes


/ requêtes informationnelles = reconnaissance des entités nommées.
Ex : chez Bing – Paris Hilton.
/ requêtes géolocalisées = nom de localité ou partir de la géolocalisation de l'adresse IP.
Donc identification de l'intention derrière la requête.
/ requêtes transactionnelles
Requête dénotant une intention d'achat ou non ? Il faut distinguer les cas.
Cf : labs de bing – Outil OCI – test pour voir si la requête est une requête avec intention d'achat ou pas. Probabilité donnée. Ex : sony 100% intention d'achat ou week-end à Rome 50 %.
Cf exemple / yahoo. En fonction de la formulation, probabilité proposée de détermination de la phase d'achat dans laquelle l'internaute se situe.

Requête QDF


/ Tsunami en Indonésie. Pages de résultats – infos anciennes.
Quand repérage d'un pic de recherche, changement de l'algorithme pour présenter les pages d'actualité. Nécessité de répondre à cette situation, si site d'information.
Requête QDF – apparaît la date, l'heure de publication.

La recherche temps réel


Ex : tremblement de terre en Californie. Twitter, autres sources immédiates.

Requêtes informationnelles vues par Wolfram Alpha.


Trouver la réponse directement à sa question.
Devenu le moteur de requêtes informationnelles de bing.

+ Possibilité de donner aux internautes de sélectionner les résultats.

+ Évolution des snippets – ancre ou lien pour arriver directement à la page souhaitée.
Résultats avec fil d'ariane avec plusieurs liens proposés.

Conclusion : se demander sur quels types de requêtes se positionner ? Besoin de réfléchir à la stratégie à mettre en place – optimisation spécifique.

Mes commentaires concernant la conférence SEO en 2010


Le titre de la conférence très prometteur correspond bien au intitulé à la mode en début de chaque année. « SEO 20..., les approches à privilégier ». Ce qu'il y a de bien avec Philippe Yonnet, c'est qu'il tient ses promesses. Excluant d'emblée les domaines du SEO dans lesquels, il n'y a rien de nouveau (netlinking – contenu), il s'est concentré sur les innovations à mener en termes de SEO en fonction des évolutions des moteurs. Sans reprendre les 4 approches qu'il a détaillées, il ressort une nécessité de mettre en place une stratégie centrée utilisateurs afin de réaliser les objectifs souhaités en répondant à leurs attentes. Les réflexions liées au référencement responsif en termes d'ergonomie, d'architecture de l'information, de production d'un contenu éditorial efficace sont de plus en plus indispensables. Il me semble que la dimension SEO dans la gestion de projet va s'enrichir fortement.

Comment optimiser son site pour la recherche geolocalisee ?

David Cohen – responsable SEO chez Companeo a proposé plusieurs conseils pour optimiser son site pour la recherche géolocalisée. Pour cela, il a pris 6 exemples mélangeant les dimensions locale – nationale ou internationale de l'acteur ou du site en jeu. Son conseil principal consiste à optimiser les informations fournies dans le local business de Google.


Géolocalisation. Pourquoi ?


Google maps mais pas seulement.
  • Géolocalisation & longue traîne = Communes – villes etc. Dans de nombreux métiers, besoin de localiser l'activité. Idée de longue traîne dès le début.
  • Géolocalisation & recherche universelle = maps en 1ère page des SERPs.
  • Géolocalisation & SEO mobile = Iphone, à côté d'où on se situe.
  • Géolocation & SEO international.

Les approches méthodologiques de la géolocalisation


L'approche doit intégrer : carte (local – national) - langues international - pays

  • Acteur local – site local.
Ex : magasin à Orléans. Nombreux annuaires ont créé des fiches. Que faire ? Conseil = itinéraires d'un quartier vers le lieu du magasin. Fiche avec pleins de mots – pages prétextes pour présenter le magasin + promotion etc.

  • Acteur local – site national.
Ex : foies gras du Périgord. Présence nécessaire sur la région mais aussi envoi sur toute la France. Que faire ? Nourrir son local business. Nécessité d'assurance. Création de page pour présenter l'entreprise + envoi à Paris – Lyon – Marseille etc. Pas seulement Périgeux / Périgord.

  • Acteur national – site mobile.
Site : nomao. (Dismoiou Sur le web)
Que faire ? Il faut s'y préparer avec mots de localisation très précis (rue – place à côté – jardin à côté).

  • Acteur local – site international.
Ex : Hotel marais paris – le 1er a un très bon local business. Avis internautes nombreux. Penser différentes langues dont les plus exotiques.
Que faire ? Au lieu d'aller chercher des requêtes impossibles – faire le tour du quartier, photos, balades, itinéraires + Comment faire pour venir de l'aéroport à l'hôtel. Du contenu utile pour le visiteur. Pour faire une toile d'araignée centrée sur le lieu de l'hôtel.
+ Pour site multi-langue.Conseils : La géolocalisation par les langues compte encore mais il faut aller jusqu'au bout.

  • Acteur national – site multi-régional.
Ex : garage renault. Le 1er résultat ne correspond pas au garage de la ville tapée car local business. Renvoi au site national. Pourtant page spécifique existante. Donc aujourd'hui, le local business donne la priorité / page pourtant pertinente.

  • Acteur (inter)national – sites internationaux
Ex : Brief europcar.com en 2004 = site de soutien / sites nationaux.
Réponse : annuaire international de toutes les agences en anglais. On perd toutes les autres langues. Que faire ? Annuaire dans chaque langue (traduction de tous les noms de villes). Arborescence qui part d'une carte mondiale jusqu'à la ville, dans toutes les langues. Gros CA / recherche hyper-géolocalisée.
Conseils : ça marche toujours bien les annuaires géolocalisés.
+ Privilégier le sous-domaine / dans l'arborescence car sous-domaine est juste sous la puissance du domaine.

Mes commentaires sur la conférence de David Cohen



La mise en relief de l'intérêt de la géolocalisation a permis de dépasser le seul intérêt pour l'apparition des maps dans les SERPs de Google. Longue traîne, SEO mobile, SEO international nécessitent aussi la prise en compte de la géolocalisation. Les conseils apportés sont souvent de bon sens, tournés optimisation du contenu éditorial et privilégient l'utilisation du local business center de Google. Par contre, il semble rester impossible de localiser un site sur un lieu de livraison.

vendredi 19 février 2010

Le métier de référenceur : table ronde seocampus 2010

Excellente table ronde autour du métier de référenceur lors du SEOcampus 2010. Animée par Laurent Pillet : agence presse / emploi – immobilier ; Priscille Giani (PG) : agence Hureca ; Michel Grevillot (MG) : IUT Mulhouse et David Durand Pichard (DDG) : responsable SEO M6.

Les profils dans les métiers du référencement



PG = d'un profil technique ou littéraire précédemment = ajout de compétences marketing et rédactionnel. Plus polyvalent. Expert en référencement pour intégrer les services web des annonceurs ou profil intermédiaire. Pour junior, ça repart côté agence.

MG = Vers entreprise pas de soucis – côté étudiants = tous employés. Formation liée avec Renatic. Demande des annonceurs augmente. Promotion auprès des jeunes. Au départ, rédacteur = vers couche technique. Entreprise – plus demande vers profil web – SRC. 50% littéraire + 50% SRC.

L'emploi dans le référencement



DDP = Profils des entreprises qui emploient des SEO. En Ile-de-France + de 50 salariés. Les entreprises se structurent en interne mais continuent à travailler avec des agences.
38 % en IDF – 10 % Nord – 8 % RA.

Profils SEO = ils ont postulé à tout (chargé de référencement – chef de projet SEO – consultant webmarketing ou SEO – responsable référencement, expert en référencement, directeur SEO). Dans entreprise, difficulté à cerner le bon profil / ses enjeux.
Formation marketing – école de commerce = deux formations types mais aussi autres formations. Etre curieux. (Peu d'indépendants dans les réponses).

SEO intégré dans équipe marketing.

PG = postes d'expert SEO restent sur Paris / Lille. Ex : Nantes – multi-levier (SEO – SEM – affiliation).
En 2009, 50 / 50 agence – annonceur. Annonceurs aiment bien des profils agence. Expert = 5 ans mini + sites très différents.
Profils appelés avec toutes les casquettes... Nécessité de conseils – rédaction des fiches de postes. Directeur informatique en 2008 – directeur marketing en 2010.
Québec = intitulé = chef de projet web = 2 ou 3 agences + Ontario + New-York

MG = alternance ne fonctionne pas au-delà de 150 km. Stage hors Grand-Est.
Intitulé de postes ? Ça dépend des entreprises. Adaptation du programme. Couche marketing – technique – gestion – écriture.

La rémunération des SEO



DDP = 3 types de profils = moins de 35K – 35K ou 45K – plus de 45K.
Plus de 65K en région parisienne dans entreprises de taille importante.
Travail = évangélisation (en plus technique + marketing + managériale)

PG = 0 à 2 ans en agence = 33 – 34K
3 à 4,5 ans = intermédiaire
Plus de 5 ans = 45 – 50K

2008, bataille sur les salaires entre agences.
Now, sur des profils experts uniquement.
Sur profils responsables – plus payés chez l'annonceur.

Profil plus technique pour valider les compétences.

MG = 60% à 100% SMIC / alternance – ensuite 1ère tranche.

DDP = Investissement en cours / profil expert en agence.

Mes commentaires sur cette présentation des métiers de référenceur



Très bonne table ronde avec beaucoup d'informations pertinentes sur l'évolution du marché des métiers de référenceur. Si le marché devrait repartir en 2010, il sera plus orienté vers les experts SEO que pour les juniors. Ces derniers doivent développer leur polyvalence (aussi bien technique, rédactionnelle que marketing) afin d'acquérir une 1ère expérience en agence ou chez l'annonceur. Mais rassurez-vous, l'intégralité de la 1ère promotion de la licence pro Référenceur et rédacteur web a trouvé un poste dans les mois après sa formation.

Conférence Olivier Andrieu – Seocampus : une nouvelle piste en référencement

Olivier Andrieu, consultant et éditeur du site abondance a proposé une nouvelle piste en référencement. Dans son intervention intitulée « un tableau de bord référencement sans notion de positionnement », il a proposé une autre vision de la mesure de la qualité d'un référencement. Est-ce que se baser sur la notion de positionnement est toujours intéressante ? Autrement dit chercher à être 1er ou 2ème reste-t-il pertinent ? C'est une autre vision du référencement qu'a proposé Olivier Andrieu sans dire que le positionnement est mort.



La vision d'Olivier Andrieu résumée en 3 phrases :


  • « Pari : fin 2010, à moteur et requête identiques, quasiment chaque internaute aura une SERP différente ».
  • « Difficile de penser « référencement » en 2010 sans contenu éditorial de qualité et sans prendre en compte la mesure de sa visibilité... ».
  • « Le référencement sert à donner une bonne visibilité à un contenu de qualité ! ».

L'évolution et la personnalisation des SERPs


  • Grosse évolution depuis 15 ans (« Google est un organisme vivant » = il modifierait son algorithme plus d'une fois par jour) Ex : Trust rank / Page rank / anchor text etc.
  • On est passé d'une vision « être présent dans les 3èmes premières pages de résultats » à la notion de « SERP d'OR » = La figure en F des études d'eye-tracking.
  • Tendance forte = Google est devenu un portail de recherche notamment pour les activités locales. Si je mesure la qualité de mon référencement, uniquement à mon positionnement = je suis 1er mais je ne suis plus très visible + Idem pour la recherche universelle = Google news + Images.
  • La visibilité naturelle change. La place dans le triangle d'or devient de plus en plus difficile sans référencement dans google news, images etc. Le référencement devient multi-plateforme. C'est une évolution très importante qui est pourtant passée presque inaperçue.
  • Prise en compte de l'historique de recherches. Donc entre 2 personnes et même deux ordinateurs, réponses différentes. Alors que va-t-on mesurer ?
  • Adaptation des algorithmes en fonction de différents critères. Ex : les QDF (« Query Desserves Freshness ») de Google. Cf : mots clés Johnny Halliday sur insight for search. Quand pic de recherche, changement de l'algorithme basé sur la fraicheur de résultats. Changement de résultats possibles d'un jour à l'autre en fonction de l'actualité. Quand fait-on la mesure quand changement comme cela ?
  • Les résultats sont aujourd'hui personnalisés en fonction de nombreux critères de l'internaute (ou pas) : l'adresse IP – le moteur utilisé (.com, .fr) suivant l'interface linguistique – la langue du navigateur – les requêtes passées – les données de searchwiki – les « pics de mots clés » - la recherche universelle – l'implication du search social (facebook, twitter, gmail buzz...) etc. cela sera de plus en plus souvent le cas.
« Pari : fin 2010, à moteur et requête identiques, quasiment chaque internaute aura une SERP différente »
La notion de « positionnement » ne veut plus dire grand chose...

La longue traîne appliquée au référencement


  • Notion qui vient du domaine du commerce électronique. Un site de commerce électronique vit par la taille de sa longue traîne.
  • Dans le domaine du référencement, 20% des visites moteurs sont générées par des requêtes « métiers » - 80% par le contenu rédactionnel.
« Difficile de penser « référencement » en 2010 sans contenu éditorial de qualité et sans prendre en compte la mesure de sa visibilité... »
Ex : la longue traîne sur le site abondance.com : 10 requêtes génèrent 20% du trafic. Plus de 25000 requêtes génèrent 80% dont 20000 une seule visite.

Exemple de tableau de bord

  • Analyse généraleRécupérer le fichier des mots clés referrers

Données = Part des visites moteurs / ensemble
Trafic Google = quels outils de google génèrent du trafic (google news – google web search – google toolbar)
comparaison avec le mois précédent – le même mois de l'année précédente.
Courbe sur les 12 derniers mois
Nos commentaires

  • Analyse de la longue traîneTête (là + de 1000 visites)
Total 121194 requêtes différentes
Comparaisons
Nos commentaires

  • Analyse de la tête de la longue traîne
Requêtes qui ont généré beaucoup de trafic. Ex : pas de mots clés métiers / mots clés d'actualité pure.
Nos commentaires

On peut imaginer d'autres indicateurs :
taux de rebond
ROI des deux parties de la LT
ROI des mots clés de tête de LT
Analyse par moteur (Yahoo!, Bing...)
Taux de mots clés « originaux » dans la LT (dérivés de mots en tête de LT)
Etc.

La notion de positionnement peut être gardée à des fins de benchmark concurrentiel.
« Le référencement sert à donner une bonne visibilité à un contenu de qualité ! »
Idée : on ne jette pas tous aux orties mais travail sur le LT intéressante.

Commentaires sur la vision d'Olivier Andrieu


Olivier Andrieu a des talents d'orateur, de l'humour qui emporte l'adhésion. De plus, il prend souvent du recul à l'inverse d'une tendance de suiveurs développés par beaucoup d'autres. Dans son intervention, il s'est interrogé à plusieurs reprises sur la pertinence de la notion de positionnement dans le contexte actuel. Que mesure-t-on réellement face à l'évolution et à la personnalisation des SERPs ? Pour sortir de cette situation ambigüe, il propose de réellement analyser les mots clés de longue traîne dans des tableaux de bord plus pertinents. Variations et tendances prennent alors tout leur sens. Néanmoins, il réintègre la notion de positionnement à des fins de benchmark concurrentiel. C'est alors une comparaison en termes de visibilité des sites autour des mots clés referrers qu'il propose.

Le constat qu'il fait concernant les évolutions et la personnalisation des SERPs est particulièrement pertinent. La stratégie d'analyse de la queue de la longue traîne emporte l'adhésion, de même que son adaptation des tableaux de bord pour jouer leur rôle d'aide à la décision. Par contre, le tableau de visibilité proposé me semble réintégrer le positionnement sans tenir compte des évolutions décrites.

Principaux critères de référencement utilisés par les moteurs

Principes de fonctionnement des moteurs – principaux critères utilisés par les moteurs. Atelier animé par Renaud Joly – chef de projet SEO senior (Altima)



  • Contexte : pourquoi s'intéresser au SEO : période de croissance forte en France – volume de recherche sur un mois / décembre 2009.
  • Comment ça marche ? Intérêt / Interface – index – robot.
  • L'interface de recherche peut influencer comment l'internaute va chercher. Ex : google suggest = phénomène d'accélération. Voir aussi recherche vocale qui arrive sur téléphone portable = changement dans formulation de phrases.
  • L'interface de la page de résultat peut influencer aussi le référencement. Ex : recherche universelle. Etre présent par du contenu édiorial – image – vidéo – google maps.
  • Le robot suit les liens mais pas tous. Faire attention à l'indexation de ses pages.
  • Critères de pertinence au niveau du site (250 à 300 pour Google). Ces critères influencent le positionnement : l'unicité (contenu original disponible sur 1 seul domaine) – les liens entrants (volume et qualité des liens) – performance du site – arborescence du site (sémantique différente. Ex : vêtement femme ou pantalon femme + importance de la page d'accueil en raison des liens entrants) – présence de mots clés dans la réécriture d'url. Ces critères peuvent être analysés dans les webmaster tools sur Google, Bing, Yahoo.
  • Critères de pertinence au niveau des pages. Critères les plus importants : balise title (importance de la présence des mots clés) – liens entrant (volume et ancre) – éditorial (en haut du code source) – taux de clic (analysé dans les pages de résultat, notamment lors du lancement d'un site) – liens sortant (volume et site cible = pages pertinentes sur les mots clés) – balise alt sur une image – nom du fichier image (mot-clé.jpg). [Conseils = référencer les contenus sur les sites dédiés ex : images sur flickr].
  • L'optimisation éditoriale. Balise H1, H2 (structure du contenu) – début du texte (et présence du terme dans le texte = cohérence – taille du texte (400 caractères minimum) – analyse sémantique (synonymes, pluriels, lemmatisation = ramener des verbes conjugués à l'infinitif – famille du mot) – les moteurs font une analyse statistique des textes (le moteur ne fait que compter des mots + liens vers l'extérieur. Ex : recette pour faire un morito. Il est capable de calculer le score du contenu / mot clé).
  • Des liens. L'ancre du lien – un texte pour qualifier le lien (250 caractères autour du lien) – place du lien dans la page (contenu, navigation, footer) – un texte de page sur le thème – type de liens
  • Mais. Conseils. Prudence – Historique – ils existent des critères négatifs (sur-optimisation ex : bourrage de mots-clés – génération automatisée de pages – netlinking massif – poison words : viagra – porn etc. Voire carrément éliminatoires (cloacking – texte caché – achat de liens – fréquentes indisponibilités du site).
Commentaires : une conférence très didactique de la part de Renaud Joly. Rappel et explication des principaux critères de pertinence pour le référencement (au niveau du site, de la page, optimisation éditoriale, liens etc.)

« Site clinic » par Nathalie Peret – equipe qualite de recherche – Google

Nathalie Peret de l'équipe qualité de recherche – Google à Dublin a proposé une session « site clinic » lors du seocampus 2010. Son intervention a porté sur les nombreuses aides disponibles pour les webmasters. Elle a apporté plusieurs précisions sur la question de la duplication de contenu et levé quelques mythes. Par contre, elle est restée très sommaire dans les conseils proposés pour améliorer la qualité des sites audités.



Le travail de l'équipe qualité de recherche de Google


  • qualité des résultats de recherche
  • qualité de l'index
  • communiquer avec les webmasters

Objet de l'intervention : ressources pour les webmasters – sous-titrage vidéo Matt Cutts - Contenu dupliqué – Site clinic = 50 sites proposés – analyse sur une sélection de 5 sites.

Les aides disponibles pour les webmasters




Les vidéos d'aide pour les webmasters



La question du contenu dupliqué



  • Pour démarrer : Cf centre d'aide pour les webmasters
  • Au niveau de la page ou du domaine, on parle de blocs de contenus importants qui sont identiques.
  • Effets = dilution de la popularité des liens + URLs pas optimisées + crawling plus long + variété de contenu baisse.
  • Conseil : ajouter du contenu unique sur votre site. Ex : version standard d'une page – imprimé – RSS etc. Ex : version avec www ou non.
  • Idée = devenir l'ami de googlebot
  • Redirection 301 (sur même domaine ou entre sites multiples)
  • Sinon élément lie rel= « canonical » sur un domaine, entre plusieurs domaines (dans le contenu dupliqué).
  • Nettoyer vos URLs (enlever les paramètres non nécessaires – cooking – CMS à paramétrer – liens internes doivent refléter le choix global)
  • Dans webmasters tool (conseils pour les balises) pour éviter les doubles.
  • Quand on a 2 domaines. Valider les 2. Définir le domaine favori.
  • Accessibilité (vérifier l'accessibilité + indexation) + erreurs de crawling
  • Contenu syndiqué et diffusion de contenu (lien vers le contenu original – rendre le contenu affilié comme unique)

Les mythes en termes de duplication de contenu



  • Google sanctionne-t-il le contenu dupliqué = non
  • Une fois que j'ai résolu le problème, faut-il demander un réexamen = non
  • Je ne peux rien faire = il existe des solutions – Cf conseils précédents.

Sites analysés en session « site clinic »



Nathalie Peret a réalisé en direct une analyse de la qualité de sites web (niveau SEO) autour de 5 cas soumis à l'avance. Il ressort de cette session « site clinic », plusieurs conseils de qualité à suivre :

  • Proposer des titres qui ont du sens et non une liste de mots clés. Ne proposez pas de titres trop répétitifs.
  • Fournir une alternative à des images ou des éléments graphiques. Cette alternative peut prendre la forme d'un résumé textuel du site dans un encart, de liens textuels correspondant au plan du site de niveau 1. Pour vérifier la présence d'une alternative, utilisez la fonctionnalité cache + texte seul). Concernant la balise alt, ne pas la surcharger en multipliant les mots clés.
  • Consulter un panel de pages pour comparer les titres et les descriptions avec la commande « site: ».
  • Si l'accès aux pages nécessite une identification, différencier les pages par le titre.
  • Attention à ne pas surcharger les pages. Se demander : où est-ce que je veux emmener le visiteur ?
  • Proposer un outil de choix si vous avez un catalogue important puis des liens internes.
  • Ne proposer pas des liens répétitifs en bas de page (déclinaison d'un univers de mots clés) ni de liens cachés.
  • Si vous souhaitez proposer un ciblage géographique, faites-le au niveau du sous-domaine ou d'un sous-répertoire.
  • Si vous avez des langues mélangées sur la même page = choisir une langue en priorité pour ajouter du contenu dans cette langue.
  • Lorsqu'une description de produit est proposée sur une page, elle va chercher si ce contenu n'est pas répliqué ailleurs dans d'autres domaines, en prenant un extrait.
  • Lorsque vous voulez apporter des modifications à vos paramètres, faites-le progressivement sans tout changer d'un coup. Vérifier que les modifications ne bloquent pas le scrolling des robots.

Mon retour sur le discours « google »



« Google ne communique pas sur les pénalités » a rappelé Nathalie Peret. « Google nous prend aussi pour des enfants », je dirais. Les outils utilisés en analyse sont super simples. « site: » et « cache – texte seul ». Pour caricaturer ou si peu les conseils donnés, il suffit de prendre une personne candide (qui ne connaît rien ou presque au web) et de lui demander de trouver une information sur votre page. Voici le conseil répété à maintes reprises pour être « google friendly ». Penser utilisateurs, c'est bien ; intégrer une expérience d'usabilité, c'est mieux mais en guise de conseils SEO, c'est vraiment léger.