Affichage des articles dont le libellé est Compte-rendu de conférences. Afficher tous les articles
Affichage des articles dont le libellé est Compte-rendu de conférences. Afficher tous les articles

mardi 7 octobre 2014

Suivre en direct le colloque du Resiproc - Bruxelles 9 et 10 octobre 2014

Le colloque RESIPROC "Les métiers de la communication traversés par le numérique" (programme et argument à l'adresse suivante : http://www.sfsic.org/index.php/evenements-300202/2565-programme-definitif-du-colloque-du-resiproc-bruxelles-9-et-10-10-2014) se tiendra à Bruxelles les 9 et 10 octobre prochain.


Suivre en direct le colloque du resiproc


Pour les collègues intéressés ne pouvant être présents, nous vous proposons plusieurs moyens de suivre celui-ci :
- tout d'abord un hashtag permettra de suivre les débats sur Twitter : #RESIPROC14
- par ailleurs, une diffusion live sera disponible via Hangout. Vous pouvez vous inscrire
à l'adresse suivante pour suivre la journée du jeudi : https://plus.google.com/events/coc2n9jgvap1fsk0c3nvnkg8dr4 et à celle-ci pour suivre celle de vendredi : https://plus.google.com/events/cuib82ugoeqhvlhoule3hl0p628

Au plaisir d'échanger à cette occasion, en ligne ou hors ligne.
Bien cordialement,
Alexandre Coutant et Jean-Claude Domenget

samedi 18 mai 2013

La formation des communicateurs : les cas des community managers et des referenceurs pionniers

Le colloque du réseau RESIPROC (Réseau international de recherche sur la professionnalisation des communicateurs) s'est tenu lors du congrès de l'ACFAS à Québec les 9 et 10 mai 2013. Centré sur la question de la formation, il a donné lieu à de nombreux échanges et perspectives de recherche. Je vous propose deux supports de contributions présentées lors du colloque, l'un sur les community managers, l'autre sur les référenceurs pionniers. Les deux pointent l'importance de l'apprentissage entre pairs autrement dit de la dimension sociale de l'autoformation. Le prochain rendez-vous du RESIPROC est prévu en octobre 2014.

Les community managers : revendications professionnelles et apprentissages entre pairs





Que sont devenus les référenceurs pionniers ? 5 profils type pour illustrer la pérennité et la légitimité d'un nouveau métier






Vous pouvez également consulter les détails et télécharger l'article sur les référenceurs pionniers.


mercredi 23 mai 2012

Presentation AECiut - theories info com

Voici le support de notre présentation réalisée lors du colloque sur les fondements théoriques, représentations, réalités de l'expression-communication dans les IUT. Bilans et perspectives. Le colloque de l'AECiut a eu lieu à Toulouse les 9 - 10 - 11 mai 2012.

Ancrages théoriques et environnement sociotechnique



lundi 25 octobre 2010

Retours #w2c10 - web2connect 2010 - journée du samedi

#w2c10 #5 web2connect 2010 - journée du samedi.

Retour sur le web2connect 2010 par @jcdblog - journée du samedi. Au programme, mes 4 retours de conférences sur les RSE, relations sociales, social engagement et avenir du web. Et Les phrases clés à garder toujours dans un coin de sa tête. Beaucoup de plaisir à rencontrer @codeur - @conseilsmkg - @axounet - @parmentierguy - @jfruiz etc. Merci à @sebastienr


Retours de conférences du samedi w2C10


#W2C10 #1 - Quel avenir pour les reseaux sociaux d'entreprise – RSE ? Alain Garnier – CEO Jamespot

#W2C10 #2 - Vers des relations assistées par ordinateurs ? Benoit Thieulin – CEO La netscouade

#W2C10 #3 - Workshop social engagement - Jeff Ruiz – Bruno Fridlanski

#W2C10 #4 – L'avenir du web ? - Valérie Peugeot – Prospectiviste chez Orange

Si vous avez repéré d'autres retours de conférences, merci de les indiquer en commentaires.


Les phrases clefs du web2connect


« there is no choice » = the eMail effect = les entreprises n'ont pas le choix pour intégrer les RSN - Alain Garnier

« IRL et URL sont liés » = imbrication des liens numériques et des liens dans la vie réelle - Benoit Thieulin

« En quoi puis-je aider ? » = phrase magique pour initier une relation dans une logique social engagement - Jeff Ruiz


Retrouvez d'autres phrases clefs sur le fil twitter #w2c10
Et vous quelles sont vos phrase clefs repérées lors du web2connect ?

[Ajout] Les interviews d'experts du web2connect - @conseilsmk

Les photos du webdeuxconnect 2010 - @webdeux

Présentation sur les social games - @nadyajahan

L'avenir du web ? - Valerie Peugeot – Prospectiviste chez Orange - #w2c10 #4

#W2C10 #4 – L'avenir du web ? - Valérie Peugeot – Prospectiviste chez Orange

Retour sur la conférence de Valérie Peugeot, prospectiviste chez Orange. Plus précisément que des prospectives sur l'avenir du web ? Il s'agit de réfléchir à l'avenir de nos sociétés et la manière dont la techno et le web en particulier les façonnent.


Les points essentiels de la conférence de Valérie Peugeot


  • 2 ruptures essentielles

  1. D'un point de vue sociétal, arrivée massive des Africains sur le web, permettant de valider enfin la promesse d'un WORLD wide web. Diversité, richesse culturelle, ouverture en opposition à la fermeture dans la société réelle.

  2. Web des objets – dans lequel l'humain n'aura plus de monopole de la parole. Notre environnement, nos objets, les animaux etc. génèrent des données qui déferleront sur le web. Cf O'Reilly – web squared – web2


  • Web des objets – 3 innovations à venir

  1. miniaturisation : émergence des mems qui deviendront des nems. Passage du visible à l'invisible – révolution dans l'humanité
  2. dispersion des capteurs de données : vers informatique intelligente
  3. transformation du vivant en objet : ex en agriculture. Le vivant devient traçable – gérable.
  • Ces transformations vers web des objets posent 4 questions ?

  1. Architecture / web de demain : / Inflation trafic – volonté de mettre des péages – Internet à plusieurs vitesses. / Stockage des données : actuellement on ne parle que du cloud = fermes de serveurs – questions de sécurité
  2. Disponibilité et attention – Limitée par définition
  3. Question d'interprétation et de sens ? Vers la dictature de la Metric / à ça, apparition de nouveaux intermédiaires qui vont donner du sens
  4. Disparition de l'intime. Question connexe – données aujourd'hui protégées seront-elles publiques ex : mesure de consommation d'énergie. Société de surveillance absolue ? Les objets doivent être hackables.

Commentaires : je ne dois pas être fais pour la prospective. Je préfère le temps de la pratique, au plus proche des usagers, dans celui du quotidien que dans le temps futur. Mon sentiment est que la partie centrale d'explication des évolutions techniques en cours et à venir est la plus solide (peut-être parce que je n'ai pas de connaissances particulières sur le sujet). Par contre, le cadrage sociétal et les questionnements sont plus bancals. L'arrivée des africains sur le web ? J'aurais mis une pièce sur la poussée des Suds-américains. Pas d'avis. Le web squared comme rupture ? Plutôt la tentative d'une nouvelle relance de l'industrie du web en temps de crise. Discours promotionnel dans la pure tradition du lancement du web 2.0 – il y a 5 ans – mais trop tôt pour avoir le même impact. J'aurais préféré une référence aux objets communicants – désignation qui date de la fin des années 90, donc trop vieille dont les imbrications ne font que commencer. Quand aux interrogations relevées concernant le web des objets ? Je n'arrive à voir l'intérêt de mélanger des interrogations technique sur l'architecture du web et psychologique sur la disparition de l'intime. Encore une fois, je préfère les approches sociologiques qui ont déjà donné des clefs d'interprétation sur la présentation de soi dans les RSN Cf l'étude sociogeek.

Workshop social engagement - Jeff Ruiz – Bruno Fridlanski #w2c10 #3

#W2C10 #3 - Workshop social engagement - Jeff Ruiz – Bruno Fridlanski

Seul workshop de cette session W2C10, Jeff Ruiz et Bruno Fridlanski nous ont proposé un workshop sur le social engagement. Soit les bonnes pratiques d'un webmarketeur pour s'engager dans une relation avec un prospect, défini par un avatar client. Dans l'univers actuel de la conversation, il s'agit beaucoup plus de présenter un service qui peut lui rendre service car on connaît son environnement, ses problèmes, ses besoins qu'un produit à lui vendre. « En quoi puis-je aider ? » Voici la phrase magique qui va permettre d'initier la conversation.


Les points clefs du workshop de Jeff Ruiz et Bruno Fridlanski


  • Compétence clef d'un marketeur = empathie – comprendre l'environnement d'un client. Exercice : définir l'avatar client. (qui est votre client – dans quel environnement il agit – se mettre à sa place dans son quotidien). Avatar = âge – sexe – vocabulaire – lieux physiques – réseaux – émotions – problème / envies etc.

  • Idée: passer d'un mode transactionnel à un mode relationnel. La relation se construit dans le temps. Le client, une fois en relation avec vous peut avoir besoin de solutions complémentaires.

  • Quels sont les messages ? Par quels médias les délivrer ? Idée : savoir quel média il utilise pour aller engager la conversation, là où il échange. L'avatar client donne des réponses.

  • Objectif : leur apporter de la valeur - lui proposer des services oui mais créer du lien et le développer = notion de branding derrière (j'ai un produit, un univers, je veux t'y faire rentrer).

  • Créer du lien & le développer : 1. Parler du contexte – 2. Raconter son histoire personnelle (pour se projeter) – 3. « Conseils d'experts » (valeur) – 4. Applications avec son service – 5. Histoire de clients – ce sont vos meilleurs commerciaux – 6. Offre spéciale... etc.

  • De nombreux outils permettent de créer des relations via e-mail sur le long terme. Ex : aweber – mailchip – icontact etc. (scenarii emails). Metrics derrière pour valider l'objectif. Mais différence énorme entre perception des marketeurs et des clients, juste sur l'exposition à ces messages.

  • Cf socialomate – twitter = scénario d'engagement. Intérêt de pouvoir industrialiser l'engagement de relations avec les milliers de votre avatar, comme on peut le faire aujourd'hui sur Facebook avec l'application FBML. Dans un schéma relationnel pensé à l'avance, message automatique d'accueil + Comment est-il arrivé ? Ex : venu parce que dans une conversation ailleurs + j'engage une conversation. Arrivant, je vais voir sa fiche « intéressant » ou non ? Question / amélioration du blog... Répondre ! Commentaires / mon blog = j'améliore mon blog. Phrase magique : en quoi puis-je aider ? Pour développer la relation.

  • Réfléchissons à la stratégie – humain. Le reste « Ce ne sont que des outils ». Ex :quel schéma relationnel avez-vous utilisé ? « Tous les gens qui ne vous répondent pas, ne sont pas forcément mécontents ». Ne pas se focaliser sur les points négatifs. L'objectif est de créer de l'échange.


Commentaires : Tels les personas en webdesign, les avatars clients permettent de mieux comprendre l'environnement dans lequel vit le futur client. Le workshop de Jeff Ruiz et Bruno Fridlanski a mis l'accent sur l'humain, les capacités d'empathie à mettre en oeuvre, la compréhension des problèmes et des besoins à résoudre. Dans l'univers actuel de la conversation, la volonté de rendre service permet d'entrer en relation avec le futur client. En choisissant à l'avance un schéma relationnel et en utilisant des applications techniques adaptées, l'entreprise peut engager la conversation et développer progressivement la relation avec son client.


Vers des relations assistées par ordinateurs ? Benoit Thieulin – CEO La netscouade #w2c10 #2

#W2C10 #2 - Vers des relations assistées par ordinateurs ? Benoit Thieulin – CEO La netscouade

Retour sur la conférence de Benoît Thieulin – CEO La netscouade. Comment évoluent actuellement les relations sociales ? Sa réponse : nous allons vers des relations sociales assistées par ordinateurs. L'essor des réseaux sociaux numériques (RSN) ré-interroge nos schémas traditionnels de conception des relations sociales. IRL (in real life) et URL (liens numériques) sont liés. C'est au niveau des liens faibles que nos relations sociales sont les plus modifiées par les RSN. Twitter et Meetic sont particulièrement adaptés à cette tendance.


Les points clefs de la conférence de Benoît Thieulin


  • La nature des relations sociales a toujours été interrogée.

    Ex : notion d'amitié - Cf les liaisons numériques : des liens « mécaniques » de la famille vers plus larges, outillés par les RSN

    Ex : l'arrivée de la télé dans le foyer – critiques / conversation télé

  • Des études ont montré :

  1. On a entre 4 et 6 groupes d'amis. On y pense quand se pose la question de la gestion des degrés de visibilité mais depuis toujours dans notre vie.

  2. Les groupes sont indépendants

  3. Chacun des groupes est composé de 2 à 10 personnes

  4. Distinction relations fortes – relations faibles Cf Dominique Cardon

  • Depuis le début de l'Internet, question de l'imbrication liens numériques / analogiques est centrale ! IRL et URL sont liés*. Besoin de se rencontrer dans la vie réelle – point clef de ces interrogations.
  • Ce n'est pas dans les relations sociales fortes que le changement est le plus important ex : relations d'amitiés, confidence etc. peu impactées. Plus différent / relations faibles – distendues.

  • Mise en relation et communication sont facilitées par les outils = coût d'investissement / relations sociales faibles moins élevé. Ex : amis d'enfance éloignés. C'est dans ce cercle que les relations sociales sont les plus modifiées par les RSN.

  • Nouveaux comportements induits ? La relation entre identité affichée et identité calculée (qui nourrit les représentations) On prend conscience de cette complexité (car elle se traduit concrètement) Ex : diffusion photos.

  • De plus en plus, grande segmentation de ces espaces. Ex : FB – toutes les facettes de l'ID numériques dans un RSN. Actuellement, segmentation de ces relations / RSN dédiés et même dans chacun d'eux, stratégies complexes.

  • / Elargissement du réseau ou non ? Les RSN permettent d'entrer en contact avec des personnes avec lesquelles on ne serait pas entré en contact auparavant surtout sur : twitter cf Danah Boyd et Meetic. Cf stratégies de recherche d'infos via # possibilité d'entrer en relation avec personnes « différentes ».


Commentaires : une conférence riche en concepts sociologiques (relations sociales – identité affichée / identité calculée – liens forts / liens faibles) et références d'auteurs (Dominique Cardon – Danah Boyd). Le retour historique proposé par Benoît Thieulin permet d'échapper aux peurs liées à l'essor des RSN comme outils de gestion de nos relations sociales. C'est justement lorsque se posent les questions de gestion de ces relations que l'on prend conscience de la richesse et de la complexité offerte par ces outils. Parmi les 4 à 6 RSN (en parallèle aux 4 à 6 groupes d'amis) sur lesquels on peut gérer son identité numérique, Twitter semble particulièrement adapté à l'élargissement de notre réseau. C'est justement un des usages principaux chez les professionnels.

Quel avenir pour les reseaux sociaux d'entreprise – RSE ? Alain Garnier - CEO Jamespot #w2C10 #1

#W2C10 #1 - Quel avenir pour les reseaux sociaux d'entreprise – RSE ? Alain Garnier – CEO Jamespot

Retour sur la conférence d'Alain Garnier – CEO Jamespot (moteur de réseaux sociaux) au web2connect ce samedi. Comment les usages du web peuvent entrer dans l'entreprise ? 3 idées clefs. Les entreprises n'ont pas le choix. Les réseaux sociaux d'entreprise (RSE) sont des outils structurant leurs activités : outil de communication, échange, productivité. Ils permettront de remettre les groupes humains au cœur des processus de résolution de problèmes.


Les points clefs de la conférence d'Alain Garnier


  • « There is no choice » = the eMail effect = les entreprises n'ont pas le choix.

  • Les entreprises doivent intégrer les réseaux sociaux numériques, comme elles avaient dû le faire pour les sites web et les moteurs de recherche.

  • Pourquoi suivre cette vague ? Les réseaux sociaux d'entreprise (RSE) sont des outils structurant leurs activités : outil de communication, échange, productivité.

  • Apports des RSE : accélération des affaires - effet de levier sur toute la ligne - accélération du temps réel.

  • Mais il existe d'énormes freins. La gestion des entreprises est trop compliquée. Il faut redonner la main à des groupes humains pour résoudre les problèmes

  • Évolution : vers la synchronisation avec le temps du client


Commentaires : l'intégration des RSE est un sujet qui fait couler beaucoup d'encre du côté de la gestion et du management (intranet 2.0 – knowledge management etc.). Le discours sur le caractère inéluctable de cette évolution me dérange car il gomme les procédures d'adaptation qui prendront du temps. Alain Garnier place l'humain au cœur de cette évolution. Il s'agit de redonner la main à des groupes humains pour résoudre les problèmes. Les RSE ont un potentiel énorme car ils jouent sur tous les leviers de l'entreprise. Ce sont des outils structurant leurs activités : outil de communication, échange, productivité.

jeudi 23 septembre 2010

Compte-rendu conferences referencement SEO – #ecommerce 2010

Comme j'en ai pris l'habitude, je vous propose quelques comptes-rendus de conférences tenues au salon e-commerce 2010. La session de mardi matin portait sur le référencement les mots-clés de votre visibilité en ligne. La conférence Aposition Isobar avait pour objectif d'expliquer pourquoi externaliser son référencement naturel, à travers le cas de SFR. La conférence 1ère position analysait le passage du SEO (search engine optimisation) au SMO (social media optimisation). D'où l'intitulé bien vu de la session, soulignant l'importance des mots-clés dans une stratégie de visibilité en ligne et non plus seulement de référencement naturel SEO.



salon ecommerce 2010


Aposition isobar et sfr

Référencement naturel : internaliser ou externaliser ?


Objectif : expliquer pourquoi externaliser son référencement naturel à travers le cas de SFR.


  • Vision du référencement d'agences SEO = très dynamique / simplement listes de bonnes pratiques. Méthode pour comprendre l'évolution des moteurs = caffeine et google instant et ses impacts sur notre stratégie SEO.

  • Cas SFR = suite à fusion site avec celui de 9 telecom, potentiel de trafic hors marque via le SEO. Indicateurs : crawl sur google, mise en avant contenus mauvais. Solution mixte = équipe réduite en interne et équipe externe agence SEO – mise en place des recommandations par l'équipe de développeurs internes. Intérêt / rapidité des résultats.

  • Méthodologie : analyse des fuites à chaque étape de référencement du site (potentiel de contenu – pages disponibles – pages crawlées – pages indexées – positionnées – cherchées – ROI). Les requêtes sont-elles tapées ? Suis-je légitime sur cette requête ? Augmentation du trafic en grande partie, suite à l'indexation de pages non crawlées précédemment.

    Commentaires : les chiffres donnés par SFR sont très généraux. Surtout gain en terme de position sur mots clés concurrentiels – augmentation du trafic issu des moteurs – augmentation acte business. Soit un ensemble de KPI très généraux...]


1ère Position

Du référencement naturel (SEO) au référencement social (SMO)



  • La recherche est partout

Google n'est plus tout seul. Audience de facebook.com a rejoint celle de google.com = complémentarité de stratégies SEO + SMO.

La recherche sociale bouleverse les lignes mais pas de remplacement.

FB aussi un moteur de recherche = pages, événements, actualités, images, vidéos : même stratégie qu'en SEO à inclure à son contenu.

Twitter = moteur de recherche instantané, de signaux sociaux : événements, actualités, activités sociales, images, vidéos. Outils de recherche en temps réel sur les sujets qui vous intéressent.

You tube – flickr – linkedin : tous des moteurs de recherche spécialisés. Points communs : boîte de recherche dans leur interface = internautes peuvent inclure des mots clés – d'où nécessité optimisation / algorithmes.


  • SEO vs SMO.

Interactions : SMO diffuse des contenus et génère des liens (renforce stratégie mise en place en SEO) + socialiser ses contenus pour s'engager dans les conversations et développer son pouvoir de maillage sur la toile.

Etapes d'actions SEO : technique – contenu – popularité – autorité (lien le plus étroit avec le SMO = fans, j'aime, retweet, followers, conversations, RP, mots-clés, tags, liens). Autorité gagnée en vous impliquant dans les RSN.

Illustrations : votre site – votre blog (surtout pas communication corporate – intérêt / domaine d'expertise sans être coeur d'activité reconnu) pour socialiser ses contenus. (contributeurs – linkers – influenceurs).

Sur twitter = bloggueurs, journalistes, pros du web

Mythe de la contribution : règle des 1% du web 2.0

Comment gagner en liens et réputation ? Capacité à gérer des liens spontanés et réputation. 10 points stratégiques / production de contenus.

Résumé : cibler les RSN / son domaine – sa communauté + écouter Puis seulement stratégie de contenu.

Conseils : outils qui permettent de synchroniser ces outils.

Conviction : Google utilise les signaux sociaux pour faire remonter une page dans les SERPs.


Commentaires : le mix SEO – SMO devient indispensable. Pour s'en convaincre, il suffit de voir l'évolution du blogging, notamment les articles d'humeur, sur l'instant qui laissent souvent la place aujour'd'hui à une information laissée sur son mur ou quelques tweets. Reste le souci, évoqué par David Degrelle de capitaliser sur son audience et de ne pas la laisser captive au sein d'un réseau social numérique tel que Facebook, proposant une prison dorée à ses utilisateurs.


Des comptes-rendus de conférences en direct @jcdblog


Pour le salon e-commerce 2010, j'avais décidé de tenir informé les abonnés de mon nouveau compte twitter @jcdblog en direct. Armé de mon HTC desire, je pensais être fin prêt pour commenter en direct les conférences auxquelles j'assistais. Un problème technique (mauvais paramétrage ?) ne m'a pas permis de partager comme je le souhaitais mes impressions. Ce n'est que partie remise. En attendant la prochaine série de conférences, vous pouvez vous abonner à mon compte @jcdblog


PS : spéciale dédicace à @david_degrelle pour son nouveau fond d'écran de diapositives. Le bleu a laissé place à des motifs en filigrane, issus du pop art. Très réussi.

PS2 : désolé, je ne maîtrise pas encore bien mon nouveau téléphone. Je n'ai pas réussi à télécharger les photos.

PS3 : néant...

lundi 22 février 2010

10 retours sur les conférences seocampus 2010

Le programme du seocampus 2010 a été riche que ce soit le vendredi 19 février ou le samedi 20 février 2010. Voici mes retours sur 10 de ces conférences.
[Mise à jour le 26 février 2010]

Conférences du cycle SEO


Conférences du cycle découverte


Tables rondes


Conférences plénières


Autres ressources disponibles sur le net


Autres retours disponibles sur le net


6 raisons pour lesquelles j'ai apprécié le SEOcampus 2010

Le titre est un peu tronqué : 6 raisons pour lesquelles j'ai apprécié le seocampus 2010 et pourquoi j'ai envie de participer au seocampus 2011. J'ai réalisé en effet 10 comptes-rendus de conférences mais je n'avais pas encore donné mon avis. D'autres participants l'ont déjà fait, les retours ont surtout eu lieu via twitter avec le hastag #seocampus. Voici le mien.

Raison n°1 : j'ai appris des choses en SEO


La manifestation s'appelle seocampus. J'avais donc comme attente d'apprendre des choses en termes de SEO et cela a été le cas. Pas nécessairement sur les thèmes à la mode SMO, twitter etc. mais sur le métier de référenceur, l'importance grandissante encore de la longue traîne, l'évolution des moteurs etc.

Raison n°2 : il me reste beaucoup à apprendre en SEO


1ère bonne raison de retourner au seocampus 2011. Les moteurs évoluent. Les pratiques de recherche aussi. Des domaines sont encore un peu flous pour moi au niveau des liens sponsorisés ou des web analytics. Des conférenciers sont géniaux : Aller écouter Olivier Andrieu, David Degrelle, Philippe Yonnet. Du pur bonheur. Peut-être pas la 1ère fois concernant Philippe car c'est de haut niveau mais à force de persévérance (salon e-commerce, salon e-marketing etc.). Il vaut vraiment le déplacement.

Raison n°3 : j'ai rencontré des gens sympas


Si on participe à ce type d'événement, si on débourse 160 euros (eh oui, j'étais rapide pour m'inscrire), ce n'est pas seulement pour écouter studieusement les intervenants. C'est aussi et surtout pour lier des contacts. Le seocampus m'a permis ainsi de rencontrer pour la 1ère fois Sébastien Billard, Isabelle Canivet, David Durand Pichard, Yann Lemort etc. de croiser Philippe Yonnet, David Degrelle et de discuter longuement avec mes collègues de la licence pro référenceur et rédacteur web.

Raison n°4 : je n'ai pas rencontré toutes les personnes que je voulais


2ème bonne raison de retourner au seocampus 2011. Mais là, il faut nous aider. C'est assez difficile de répérer qui est qui. Heureusement, j'ai eu l'aide d'un de mes anciens étudiants Arnaud Ducommun pour m'introduire auprès de membres de l'association seocamp. Peut-être prendre des idées dans les soirées connect ou simplement proposer une couleur de badge en fonction de son profil...

Raison n°5 : j'ai été bien reçu


Il n'y a pas forcément d'idée d'être traité comme un invité dans ce type de manifestation et pourtant, c'est le sentiment que j'ai eu. Bravo à l'organisation. Bravo aux membres bénévoles de l'association. Rien à redire. Ah si, pour dire... un petit café ou une boisson fraîche en fin de journée après une après-midi de conf, ça serait sympa. Mais c'est vraiment pour dire.

Raison n°6 : je sais que les organisateurs prendront en compte les retours des participants


Tout n'a pas été parfait au niveau des conférences. Certains conférenciers n'ont pas adapté leur discours au niveau attendu. Il existe un niveau découverte très légitime mais le public ne vient pas par exemple pour découvrir twitter en cycle avancé. Sans parler d'une conférence commerciale déplacée sur la question de la prise en compte de la performance.

Bonus : j'ai tellement apprécié seocampus que je vous propose 10 retours de conférences.

La reconnaissance des entités nommées et l'extraction de données

La conférence de Jean Veronis a porté sur la problématique de l'extraction d'information dans du contenu textuel. La reconnaissance des entités nommées et l'extraction de données a été abordée principalement du côté de son intérêt et de la méthodologie mise en place. Autrement dit : à quoi ça sert ? Et comment ça marche ?


La problématique d'extraction d'information dans du contenu textuel


Ex : noms propres (lieux, personnes, marques, entreprises, organismes etc. ce qu'on a l'habitude de faire commencer par des majuscules).
Mais pas seulement... pourcentages, dates, montant monétaires etc.

C'est un tâche mal définie. Où s'arrête-t-on ?

A quoi ça sert ?


Détection d'un buzz dans l'actualité. Outil dans wikio « ils font l'actualité ». Intérêt / navigation et SEO.
Essentiel que l'info soit présente en temps réel sur la page d'accueil pour mettre en avant une page en profondeur traitant du sujet.
Veille et suivi de tendances. [A l'image de google trends]
E-reputation. Ex : France Telecom et suicide
Moteurs de recherche. Orange le moteur (si actu = réponse d'actu dans les 3 1ères réponses). // avec réponses différentes selon actu ou pas sur la requête.
Autres applications = traduction automatique + classification de documents + base de faits etc + Extraction de relations entre les entités (siloBreaker).

Projet OpenCalais – ClearForestGnosis = donne à gauche les entités détectées.

Comment ça marche ?


2 problèmes : détection de l'entité puis interprétation.
Ex : orange = fruit, marque, ville etc.
Détection = prb qui semble simple. Mais où prenez-vous vos sources ? + variabilité.
Ex: Air France – Air-France-KLM – AF – AFR etc.+ erreurs orthographiques + multilinguisme + translittérations + entités inconnues.
Heuristiques = combinaison d'éléments pour faire le mieux possible (variantes – noms composés – autres langues etc.)
Bases patronymes et prénoms oui mais... ambigüités.
Statistiques permettent de catégoriser les entités.

Interprétation


Problème de la typologie.
Personnes, lieux etc.
Difficultés marques / entreprises ? Cela dépend de ce qu'on veut à l'arrivée.
Difficulté : comment on catégorise les entités nommées ?

Les modèles d'interventions des agences de search marketing

2ème table ronde sur le search marketing, les modèles d'interventions des agences de search marketing. En présence de plusieurs gros noms de la place, l'accent a été mis sur les process mis en place en SEO et les liens entretenus avec les responsables SEO chez l'annonceur.

Présentation des participants



Avec Yves Weber (YW) Directeur Général Associé de Brioude Internet Référencement, Sébastien Langlois (SL) Directeur Général de l'agence Aposition (Isobar), Emmanuel Benmussa (EB) Directeur du Pôle SEO chez Next-idea (ex Nextedia) François Houste (FH) Directeur Projets speciaux et Analytics, Agence LSF Interactive, Jean-Michel de Sousa (JMS) PDG de l'agence Sartepenso, Anji Ismail (AI) cofondateur de la société CapSEO.

Quelles sont les différences de positionnement entre les agences de référencement ?



(YW) : Brioude = reft depuis 1999. positionnement PME – TPE.
(SL) : Aposition = spécialisé SEO + isobar (SEM – autres leviers). Positionnement très qualitatif – référencement poussé.
(EB) : Next-IDea = reft agence depuis 2005.
(FH) : LSF Interactive = ensemble des leviers marketing. Cellule SEO – médias – luxe. Cellule R&D – search voyagistes.
(JMS) : Sartepenso = depuis 2001 – Grand groupe RMC – 01net. Accompagnement consulting, formation. Next-idea (360° - now 4 axes). SEO intégré dans les 4 axes. Grands comptes = lagardère, NRJ, pureplayer etc. Suivi – accompagnement – tests etc.
(AI) : CapSEO = communauté de référenceur. SEO + SMO. Approche / TPE – PME. Distribution de tâches / profils de référenceurs = sur un projet / nombreuses personnes avec approches différentes.

Quel process mis en place en SEO ?



(AI) : qualification du projet – repérage compétences.
(EB) : client mature – demande du trafic. Apport supérieur. Clients globaux = écosystème digital / communication globale. Ex : axe = influence / prbQ SMO. Liens à partir d'une communauté. Liens dans l'approche globale. Amener aux clients – technique / demandes/
(SL) : tension dans le SEO / adaptation à l'entreprise et ses prbQ et ses habitudes ET l'ambition de faire évoluer les pratiques. 1ère étape : choisir des personnes capables pour intégrer le process (compétence en communication importante). Choix des bonnes personnes dans l'agence + 2ème étape : comprendre l'objectif in fine du SEO. Ex : intégration dans communication globale.
(YW) : maturité du client. 3 leviers : conseils, accompagnement. Expertise : audit technique, éditorial. Production en dur – technique. Adaptation aux besoins. Aide à devenir plus mature chez le client. Schéma de prestation qui colle. On sort de la prestation type (production, éditorial, linking etc.).
(FH) : partie de production classique + 2 tendances : mise en perspective / stratégie globale. SEO pour augmenter la conversation, l'audience, la notoriété etc. SEO moyen d'acquisition... ET pédagogie : aide les clients à murir sur le web. Formation / équipe interne ex : rédactionnel. Pour acquérir bonnes pratiques – réflexes.
(JMS) : adaptation projets client et ses moyens (équipe – propre CMS – agence etc.). Apport profils différents (technique – rédactionnel – stratège qui devient essentiel).

Personnes compétentes chez l'annonceur / apport agence ?



(JMS) : expertise – veille – vision de l'évolution du référencement. Ex : travail pour intégrer un référenceur in house.
(FH) : vision extérieure à l'entreprise – multiplication des types de clients.
(YW) : gagner du temps – bénéficie du savoir-faire – développement outil spécifique.
(SL) : ça dépend – pas toujours apport. De manière pragmatique, développement lourd qu'un client ne peut se permettre. Apport / interprétation de variations. Prise de recul / fonctionnement interne = diminution des ambitions.
(EB) : 1ères questions que le client se posent = maturité du client. Déjà accord de la direction + la meilleure équipe en interne et avec les consultants. N'avoir qu'un prestataire ou qu'un référenceur in house serait une erreur. Partenariat avec les clients est essentiel.
(AI) : recul + avis différencié. Travail sur la « sagesse des foules ». Recherche personne satisfaite. Nécessité réseau important.

Question : SMO / SEO ?


(EB) : avant linking – mode SMO mais comment l'aborder ? Technique – marketing. Nécessité intégration dans communication globale = faire parler ces 2 métiers.

samedi 20 février 2010

Place du search marketing chez les « annonceurs »

Le début de la journée de samedi au SEOcampus a été marqué par deux tables rondes sur la place du search marketing. La 1ère table ronde a porté sur les enjeux économiques du search marketing pour les « annonceurs »

Présentation des intervenants


Avec Michael Vuillaume (MV) Chef de projet Marketing Trafic - Groupe Le Figaro, Céline Simon (CS) Chef de projet SEO du site Kelkoo, Thibaut Cauterman (TC) Responsable de la Business Unit Emploi chez Ouest France Multimedia, Stéphane Arnoult (SA) Responsable SEO - Société Overblog, David Cohen (DC) Responsable SEO de la société Companeo.

(MV) : groupe Figaro – nombreux sites / nombreuses problématiques SEO/webanalytics – Ecole de commerce – agence
(CS) : chef de projet SEO – spécifications, mise en place projets – analyse.
(SA) : Ancien Aposition. Univers SEO – marketing – technique. 11 M / VU
(DC) : génération de leads. 300 000 VU/mois
(TC) : Ouest France – 70 personnes. 2 M / VU / 8 M bassin lecteurs.

Organisation des équipes SEO


(TC) : 4 spécialistes (SEO – SEM – analytics – E-mail) 2 agences.
(DC) : 3 SEO 3 SEM + pôle rédactionnel = cellule marketing.
(SA) : 1 SEO (20 personnes) SEM rien – 10 technique. Logique de Pages lues – distribution
(CS) : 2 Stats – 1 gestion contenu (support pays) – 1 chef projet – 1 responsable SEO + 4 développeurs + SEM = équipe à part rattaché au marketing.
(MV) : 1 + prestataire + 1 SEM + évangélisation / profils technique.

Prise en compte du search / entreprise de presse ?


(TC) : prise en compte web à partir de 2001. Pb : cannabilisation audience papier / écran. Services à apporter + richesse du contenu. Intérêt / service commercial. Une fois prise de conscience, levier / marque.
(CS) : dès le début – essor grâce au SEO.

Référencement d'une plate-forme de blog ?


(SA) : plate-forme en place. Conscience SEO initiale mais évolutions à éloigner. Enjeu de monétisation. Mais difficulté / WP – plugin SEO. Méthodologie de travail = commencer par le portail (organisé / tags – pbQ forte de nettoyage) + 2ème temps / partie blog. Ex : 20% trafic / blog – considération technique / augmentation de la charge. D'autant que performance prend de l'importance.

Problème de l'organisation / directions marketing – technique (blocage entre les 2) ?


(DC) : entrée avec marketing – rédactionnel or placement au milieu de la cellule informatique (car projets plus de site / page à page).
(TC) : dans Business Unit (technique + marketing). Quand idée validée – possibilité de mettre en place.
(SA) : lien avec les associés. Essentiel : comprendre les prbQ de chacun. Nécessité de savoir négocier – faire des concessions. Parfois non. Comprendre prbQ marketing + enjeux techniques derrière. Est-ce que ça vaut le coup ? Nécessité d'ouverture / avancée projets + rentabilité de chacun.
(CS) : SEO à Grenoble avec ingénieurs. Phase production plus facile à démarrer + évangélisation dans la société. Ex : équipe marketing pour éviter les erreurs au départ.
(MV) : rattaché à l'équipe marketing. Optimisation existant + nouvelles fonctionnalités. Equipe technique pense SEO avant son intervention.
Évolution positive de l'organisation des cellules.

Difficulté d'être à la pointe / veille SEO ?


(MV) : travail de veille intégrée dans l'équipe marketing + présence salon / recherche prestataire / nouveautés. (CS) : liens avec agence – tests en interne.
(SA) : plus de difficulté – échange / agence. Sélection de sources. Mise en place de tests. Dès le départ, présenter ce travail nécessaire. Disponibilité pour ce travail.
(DC) : pas si seul (directeur marketing – directeur technique, SEO aussi). Quand équipe informatique – projets plus souvent menés / agence qui propose des projets.
(TC) : principe = tout le monde doit être sensibilisé au référencement. Tout est possible. Tout est testable. Idée = test selon protocole validé. Pour l'encadrement, faire prendre conscience du rapport coût / bénéfice. Aide possible par agence. 1Ère intervention : savoir de base + 2ème : j'ai telle problématique comment la résoudre ?

Relation avec Google ?


(DC) : journée de formation Google proposée.
(CS) : essai de contact chez eux. Réussite mais pas de réponse. Analyse seule, pas d'aide / chute de trafic soudaine.

Intervention auprès des journalistes ?


(MV) pas d'intervention métiers de journaliste + (TC) pas de liens avec les rédactions = secrétariat de rédaction / intégration liens – changement de titre.
Journalistes ont le talent d'écrire SEO - « je ne peux dire à un journaliste d'écrire SEO ».
(TC) : « on écrit pour les lecteurs ». Si optimisation, on dirait ce que est lu le plus = toucher à la ligne éditoriale.

Seocampus 2010 : présentation du moteur Wolfram Alpha en 8 points.

Présentation du moteur Wolfram Alpha en 8 points – Conférence présentée par Jon McLoore – Strategic Development Manager – Wolfram Research. Une conférence de haut vol pour saisir l'intérêt de la computation dans la mise en valeur de contenu web.

Qu'est-ce que Wolfram Alpha ?


Moteur de connaissance de calcul.
Nouvelles approches de recherche.
Réponses précises aux questions précises.
On ne vous demande jamais d'aller vers une autre page.

Objectif : rendre une connaissance utilisable pour tout le monde.

Quelle est cette connaissance ?


4 étapes différentes : avis personnel – faits – méthodes – compréhension.

Que recherche-ton ?


Recherche de faits – d'opinion d'avis (moteur). Vous devez apporter le méthode et la compréhension (vous).

Notre approche est différente = intérêt / faits et méthode = notion de computation (Wolfram Alpha). La compréhension relève encore à vous.

Que vous apporte la computation ?


  • Trouver la feuille dans la forêt.
Ex: infos génériques sur les durées de vie.
Précision de la question / ma situation. 39 year male UK
Quel est le sens de ces informations dans une recherche classique ? Peu de sens 39 ans male uk
Ex : mars midnight (réponse = quelqu'un qui a vu mars à minuit)
Là, situation géographique + mots ensemble = sens.

  • La combinaison de l'information
Ex : temps date naissance nicolas sarkozy
Ou comparaison entre 2 entreprises.
Ex : apple vs microsoft

  • La création de nouvelles connaissances
Ex : recette de crêpe. Si personne n'y a pensé – informations créées dessus.
Traitement de l'ambiguïté.

Problème mathématique très bien traité avec la computation.

  • L'application des connaissances directement

Recherche des informations à des fins précises. Application des connaissances directement.
Ex : simulation de crédit.
On peut éviter de travailler sur la phase méthodologique ou de compréhension.
Ex : mélange de couleur

Ex : bâtiments plus hauts à Paris.
L'information peut être réactualisée. Paris – facteur limitatif qui exclue les autres villes du monde.
Ces informations nécessitent un niveau de computation.

Comment élaborer un tel système ?


Depuis 23 ans. Logiciels de computation mathématique.
Thème commun = comment appliquer la computation à la connaissance.

Wolfram Alpha et SEO ?


Pas de recueil d'infos sur site web.
Intérêt / travail sur des données existantes. Requêtes pour élargir un groupe de données.
Amélioration de l'accès aux infos.
L'utilisation de l'info est intéressante, pas la méthode.
Rendre disponible ses infos ne suffit pas. Besoin de les rendre accessibles.

Contenu + Computation = contenu nouveau.

Pourquoi faut-il proposer des recommandations ?



Information + connaissance doivent être plus intéressantes que ce que vous donnez au départ aux clients. Ex : conseils.
Souvent les données ne sont pas utilisées. On ne sait pas quoi en faire ?
Technologies pour comprendre ces données.
Objectif = prendre des décisions.
Si vous avez des algorithmes de recommandations, possibilité de proposer à l'utilisateur des infos pertinentes.
Ex : j'ai envie de regarder un film drôle pendant 1 heure.

Comment gagner de l'argent ?


API – adverts (limité) – Iphone mais surtout travail en partenariat.

Ex : Bing commence à afficher des résultats passés par notre computation.
Possibilité de poser des questions plus intéressantes à ses propres données.

SEO en 2010 : 4 approches à privilégier pour une stratégie SEO efficace

SEO en 2010 : les approches à privilégier. Conférence de Philippe Yonnet, DGA Aposition – Isobar, lors du SEOcampus 2010. 4 innovations sont à intégrer pour une stratégie SEO efficace en 2010, du fait de l'évolution récente des moteurs : PR modeling – approche sémantique – SMO – référencement responsif.



Du Pr sculting (nofollow) au PR modeling


06/2009 – selon Matt Cuts, la balise nofollow n'aurait pas d'effets sur la manière dont le PR est transmis. Constat : discours ambigüe de Google. Cas où c'est légitime. Ex : mise en panier – quand pas d'intérêt pour les moteurs de recherche.
Est-ce la fin du PR sculpting ? Fin de la période durant laquelle les actions des référenceurs n'étaient pas considérées comme importantes par Google.
Le sculpting permettait de faire coller l'importance d'une page avec la distribution de PR au sein des pages d'un site. Page importante = dépend du nombre de liens qui pointent vers la page. Objectif : maximiser les scores d'importance pour... les pages importantes. Ces actions sont contraires à la philosophie google. Solutions : javascript compliqué – ajax compliqué – nofollow (ne marche plus).
PR modeling : travail = moins de liens – bons liens. Nécessité de respecter les vrais contraintes d'ergonomie. A partir d'une page, se demander quels sont les liens importants ? Où je veux amener l'internaute ?

La personnalisation des résultats change-t-elle la donne en SEO ?


Un tout petit petit peu. Ne change pas encore la donne mais tendance lourde.
Notion de 1ère position deviendra difficilement mesurable. Plutôt objectif d'être sur la 1ère page.

La recherche temps réel change-t-elle la donne ?


Non en général mais oui pour des requêtes d'actualité.
Avant google news. Maintenant, fil des agences de presse + twitter.

Plus de sémantique dans Google ?


Tendance lourde. Symbolisée par l'expansion de requêtes dans les moteurs de recherche. Cela consiste à proposer des résultats sur des mots apparentés / mot tapé. Cela augmente le bruit mais Google est capable aujourd'hui d'apporter des réponses d'expansion. Cette évolution est accompagnée d'une meilleure « désambiguation » des requêtes. Besoin d'avoir les termes qui apparaissent dans la requête. Ex : gm cars – gm wheat – gm screen star wars etc.

Certaines stratégies vont perdre de l'intérêt.
Besoin d'avoir des pages optimisées pour une variante de mon expression de départ.
Analyses des requêtes les plus tapées.
Keyword stuffing (ajouter des tonnes d'expression dans la page) encore moins.
= optimisation du contenu autrement.

Faut-il recourir au SMO pour améliorer son SEO ?


La montée en puissance des réseaux sociaux justifie le recours au SMO.
Tendance forte = temps passé par les internautes sur les médias sociaux. Révolution.
Possibilité de capter ce trafic comme 2ème source de trafic naturel en plus moteur. Ex : référencement des vidéos.



Vers le référencement responsif ? Query Intent SEO.


Évolution des moteurs. Spécialisés / contenus – thématiques etc. Moteurs de niches = verticalisation. Puis recherche « mélangée » alias recherche universelle chez Google. Et QIR = l'algorithme s'adapte à l'intention cachée derrière la requête.
Vers le référencement responsif. Ex : travail spécifique sur la géolocalisation.
Rappel des 3 grands types de requêtes :
- Navigationnelles (recherche d'une page web) base des moteurs d'aujourd'hui. Réponse = URL
- Informationnelles (recherche d'un élément d'information)
- Transactionnelles (objectifs de transaction).

Typologie de requêtes différentes


/ requêtes informationnelles = reconnaissance des entités nommées.
Ex : chez Bing – Paris Hilton.
/ requêtes géolocalisées = nom de localité ou partir de la géolocalisation de l'adresse IP.
Donc identification de l'intention derrière la requête.
/ requêtes transactionnelles
Requête dénotant une intention d'achat ou non ? Il faut distinguer les cas.
Cf : labs de bing – Outil OCI – test pour voir si la requête est une requête avec intention d'achat ou pas. Probabilité donnée. Ex : sony 100% intention d'achat ou week-end à Rome 50 %.
Cf exemple / yahoo. En fonction de la formulation, probabilité proposée de détermination de la phase d'achat dans laquelle l'internaute se situe.

Requête QDF


/ Tsunami en Indonésie. Pages de résultats – infos anciennes.
Quand repérage d'un pic de recherche, changement de l'algorithme pour présenter les pages d'actualité. Nécessité de répondre à cette situation, si site d'information.
Requête QDF – apparaît la date, l'heure de publication.

La recherche temps réel


Ex : tremblement de terre en Californie. Twitter, autres sources immédiates.

Requêtes informationnelles vues par Wolfram Alpha.


Trouver la réponse directement à sa question.
Devenu le moteur de requêtes informationnelles de bing.

+ Possibilité de donner aux internautes de sélectionner les résultats.

+ Évolution des snippets – ancre ou lien pour arriver directement à la page souhaitée.
Résultats avec fil d'ariane avec plusieurs liens proposés.

Conclusion : se demander sur quels types de requêtes se positionner ? Besoin de réfléchir à la stratégie à mettre en place – optimisation spécifique.

Mes commentaires concernant la conférence SEO en 2010


Le titre de la conférence très prometteur correspond bien au intitulé à la mode en début de chaque année. « SEO 20..., les approches à privilégier ». Ce qu'il y a de bien avec Philippe Yonnet, c'est qu'il tient ses promesses. Excluant d'emblée les domaines du SEO dans lesquels, il n'y a rien de nouveau (netlinking – contenu), il s'est concentré sur les innovations à mener en termes de SEO en fonction des évolutions des moteurs. Sans reprendre les 4 approches qu'il a détaillées, il ressort une nécessité de mettre en place une stratégie centrée utilisateurs afin de réaliser les objectifs souhaités en répondant à leurs attentes. Les réflexions liées au référencement responsif en termes d'ergonomie, d'architecture de l'information, de production d'un contenu éditorial efficace sont de plus en plus indispensables. Il me semble que la dimension SEO dans la gestion de projet va s'enrichir fortement.

Comment optimiser son site pour la recherche geolocalisee ?

David Cohen – responsable SEO chez Companeo a proposé plusieurs conseils pour optimiser son site pour la recherche géolocalisée. Pour cela, il a pris 6 exemples mélangeant les dimensions locale – nationale ou internationale de l'acteur ou du site en jeu. Son conseil principal consiste à optimiser les informations fournies dans le local business de Google.


Géolocalisation. Pourquoi ?


Google maps mais pas seulement.
  • Géolocalisation & longue traîne = Communes – villes etc. Dans de nombreux métiers, besoin de localiser l'activité. Idée de longue traîne dès le début.
  • Géolocalisation & recherche universelle = maps en 1ère page des SERPs.
  • Géolocalisation & SEO mobile = Iphone, à côté d'où on se situe.
  • Géolocation & SEO international.

Les approches méthodologiques de la géolocalisation


L'approche doit intégrer : carte (local – national) - langues international - pays

  • Acteur local – site local.
Ex : magasin à Orléans. Nombreux annuaires ont créé des fiches. Que faire ? Conseil = itinéraires d'un quartier vers le lieu du magasin. Fiche avec pleins de mots – pages prétextes pour présenter le magasin + promotion etc.

  • Acteur local – site national.
Ex : foies gras du Périgord. Présence nécessaire sur la région mais aussi envoi sur toute la France. Que faire ? Nourrir son local business. Nécessité d'assurance. Création de page pour présenter l'entreprise + envoi à Paris – Lyon – Marseille etc. Pas seulement Périgeux / Périgord.

  • Acteur national – site mobile.
Site : nomao. (Dismoiou Sur le web)
Que faire ? Il faut s'y préparer avec mots de localisation très précis (rue – place à côté – jardin à côté).

  • Acteur local – site international.
Ex : Hotel marais paris – le 1er a un très bon local business. Avis internautes nombreux. Penser différentes langues dont les plus exotiques.
Que faire ? Au lieu d'aller chercher des requêtes impossibles – faire le tour du quartier, photos, balades, itinéraires + Comment faire pour venir de l'aéroport à l'hôtel. Du contenu utile pour le visiteur. Pour faire une toile d'araignée centrée sur le lieu de l'hôtel.
+ Pour site multi-langue.Conseils : La géolocalisation par les langues compte encore mais il faut aller jusqu'au bout.

  • Acteur national – site multi-régional.
Ex : garage renault. Le 1er résultat ne correspond pas au garage de la ville tapée car local business. Renvoi au site national. Pourtant page spécifique existante. Donc aujourd'hui, le local business donne la priorité / page pourtant pertinente.

  • Acteur (inter)national – sites internationaux
Ex : Brief europcar.com en 2004 = site de soutien / sites nationaux.
Réponse : annuaire international de toutes les agences en anglais. On perd toutes les autres langues. Que faire ? Annuaire dans chaque langue (traduction de tous les noms de villes). Arborescence qui part d'une carte mondiale jusqu'à la ville, dans toutes les langues. Gros CA / recherche hyper-géolocalisée.
Conseils : ça marche toujours bien les annuaires géolocalisés.
+ Privilégier le sous-domaine / dans l'arborescence car sous-domaine est juste sous la puissance du domaine.

Mes commentaires sur la conférence de David Cohen



La mise en relief de l'intérêt de la géolocalisation a permis de dépasser le seul intérêt pour l'apparition des maps dans les SERPs de Google. Longue traîne, SEO mobile, SEO international nécessitent aussi la prise en compte de la géolocalisation. Les conseils apportés sont souvent de bon sens, tournés optimisation du contenu éditorial et privilégient l'utilisation du local business center de Google. Par contre, il semble rester impossible de localiser un site sur un lieu de livraison.

vendredi 19 février 2010

Le métier de référenceur : table ronde seocampus 2010

Excellente table ronde autour du métier de référenceur lors du SEOcampus 2010. Animée par Laurent Pillet : agence presse / emploi – immobilier ; Priscille Giani (PG) : agence Hureca ; Michel Grevillot (MG) : IUT Mulhouse et David Durand Pichard (DDG) : responsable SEO M6.

Les profils dans les métiers du référencement



PG = d'un profil technique ou littéraire précédemment = ajout de compétences marketing et rédactionnel. Plus polyvalent. Expert en référencement pour intégrer les services web des annonceurs ou profil intermédiaire. Pour junior, ça repart côté agence.

MG = Vers entreprise pas de soucis – côté étudiants = tous employés. Formation liée avec Renatic. Demande des annonceurs augmente. Promotion auprès des jeunes. Au départ, rédacteur = vers couche technique. Entreprise – plus demande vers profil web – SRC. 50% littéraire + 50% SRC.

L'emploi dans le référencement



DDP = Profils des entreprises qui emploient des SEO. En Ile-de-France + de 50 salariés. Les entreprises se structurent en interne mais continuent à travailler avec des agences.
38 % en IDF – 10 % Nord – 8 % RA.

Profils SEO = ils ont postulé à tout (chargé de référencement – chef de projet SEO – consultant webmarketing ou SEO – responsable référencement, expert en référencement, directeur SEO). Dans entreprise, difficulté à cerner le bon profil / ses enjeux.
Formation marketing – école de commerce = deux formations types mais aussi autres formations. Etre curieux. (Peu d'indépendants dans les réponses).

SEO intégré dans équipe marketing.

PG = postes d'expert SEO restent sur Paris / Lille. Ex : Nantes – multi-levier (SEO – SEM – affiliation).
En 2009, 50 / 50 agence – annonceur. Annonceurs aiment bien des profils agence. Expert = 5 ans mini + sites très différents.
Profils appelés avec toutes les casquettes... Nécessité de conseils – rédaction des fiches de postes. Directeur informatique en 2008 – directeur marketing en 2010.
Québec = intitulé = chef de projet web = 2 ou 3 agences + Ontario + New-York

MG = alternance ne fonctionne pas au-delà de 150 km. Stage hors Grand-Est.
Intitulé de postes ? Ça dépend des entreprises. Adaptation du programme. Couche marketing – technique – gestion – écriture.

La rémunération des SEO



DDP = 3 types de profils = moins de 35K – 35K ou 45K – plus de 45K.
Plus de 65K en région parisienne dans entreprises de taille importante.
Travail = évangélisation (en plus technique + marketing + managériale)

PG = 0 à 2 ans en agence = 33 – 34K
3 à 4,5 ans = intermédiaire
Plus de 5 ans = 45 – 50K

2008, bataille sur les salaires entre agences.
Now, sur des profils experts uniquement.
Sur profils responsables – plus payés chez l'annonceur.

Profil plus technique pour valider les compétences.

MG = 60% à 100% SMIC / alternance – ensuite 1ère tranche.

DDP = Investissement en cours / profil expert en agence.

Mes commentaires sur cette présentation des métiers de référenceur



Très bonne table ronde avec beaucoup d'informations pertinentes sur l'évolution du marché des métiers de référenceur. Si le marché devrait repartir en 2010, il sera plus orienté vers les experts SEO que pour les juniors. Ces derniers doivent développer leur polyvalence (aussi bien technique, rédactionnelle que marketing) afin d'acquérir une 1ère expérience en agence ou chez l'annonceur. Mais rassurez-vous, l'intégralité de la 1ère promotion de la licence pro Référenceur et rédacteur web a trouvé un poste dans les mois après sa formation.

Conférence Olivier Andrieu – Seocampus : une nouvelle piste en référencement

Olivier Andrieu, consultant et éditeur du site abondance a proposé une nouvelle piste en référencement. Dans son intervention intitulée « un tableau de bord référencement sans notion de positionnement », il a proposé une autre vision de la mesure de la qualité d'un référencement. Est-ce que se baser sur la notion de positionnement est toujours intéressante ? Autrement dit chercher à être 1er ou 2ème reste-t-il pertinent ? C'est une autre vision du référencement qu'a proposé Olivier Andrieu sans dire que le positionnement est mort.



La vision d'Olivier Andrieu résumée en 3 phrases :


  • « Pari : fin 2010, à moteur et requête identiques, quasiment chaque internaute aura une SERP différente ».
  • « Difficile de penser « référencement » en 2010 sans contenu éditorial de qualité et sans prendre en compte la mesure de sa visibilité... ».
  • « Le référencement sert à donner une bonne visibilité à un contenu de qualité ! ».

L'évolution et la personnalisation des SERPs


  • Grosse évolution depuis 15 ans (« Google est un organisme vivant » = il modifierait son algorithme plus d'une fois par jour) Ex : Trust rank / Page rank / anchor text etc.
  • On est passé d'une vision « être présent dans les 3èmes premières pages de résultats » à la notion de « SERP d'OR » = La figure en F des études d'eye-tracking.
  • Tendance forte = Google est devenu un portail de recherche notamment pour les activités locales. Si je mesure la qualité de mon référencement, uniquement à mon positionnement = je suis 1er mais je ne suis plus très visible + Idem pour la recherche universelle = Google news + Images.
  • La visibilité naturelle change. La place dans le triangle d'or devient de plus en plus difficile sans référencement dans google news, images etc. Le référencement devient multi-plateforme. C'est une évolution très importante qui est pourtant passée presque inaperçue.
  • Prise en compte de l'historique de recherches. Donc entre 2 personnes et même deux ordinateurs, réponses différentes. Alors que va-t-on mesurer ?
  • Adaptation des algorithmes en fonction de différents critères. Ex : les QDF (« Query Desserves Freshness ») de Google. Cf : mots clés Johnny Halliday sur insight for search. Quand pic de recherche, changement de l'algorithme basé sur la fraicheur de résultats. Changement de résultats possibles d'un jour à l'autre en fonction de l'actualité. Quand fait-on la mesure quand changement comme cela ?
  • Les résultats sont aujourd'hui personnalisés en fonction de nombreux critères de l'internaute (ou pas) : l'adresse IP – le moteur utilisé (.com, .fr) suivant l'interface linguistique – la langue du navigateur – les requêtes passées – les données de searchwiki – les « pics de mots clés » - la recherche universelle – l'implication du search social (facebook, twitter, gmail buzz...) etc. cela sera de plus en plus souvent le cas.
« Pari : fin 2010, à moteur et requête identiques, quasiment chaque internaute aura une SERP différente »
La notion de « positionnement » ne veut plus dire grand chose...

La longue traîne appliquée au référencement


  • Notion qui vient du domaine du commerce électronique. Un site de commerce électronique vit par la taille de sa longue traîne.
  • Dans le domaine du référencement, 20% des visites moteurs sont générées par des requêtes « métiers » - 80% par le contenu rédactionnel.
« Difficile de penser « référencement » en 2010 sans contenu éditorial de qualité et sans prendre en compte la mesure de sa visibilité... »
Ex : la longue traîne sur le site abondance.com : 10 requêtes génèrent 20% du trafic. Plus de 25000 requêtes génèrent 80% dont 20000 une seule visite.

Exemple de tableau de bord

  • Analyse généraleRécupérer le fichier des mots clés referrers

Données = Part des visites moteurs / ensemble
Trafic Google = quels outils de google génèrent du trafic (google news – google web search – google toolbar)
comparaison avec le mois précédent – le même mois de l'année précédente.
Courbe sur les 12 derniers mois
Nos commentaires

  • Analyse de la longue traîneTête (là + de 1000 visites)
Total 121194 requêtes différentes
Comparaisons
Nos commentaires

  • Analyse de la tête de la longue traîne
Requêtes qui ont généré beaucoup de trafic. Ex : pas de mots clés métiers / mots clés d'actualité pure.
Nos commentaires

On peut imaginer d'autres indicateurs :
taux de rebond
ROI des deux parties de la LT
ROI des mots clés de tête de LT
Analyse par moteur (Yahoo!, Bing...)
Taux de mots clés « originaux » dans la LT (dérivés de mots en tête de LT)
Etc.

La notion de positionnement peut être gardée à des fins de benchmark concurrentiel.
« Le référencement sert à donner une bonne visibilité à un contenu de qualité ! »
Idée : on ne jette pas tous aux orties mais travail sur le LT intéressante.

Commentaires sur la vision d'Olivier Andrieu


Olivier Andrieu a des talents d'orateur, de l'humour qui emporte l'adhésion. De plus, il prend souvent du recul à l'inverse d'une tendance de suiveurs développés par beaucoup d'autres. Dans son intervention, il s'est interrogé à plusieurs reprises sur la pertinence de la notion de positionnement dans le contexte actuel. Que mesure-t-on réellement face à l'évolution et à la personnalisation des SERPs ? Pour sortir de cette situation ambigüe, il propose de réellement analyser les mots clés de longue traîne dans des tableaux de bord plus pertinents. Variations et tendances prennent alors tout leur sens. Néanmoins, il réintègre la notion de positionnement à des fins de benchmark concurrentiel. C'est alors une comparaison en termes de visibilité des sites autour des mots clés referrers qu'il propose.

Le constat qu'il fait concernant les évolutions et la personnalisation des SERPs est particulièrement pertinent. La stratégie d'analyse de la queue de la longue traîne emporte l'adhésion, de même que son adaptation des tableaux de bord pour jouer leur rôle d'aide à la décision. Par contre, le tableau de visibilité proposé me semble réintégrer le positionnement sans tenir compte des évolutions décrites.

Principaux critères de référencement utilisés par les moteurs

Principes de fonctionnement des moteurs – principaux critères utilisés par les moteurs. Atelier animé par Renaud Joly – chef de projet SEO senior (Altima)



  • Contexte : pourquoi s'intéresser au SEO : période de croissance forte en France – volume de recherche sur un mois / décembre 2009.
  • Comment ça marche ? Intérêt / Interface – index – robot.
  • L'interface de recherche peut influencer comment l'internaute va chercher. Ex : google suggest = phénomène d'accélération. Voir aussi recherche vocale qui arrive sur téléphone portable = changement dans formulation de phrases.
  • L'interface de la page de résultat peut influencer aussi le référencement. Ex : recherche universelle. Etre présent par du contenu édiorial – image – vidéo – google maps.
  • Le robot suit les liens mais pas tous. Faire attention à l'indexation de ses pages.
  • Critères de pertinence au niveau du site (250 à 300 pour Google). Ces critères influencent le positionnement : l'unicité (contenu original disponible sur 1 seul domaine) – les liens entrants (volume et qualité des liens) – performance du site – arborescence du site (sémantique différente. Ex : vêtement femme ou pantalon femme + importance de la page d'accueil en raison des liens entrants) – présence de mots clés dans la réécriture d'url. Ces critères peuvent être analysés dans les webmaster tools sur Google, Bing, Yahoo.
  • Critères de pertinence au niveau des pages. Critères les plus importants : balise title (importance de la présence des mots clés) – liens entrant (volume et ancre) – éditorial (en haut du code source) – taux de clic (analysé dans les pages de résultat, notamment lors du lancement d'un site) – liens sortant (volume et site cible = pages pertinentes sur les mots clés) – balise alt sur une image – nom du fichier image (mot-clé.jpg). [Conseils = référencer les contenus sur les sites dédiés ex : images sur flickr].
  • L'optimisation éditoriale. Balise H1, H2 (structure du contenu) – début du texte (et présence du terme dans le texte = cohérence – taille du texte (400 caractères minimum) – analyse sémantique (synonymes, pluriels, lemmatisation = ramener des verbes conjugués à l'infinitif – famille du mot) – les moteurs font une analyse statistique des textes (le moteur ne fait que compter des mots + liens vers l'extérieur. Ex : recette pour faire un morito. Il est capable de calculer le score du contenu / mot clé).
  • Des liens. L'ancre du lien – un texte pour qualifier le lien (250 caractères autour du lien) – place du lien dans la page (contenu, navigation, footer) – un texte de page sur le thème – type de liens
  • Mais. Conseils. Prudence – Historique – ils existent des critères négatifs (sur-optimisation ex : bourrage de mots-clés – génération automatisée de pages – netlinking massif – poison words : viagra – porn etc. Voire carrément éliminatoires (cloacking – texte caché – achat de liens – fréquentes indisponibilités du site).
Commentaires : une conférence très didactique de la part de Renaud Joly. Rappel et explication des principaux critères de pertinence pour le référencement (au niveau du site, de la page, optimisation éditoriale, liens etc.)