Création de site internet à Neuilly sur Seine et Paris - Création site internet Paris

Ckom Paris, création de site internet Paris

Ckom Paris, création de site internet à Paris

Depuis 1998, nous apportons des solutions de conseil, création, développement et visibilité sur le web. Ckom Paris, une agence web partenaire de ses clients:

CkomParis c'est...

une approche globale de communication sur internet. Agence web Paris : une expérience de plus de 600 projets L' agence web Ckom Paris a été créée en juillet 1998.

Avec plus de 600 projets, la vision de notre métier : "Accompagner de façon durable nos clients, réussir ensemble." Notre métier : écouter, comprendre, analyser, transformer, pour apporter la réussite à nos clients. En tant qu'agence conseil en communication internet et digitale, notre priorité est d'être à l'écoute de vos projets, à l'écoute des innovations technologiques pour être force de proposition et de valeur ajoutée. Une agence web d'expertise et d'innovation Ckom Paris, agence web à Paris - Bruxelles et Marrakech, concentre son domaine d'expertise sur la stratégie digitale, c'est à dire une gestion globale de votre communication digitale :

Our Strategy

Stratégie et plan d'action Création charte graphique et webdesign Réalisation du site internet, application mobile, Réalisation des applications et pages de réseaux sociaux (facebook, linkedin, Twitter, Google+...) Les actions de visibilité : référencement, community management Le conseil en communication et l'accompagnement lors de la création de votre site internet et des autres créations de média sont pour vous la garantie d'une prestation globale.

What we do

En tant qu'agence digitale, Ckom Paris propose des solutions sur mesure : du conseil en stratégie internet à votre référencement, du logotype à la création de votre site internet. Ckom Paris, agence web Paris & Bruxelles, apporte une réponse sur mesure, et adaptée à votre personnalité et à vos enjeux.

Clients

McDonald's

GROUPAMA

MULTIMAT

POEMOTU

PACHAMAMAI

XART THE MOVIE

DOGS SECURITY

ACHAK PARIS

MARCEL PAGNOL OFFICIEL

HAIR30

COFFIM

XEROX

Let's have a talk together

Ckom Paris lance à Paris la première Webagency accélérateur de projets e-commerce ! Le première agence qui developpe votre site ecommerce gratuitement, nous nous retribuons aux resultats sur votre CA

Headquarters

CKOM PARIS 9 rue Théophile Gautier 92200 NEUILLY SUR SEINE

Contactez-nous

Comment s’assurer qu’un projet SEO est réaliste ?

Vous avez un projet de référencement naturel ?

Un besoin de visibilité pour un futur site ou un site existant. La première question qui vient alors à l’esprit est de savoir si ce projet de référencement est à la fois réaliste et rentable. Cette question se pose à tous les porteurs de projets, mais aussi à tous les gestionnaires de sites et aux équipes dirigeantes. Pour tenter de répondre à cette question plus fréquente qu’il n’y paraît, je vous propose une réflexion structurée en plusieurs points qui peut être reprise pour n’importe quel cas concret…

Référencement naturel — 21 mai 2014 — 6 commentaires
Comment s’assurer qu’un projet SEO est réaliste ?

Vous avez un projet de référencement naturel en tête, un besoin de visibilité pour un futur site ou un site existant. La première question qui vient alors à l’esprit est de savoir si ce projet de référencement est à la fois réaliste et rentable. Cette question se pose à tous les porteurs de projets, mais aussi à tous les gestionnaires de sites et aux équipes dirigeantes. Pour tenter de répondre à cette question plus fréquente qu’il n’y paraît, je vous propose une réflexion structurée en plusieurs points qui peut être reprise pour n’importe quel cas concret…

- See more at: http://www.webmarketing-com.com/2014/05/21/28015-comment-sassurer-quun-projet-seo-realiste#sthash.XDtJwjFv.dpuf
Référencement naturel — 21 mai 2014 — 6 commentaires
Comment s’assurer qu’un projet SEO est réaliste ?

Vous avez un projet de référencement naturel en tête, un besoin de visibilité pour un futur site ou un site existant. La première question qui vient alors à l’esprit est de savoir si ce projet de référencement est à la fois réaliste et rentable. Cette question se pose à tous les porteurs de projets, mais aussi à tous les gestionnaires de sites et aux équipes dirigeantes. Pour tenter de répondre à cette question plus fréquente qu’il n’y paraît, je vous propose une réflexion structurée en plusieurs points qui peut être reprise pour n’importe quel cas concret…

 

1-Par l’analyse stratégique et marketing de la concurrence

Le premier réflexe de quiconque consiste à jeter un œil à la concurrence. Cela est a priori une bonne idée : connaître ses concurrents, connaître leurs forces et leurs faiblesses permet d’ajuster au mieux son projet.

À l’inverse, mal identifier ses concurrents ou procéder à une mauvaise analyse de leurs atouts, peut vous induire en erreur, avec des conséquences insoupçonnées.

Après ces quelques lignes de prudence, intéressons-nous à mettre en place une méthodologie d’analyse.

  1. Tout d’abord, il convient de savoir identifier et classifier correctement son projet. Prenons l’exemple d’un site Internet d’une chambre d’hôtes dans le Jura.
    1. Identifions le marché
      D’un point de vue marketing, ce type de service permet de répondre à un besoin d’hébergement dans une région donnée. La chambre d’hôtes est une réponse qualitative et spécifique en hébergement.
    2. Identifions la cible
      À première vue, les personnes intéressées sont
      - soit celles à la recherche d’un hébergement atypique, en contact avec des gens. Je pense ici à des profils de seniors ou à des passionnés de voyages de tous âges.
      - soit celles privilégiant les aspects pratiques, par exemple les passionnés de VTT recherchant une solution d’hébergement en plein milieu de la campagne.
    3. Identifions la concurrence
      Le premier écueil dans l’analyse du réalisme d’un projet est de ne s’intéresser qu’à la concurrence directe. Celle-ci concerne par exemple toutes les chambres d’hôtes dans un rayon de 50 km. Or il faut aussi s’intéresser à la concurrence indirecte en prenant en compte tous les hôtels dans le même rayon, mais aussi toutes les autres solutions d’hébergement : solution d’échange de maisons, camping, aire de caravanes etc.
      Tous ces confrères (et néanmoins concurrents) disposent ou peuvent disposer d’un site Internet. Il conviendra de faire leur analyse.
  2. Mettons-nous ensuite dans la peau d’un client potentiel, d’un prospect.
    Pour chaque cible retenue, essayez d’imaginer le processus de recherchede votre bien ou service. Détectez également les critères de décision.Série d’exemples :
    1. Je suis une personne âgée et je veux passer quelques jours sympas dans les montagnes du Jura. Je vais sur Google et je tape “chambre d’hôtes Jura”. Je m’attends à voir une liste de sites d’hôtel et de comparateurs d’hôtels. Après une première sélection, j’appelle la chambre d’hôtes pour laquelle j’ai eu un coup de cœur et je réserve à l’avance.
    2. Je suis fan de VTT et je cherche un endroit où loger la nuit de ma balade de 2 jours. Pour organiser mon circuit, je recherche “où dormir le soir avec mon VTT dans le Jura” et j’espère trouver un forum où des gens auront fait la même expérience que je désire avoir. Sur recommandation d’un internaute, je vais sur un site en particulier, je remplis un formulaire de contact et je demande un tarif.
    3. Je cherche une idée de vacances économiques et agréables pour toute la famille. J’effectue une requête du type “balade dans les Alpes ou le Jura en famille en voiture”. Je m’attends à lire un forum ou des sites proposant un hébergement combiné avec des sorties organisées. J’ai trouvé quelques sites de solution d’hébergement tout azimut, je vais sur un comparateur et je craque pour le rapport qualité-prix qui me convient, c’est-à-dire le moins cher.

Prenons maintenant un peu de recul. en fonction des cibles, je m’aperçois que mon marché est plus complexe que prévu en termes de recherches et de décisions d’achat.

Je me rends compte que mes clients potentiels maîtrisent la recherche d’information sur Internet, ils comparent les offres et n’hésitent pas à faire jouer la concurrence à distance.

Je sais que le référencement consiste à rendre son site visible sur les recherches des internautes. Or, ceux-ci ne cherchent pas seulement à réserver, ils veulent aussi du conseil, de l’information, des retours d’expérience, des comparaisons de prix.

Je réalise alors qu’en tentant de se positionner uniquement sur les requêtes de réservation, je passe à côté de la majorité des recherches de ma cible et qu’un concurrent peut se faire connaître bien avant moi.

D’où la mention “stratégique” de cette première partie.

Dans mon exemple, et si je tentais de me rendre visible sur les forums en plus de tenter de positionner mon site sur les requêtes de réservation ? Et si je crée mon propre forum thématique ? Et si j’étais présent sur les comparateurs de prix ?

En réalisant cette démarche, de nouvelles perspectives peuvent s’ouvrir à vous comme cela est illustré dans cet article.

 


2-Par l’analyse SEO de la concurrence et du marché

Cette analyse du référencement naturel (voire payant) va porter sur deux points : l’analyse des mots clés (la demande des internautes & les mots clés privilégiés par les concurrents) et l’analyse in-site et off-site des sites des concurrents.

1-Analyse des mots clés

A-Connaître la demande des internautes

Il est en effet possible d’identifier les recherches les plus populaires de sa thématique. Avant de voir comment il est possible de les obtenir, cherchons d’abord à bien définir sa thématique.

Dans la même logique que précédemment, couchez sur papier les principaux besoins directs et indirects, en simulant des recherches d’internautes en phase d’information comme en phase de comparaison. Après avoir identifié ces thèmes et ces sous thèmes, utilisez le générateur de mots-clés Google Adwords (https://adwords.google.com/KeywordPlanner).

Avec cet outil, en saisissant une ou plusieurs thématiques, il est possible de connaître l’ensemble des mots clés recherchés pour chaque thème et surtout le volume de demandes mensuelles moyen. Autrement dit, vous pouvez réaliser votre première étude de marché Internet chiffrée de votre thématique.

Récoltez toutes ces données sur un tableau Excel et triez les mots clés par ordre décroissant de recherche pour mettre en valeur les mots clés les plus demandés. Ces derniers seront sûrement les mots clés sur lesquels vous allez tenter de vous positionner.

B-Connaître les mots clés utilisés par vos concurrents

Dans le même esprit, il existe un générateur de mots-clés (payant) qui vous fournira une liste d’expressions sur lesquels les sites de vos concurrents sont visibles : http://semrush.com.

Là aussi, vous pouvez en extraire un tableau Excel et identifier les mots clés les plus recherchés.

 C-Synthèse

Synthétisez ces 2 tableaux en un seul pour obtenir une liste de thématiques et de sous-thématiques. Vous obtiendrez alors une liste exhaustive d’expressions reflétant l’état de la demande. Là aussi, n’hésitez pas à prendre du recul sur cette liste et à confronter vos stratégies initiales aux réalités du terrain. Bien que derrière chaque recherche ne se trouve pas forcément un client potentiel, il est toutefois intéressant de mesurer la diversité des recherches, leur complexité, vous aidant à compléter vos schémas anticipés de décisions de votre clientèle.

Vous pourrez notamment insister sur tel ou tel aspect en termes de services ou de produits sur votre site, sur votre tunnel de conversion à l’action ou dans votre discours commercial.

2-Analyse in-site & off-site des concurrents

En vous aidant d’un outil d’audit référencement d’un site Internet, réalisez un tableau listant par concurrent les principaux points à travailler pour le référencement naturel d’un site.

Il convient alors de faire remonter les informations suivantes :

  • Nombre de pages du site
    Plus un site a de pages indexées par Google, plus il a de poids pour bien se référencer. Ces pages peuvent être soit des réelles pages de contenus avec un argumentaire client, soit des pages automatiques créées par la structure technique du site.
  • Nombre de liens pointant vers ce site
    Là aussi, le nombre de liens est important, tout comme leur qualité. La notion de Trustflow de chez MajesticSeo (http://www.majesticseo.com) tend à le mesurer.
  • Âge du site
    L’antériorité du site constitue aussi un critère de qualité : plus il est âgé, mieux c’est pour sa visibilité.
  • Mentions dans les réseaux sociaux
    Véritable levier de référencement indirect, les réseaux sociaux sont de plus en plus pris en compte dans le calcul des positions des moteurs.
  • Optimisation technique globale du site
    La note globale de l’outil permet d’avoir une vue transversale sur l’optimisation technique du référencement du site.
  • Stratégie horizontale ou verticale d’une société sur Internet
    Ce site appartient-il à un réseau de sites portant sur la même thématique (stratégie verticale) ou dans les thématiques annexes (stratégie horizontale) ?
    Pour le savoir, récupérez l’IP du site à l’aide d’un site tel que http://outils.apocalx.com/IP/ et faites une recherche avec cette IP sur Bing ex: http://www.bing.com/search?q=ip%3A173.194.40.133
    En fonction des sites ressortant, il est possible de déterminer si le propriétaire du site utilise de telles stratégies.

Une fois ce tableau réalisé, vous saurez identifier vos concurrents réellement les plus féroces et quantifier le volume de travail restant à faire. Autrement dit, vous saurez déterminer des objectifs chiffrés pour votre référencement naturel.


3-Par le montage d’un cahier des charges

Après avoir récolté toutes ces informations et avoir bien délimité sa stratégie, il est temps de planifier l’ensemble des actions à prévoir.

En fonction de l’existant, listez un ensemble de tâches de référencement à prévoir triées par thème : “référencement technique”, “création ou optimisation du contenu”, “apport de liens” et mettez cela sous forme de tableau afin de lisser la charge de travail dans le temps.

Pour aller plus loin que la définition d’un cahier des charges et pour anticiper ses actions de suivi, Il est possible de s’aider d’outils de gestion de projets en ligne généralistes comme www.wimi.pro ou dédiés au SEO comme http://www.analyticsseo.com/fr/


4-Par l’analyse interne des ressources humaines, financières, temporelles et matérielles

Disposez-vous des ressources nécessaires pour mettre en place de telles actions ?

Le recrutement d’un salarié ou d’un stagiaire engendre des conséquences au-delà de l’aspect financier, mais concerne aussi les aspects sociaux et managériaux de votre entreprise. Essayez d’anticiper tous ces postes dans vos réflexions.

Une solution pratique consiste à opter pour une formation au référencement pour l’un de vos collaborateurs ou pour vous-même afin de vous assurer de la viabilité SEO de votre projet et de monter en compétence puis par la suite de vous faire épauler quelques heures par mois pour certaines tâches.


5-Par la création d’un projet original, ambitieux et réaliste

Bien souvent, les projets qui se démarquent sont ceux qui apportent une plus-value au marché et qui ne se contente pas de copier les concurrents. Cette plus-value peut-être d’ordre tarifaire mais aussi d’ordre méthodologique, technologique ou tout simplement d’avoir une vision différente des choses.

Ce constat vaut également pour le référencement et sera d’autant plus pertinent concernant la fidélité ultérieure de vos clients.

Conclusion et remarques

Le but de cet article est de vous fournir une base de réflexion cohérente et structurée sur le réalise de votre projet SEO. Bien entendu, il est perfectible. J’ai voulu mettre l’accent sur le marketing qui pour moi se situe en amont du référencement. J’ai volontairement peu développé les derniers aspects managériaux, pensant qu’il existe de bons articles en ligne sur le sujet. Si besoin, je peux apporter une suite à ce billet.

- See more at: http://www.webmarketing-com.com/2014/05/21/28015-comment-sassurer-quun-projet-seo-realiste#sthash.XDtJwjFv.dpuf

Création de site E-commerce à Neuilly sur Seine

Le chiffre d'affaires du e-commerce français a encore bondi de 16% au deuxième trimestre. Tous les indicateurs, y compris celui du panier moyen sont en hausse. Pourquoi ?La croissance molle, voire la récession en France? Pas sur internet, en tout cas. Le e-commerce continue en effet d'afficher un dynamisme remarquable. Au deuxième trimestre, les ventes en ligne ont progressé de 16%, à 12,2 milliards d'euros, selon le bilan semestriel de la Fédération du e-commerce et de la vente à distance (Fevad) rendu public mardi. Un chiffre qui consolide une progression de 14%, au premier trimestre après un bond de 19% sur l'ensemble de l'année 2017.

Toujours plus de clients et de vendeurs sur Internet

La hausse du chiffre d'affaires s'accompagne d'une hausse de 20% du nombre des transactions sur internet. Et le nombre de Français qui achète en ligne a augmenté de 3%. Internet est clairement identifié comme un moyen d'obtenir de faire des bonnes affaires, ce qui compte encore plus en temps de crise.

"Même si le rythme de progression est moins important depuis le début de l'année, le marché des ventes sur internet reste tiré par la croissance de l'offre et de la demande", souligne la Fevad.

Création de site E-commerce à Paris

Création de site E-commerce à Paris

Notre agence est spécialisée dans les solutions open source Prestashop et Magento à Paris.

L'open source vous permet de ne pas être tributaire d'une solution propriétaire. Ainsi, votre site vous appartient et sera facile à prendre en main. Ces solutions évoluent régulièrement en fonction des progressions des technologies et des habitudes d'achat. Elles ne sont pas figées. Il existe de nombreux modules et applicatifs qui permettent d 'agrémenter le site et de l'adapter parfaitement à votre besoin.

CkomParis vous accompagne dans les différentes phases de votre projet :

  • Stratégie E-commerce
  • Conseils et accompagnement dans l'identité graphique
  • Choix de la solution (Magento ou Prestashop) associé à nos modules
  • Formation à la console d'administration
  • Gestion et animations des ventes
  • Marketplace

 
Sarah hommet,
Consultante Ecommerce Senior CkomParis 

Contactez-nous

Dotez-vous d'un site Web au design performant !

Dotez-vous d'un site Web au design performant !

A la fois agence web créative et agence conseil, nous vous accompagnons dans la réalisation de tous vos projets web (site vitrine, portail d’information, e-commerce...), en vous garantissant qualité et efficacité.

Brand Assets

Logos

Images

Moderne oui, mais surtout efficace

Nos jeux concours

Tarifs création d'un jeu concours

19 Apps disponibles Twitter et Instagram inclus Facebook, site web et mobile Personnalisation graphique Export des données “J’aime” proposé sur Facebook Opt-in newsletter

Pour un jeu : 22 Apps disponibles Concours photo inclus Facebook, site web et mobile Personnalisation graphique Export des données “J’aime” proposé sur Facebook Formulaire personnalisable Données de profil Facebook Marque blanche

32 Apps disponibles Multi-réseaux sociaux Facebook, site web et mobile CSS éditable Export des données “J’aime” proposé en multicanal Formulaire personnalisable Données de profil Facebook Marque blanche Statistiques avancées Audience Dashboard Participation récurrente Opt-in réseaux sociaux Connexion CRM Protection Anti-spam Suivi de conversion Multilingue

outes les fonctionnalités Enterprise Jeux illimités Pages Facebook illimité Durée illimité Privilèges en option :

* Création de votre design possible

Nos jeux concours peuvent être intégrés sur votre page Facebook jeux concours :

au titre d'une application en onglet de page, mais aussi sur votre site internet (Iframe ou Popup), ou encore sous la forme d'un lien à copier/coller vers votre jeu. Pour l'offre Pro Plus, il est possible, à votre demande, de créer un alias (exemple : http://mes-jeux.votre-domaine.com), afin que vos jeux concours aient un nom de domaine personnalisé.

Fonctionnalités communes aux 4 offres de nos jeux concours : Choix du type de jeux concours : Quizz, Tirages au sort, ou Instants Gagnants. Diffusion de votre jeu sur votre page Facebook : Ajouter d'un simple clic votre jeu concours sur un onglet de votre page facebook. Personnalisation du formulaire de participation. Nombre de questions illimitées. Gestion de la viralité : permettez aux participants de diffuser votre jeu à leurs amis. - Viralité Simple : un email est envoyé aux amis de vos participants pour les inviter à jouer. - Viralité Conditionnée : Viralité Simple + chaque ami qui clique sur le lien reçu, permet au participant parrain d'augmenter ses chances d'être tiré au sort. Exportation détaillée des réponses données par chaque participant. Intégration d'un Favicon. Personnalisation des emails de notification avec les participants aux jeux concours. Personnalisation du jeu : Importez vos éléments visuels ou utilisez votre propre feuille de style. Possibilité de personnalisation graphique par nos soins (en option) à partir de 169 € H.T. (nous consulter). Prestations juridiques : dépôt du règlement chez notre Huissier de Justice et tirage au sort en option (en cours de développement).

Bienvenue sur Jeu-concours.biz: LE guide référence des jeux concours depuis plus de 10 ans. Près de 100 nouveaux jeux concours avec les réponses chaque jour. En devenant membre (et c'est totalement gratuit!) vous aurez accès à un tas de fonctionnalités qui vous permettra d'optimiser vos chances de gagner et d'échanger avec la communauté

Referencement Naturel Google : Agence de referencement à Paris

Referencement Naturel Google : Ckom Paris. Agence de referencement à Paris

Referencement Naturel Google : Agence de referencement à Paris Définition du référencement naturel Google ? Le terme « référencement » (en anglais SEO pour Search Engine Optimization, traduisez Optimisation des moteurs de recherche) désigne l'ensemble des techniques permettant d'améliorer la visibilité d'un site web, à savoir : soumission (en anglais submission) consistant à faire connaître le site auprès des outils de recherche ; positionnement (en anglais ranking) consistant à positionner les pages d'un site en bonne position dans les pages de résultat pour certains mots-clés ; Toute la difficulté de l'exercice ne réside pas tant dans la promotion du site auprès des moteurs de recherche que dans la structuration du contenu et le maillage interne et externe pour être bien positionné dans les résultats sur des mots-clés préalablement choisis. En effet une majorité d'internautes utilise les moteurs de recherche afin de trouver de l'information et interroge à ce titre un moteur de recherche à l'aide de mots clés (en anglais keywords). Il est donc essentiel avant tout chose de se préoccuper du contenu que l'on propose afin de répondre au mieux aux attentes des internautes, et d'identifier les mots-clés susceptibles d'être saisis par ces derniers ! SERP Le terme SERP (Search Engine Result Pages) désigne les résultats de recherche tels qu'affichés après une requête. Il est essentiel de comprendre que d'un utilisateur à l'autre les résultats pour un même moteur de recherche peuvent varier, d'une part selon le paramétrage qu'a choisi l'utilisateur (langue, nombre de résultats par page) mais aussi selon le lieu (pays, région) d'où la requête est faite ou encore le terminal (mobile, tablette, ordinateur de bureau) ou bien parfois selon les requêtes effectuées préalablement par l'utilisateur et enfin car les moteurs de recherche font régulièrement de l'A/B testing pour tester différents affichages. A ce titre, il n'est pas rare qu'un site disparaisse des SERP sur une requête pendant 24h à 48h, puis refasse son apparition. Cela signifie donc qu'il faut attendre a minima 72h avant de s'inquiéter. Cela signifie donc que ce n'est pas parce que vous vous voyez en première position que vous l'êtes forcément. Pour obtenir un résultat le plus proche possible de ce que la majorité des utilisateurs voient, il est conseillé de désactiver l'historique des requêtes, voire de naviguer en utilisant la navigation privée de son navigateur. Les pages référencées en première position obtiennent évidemment plus de visites, puis viennent les pages en seconde position, etc. Il en va de même pour les pages référencées en première page par rapport aux pages référencées en seconde page. Ainsi, si une page se trouve en 11ème position (donc en seconde page), il est très intéressant d'essayer de l'optimiser afin de la faire passer en première page et obtenir un gain important de visiteurs uniques. Mots-clés Le référencement n'a de sens que vis-à-vis de mots-clés (en anglais keywords), c'est-à-dire les mots utilisés par les visiteurs pour faire des recherches. Le premier travail consiste donc à déterminer les mots-clés sur lesquels on souhaite positionner les pages de son site. Les mots-clés que l'on a en tête ne correspondent pas toujours aux mots-clés utilisés par les visiteurs, car ceux-ci ont tendance à utiliser des termes les plus courts possibles ou encore à faire des fautes d'orthographe. Il existe des outils permettant de comparer le volume de recherche d'un mot-clé par rapport à un autre et donnant des suggestions : http://www.google.com/trends/?hl=fr Enfin, il existe des sites permettant de connaître les mots-clés des sites concurrents : SEMRush.com SEO Black hat / White hat En matière de référencement naturel, on oppose généralement deux courants de pensée : Le SEO White hat (traduisez chapeau blanc), désignant les référenceurs respectant scrupuleusement les consignes des moteurs de recherche aux webmasters, dans l'espoir d'obtenir un référencement durable en jouant avec les règles du jeu ; Le SEO Black hat (traduisez chapeau noir), designant les référenceurs adoptant des techniques contraires aux consignes des moteurs de recherche, dans le but d'obtenir un gain rapide sur des pages à fort potentiel de monétisation, mais avec un fort risque de déclassement. Les SEO black hat jouent ainsi au chat et à la souris avec les moteurs de recherche, qui adaptent régulièrement leurs algorithmes pour identifier et déclasser les sites ne respectant pas les consignes. Des techniques telles que le cloaking ou le content spinning sont ainsi considérées comme dangereuses et non recommandées. Soumettre son site Avant de parler d'optimisation du référencement, la première étape consiste à faire en sorte que les principaux moteurs de recherche et en particulier Google (car il est le plus utilisé) identifient le site et viennent le parcourir régulièrement. Pour ce faire, il existe des formulaires en ligne permettant de soumettre son site web : Soumettre son site sur Google Soumettre son site sur Bing Soumettre son site sur Yahoo Référencement gratuit Le référencement n'est pas nécessairement payant car les moteurs de recherche indexent gratuitement le contenu des sites et il n'est pas possible de les payer afin de mieux positionner son site. Référencement payant En revanche il est possible d'une part d'acheter des mots-clés sur les moteurs de recherche, il s'agit alors d'emplacement publicitaires (appelés liens sponsorisés), situés autour des résultats de recherche dits naturels. On parle alors de SEM (Search Engine Marketing) par opposition au SEO (Search Engine Optimization). D'autre part, le référencement étant une notion vaste, demandant beaucoup d'expérience et avec de nombreuses difficultés cachées, il est conseillé pour les entreprises de faire appel à ses agences spécialisées en référencement qui sauront les conseiller et les accompagner et vous ne pouvez pas mieux tomber ! Optimiser le référencement L'élément de référence pour les moteurs de recherche est la page web, il faut donc penser, lors de la conception du site web, à structurer les pages en prenant en compte les conseils ci-dessus pour chacune des pages. En effet la plupart des webmasters pensent à indexer correctement la page d'accueil de leur site mais délaissent les autres pages, or ce sont généralement les autres pages qui contiennent le contenu le plus intéressant. Il est donc impératif de choisir un titre, une URL et des métas (etc.) adaptés pour chacune des pages du site. Il existe quelques techniques de conception de site permettant de donner plus d'efficacité au référencement des pages d'un site : un contenu original et attractif, un titre bien choisi, une URL adaptée, un corps de texte lisible par les moteurs, des balises META décrivant précisément le contenu de la page, des liens bien pensés, des attributs ALT pour décrire le contenu des images. Contenu de la page web Les moteurs de recherche cherchent avant tout à fournir un service de qualité à leurs utilisateurs en leur donnant les résultats les plus pertinents en fonction de leur recherche ainsi avant même de songer à améliorer le référencement il est indispensable de s'attacher à créer un contenu consistant et original. Un contenu original ne signifie pas un contenu qui n'est proposé par aucun autre site, cela serait une mission impossible. En revanche il est possible de traiter un sujet et de lui amener une plus-value en approfondissant certains points, en l'organisant d'une manière originale ou en mettant en relation différentes informations. Les réseaux sociaux sont à ce titre un excellent vecteur pour promouvoir le contenu et pour identifier l'intérêt que les lecteurs portent à votre contenu. D'autre part, toujours dans l'optique de fournir le meilleur contenu aux visiteurs, les moteurs de recherche accordent de l'importance à la mise à jour des informations. Le fait de mettre à jour les pages du site permet donc d'augmenter l'indice accordé par le moteur au site ou en tout cas la fréquence de passage du robot d'indexation. Titre de la page Le titre est l'élément de prédilection pour décrire en peu de mots le contenu de la page, c'est notamment le premier élément que le visiteur va lire dans la page de résultat du moteur de recherche, il est donc essentiel de lui accorder une importance particulière. Le titre d'une page web est décrit dans l'en-tête de la page web entre les balises <TITLE> et </TITLE>. Le titre doit décrire le plus précisément possible, en 6 ou 7 mots maximum, le contenu de la page web et sa longueur totale recommandée ne doit idéalement pas dépasser la soixantaine de caractères. Enfin, il doit idéalement être aussi unique que possible dans le site pour que la page ne soit pas considérée comme du contenu dupliqué. Le titre est d'autant plus important qu'il s'agit de l'information qui s'affichera dans les favoris de l'internaute, dans la barre de titre et les onglets du navigateur ainsi que dans l'historique. Etant donné que les utilisateurs européens lisent de gauche à droite, il est conseillé de mettre les mots portant le plus le sens de la page à gauche. Veillez notamment à ce que chaque page de votre site possède un titre unique, y compris des pages possédant une pagination. Dans ce dernier cas, vous pouvez par exemple faire en sorte que les pages au-delà de la page 1 fassent figurer le numéro de page dans le titre. URL de la page Certains moteurs de recherche accordent une importance capitale aux mots-clés présents dans l'URL, notamment les mots-clés présents dans le nom de domaine. Il est donc conseillé de mettre un nom de fichier adapté, contenant un ou deux mots-clés, pour chacun des fichiers du site plutôt que des noms du genre page1.html, page2.html, etc. Ckom Conseil utilise une technique appelée URL-Rewriting consistant à écrire des URL lisibles et contenant les mots-clés du titre de la page. Sur CCM le tiret est utilisé comme séparateur : https://www.ckomparis.com/e-commerce-paris/creation-e-commerce-paris.html Corps de la page Afin de valoriser au maximum le contenu de chaque page il est nécessaire que celui-ci soit transparent (par opposition aux contenus opaques tels que le flash), c'est-à-dire qu'il comporte un maximum de texte, indexable par les moteurs. Le contenu de la page doit être avant tout un contenu de qualité adressé aux visiteurs, mais il est possible de l'améliorer en veillant à ce que différents mots-clés soient présents. Les cadres (frames) sont fortement déconseillés car ils empêchent parfois l'indexation du site dans de bonnes conditions. Balises META Les META Tags sont des balises non affichées à insérer en début de document HTML afin de décrire finement le document. Etant donné l'usage abusif des métas constaté dans un nombre important de sites web, les moteurs utilisent de moins en moins ces informations lors de l'indexation des pages. La balise meta "keywords" a ainsi été officiellement abandonnée par Google META description La balise meta description permet d'ajouter une description décrivant la page, sans les afficher aux visiteurs (par exemple des termes au pluriel, voire avec des fautes d'orthographe volontaires). C'est généralement cette description (ou une partie de cette description) qui s'affichera dans les SERP. Il est conseillé d'utiliser le codage HTML pour les caractères accentués et de ne pas dépasser une vingtaine de mots clés. META robots La balise meta robots a une importance particulière car elle permet de décrire le comportement du robot vis-à-vis de la page, notamment indiquer si la page doit être indexée ou non et si le robot est autorisé à suivre les liens. Par défaut l'absence de balise robots indique que le robot peut indexer la page et suivre les liens qu'elle contient. La balise robots peut prendre les valeurs suivantes : index, follow : cette instruction revient à ne pas mettre de balise robots puisque c'est le comportement par défaut. noindex, follow : le robot ne doit pas indexer la page (toutefois le robot peut revenir régulièrement pour voir s'il existe de nouveaux liens) index, nofollow : le robot ne doit pas suivre les liens de la page (par contre le robot peut indexer la page) noindex, nofollow : le robot ne doit plus indexer la page, ni suivre les liens. Ceci se traduira par une baisse drastique de la fréquence de visite de la page par les robots. Voici donc un exemple de balise robots : <meta name="robots" content="noindex,nofollow"/> Notez également l'existence des valeur suivante, pouvant être cumulées avec les valeurs précédentes : noarchive : le robot ne doit pas proposer aux utilisateurs la version en cache (notamment pour le cache de Google). noodp : le robot ne doit pas proposer la description de DMOZ (Open Directory Project) par défaut Il est possible de cibler spécifiquement le robots d'exploration de Google (Googlebot) en remplaçant le nom robots par Googlebot (il est toutefois conseillé d'utiliser la balise standard afin de rester générique) : <meta name="googlebot" content="noindex,nofollow"/> Dans le cas où un grand nombre de pages ne doivent pas être indexées par les moteurs de recherche, il est préférable de les bloquer via le robots.txt car dans ce cas les robots d'exploration ne perdent pas de temps à crawler ces pages et peuvent ainsi concentrer toute leur énergie sur les pages utiles. Sur CommentCaMarche les questions du forum n'ayant pas obtenu de réponses sont exclues des moteurs de recherche, mais ceux-ci peuvent continuer à crawler les pages pour suivre les liens : <meta name="robots" content="noindex,follow"/> Au bout d'un mois, si la questions n'a toujours pas de réponse, la balise meta devient la suivante, afin que le moteur l'oublie : <meta name="robots" content="noindex,nofollow"/> Liens internes Afin de donner le maximum de visibilité à chacune de vos pages, il est conseillé d'établir des liens internes entre vos pages pour permettre aux crawlers de parcourir la totalité de votre arborescence. Ainsi il peut être intéressant de créer une page présentant l'architecture de votre site et contenant des pointeurs vers chacune de vos pages. Cela signifie par extension que la navigation du site (menu principal) doit être pensée pour donner efficacement accès aux pages ayant un fort potentiel en terme de SEO. NetLinking Le terme NetLinking désigne le fait d'obtenir des liens externes pointant vers son site web car cela augmente d'une part le trafic et la notoriété de son site, d'autre part car les moteurs de recherches prennent en compte le nombre et la qualité des liens pointant vers un site pour caractériser son niveau de pertinence (c'est le cas de Google avec son indice appelé PageRank). Liens Nofollow Les liens sont par défaut suivis par les moteurs de recherche (en l'absence de META robots nofollow ou d'un fichier robots.txt empêchant l'indexation de la page). Toutefois, il est possible d'indiquer aux moteurs de recherche de ne pas suivre certains liens en utilisant l'attribut nofollow. Ceci est notamment recommandé si : Le lien fait l'objet d'un accord commercial (liens payants) Le lien est ajouté par des utilisateurs non sûrs dans des espaces contributifs du site (commentaires, avis, forums, etc.). les liens postés par les utilisateurs anonymes ou n'ayant pas participé activement à la communauté (aide sur les forums) sont des liens nofollow. Les liens postés par les utilisateurs actifs et les contributeurs sont des liens normaux (dits « dofollow »). Attributs ALT des images Les images du site sont opaques pour les moteurs de recherche, c'est-à-dire qu'ils ne sont pas capables d'en indexer le contenu, il est donc conseillé de mettre un attribut ALT sur chacune des images, permettant d'en décrire le contenu. L'attribut ALT est également primordiale pour les non-voyants, navigant à l'aide de terminaux en braille. Voici un exemple d'attribut ALT : <img src="/images/commentcamarche.gif" width="140" height="40" border="0" alt="logo de CommentCaMarche"> Il est également conseillé de renseigner un attribut title permettant d'afficher une infobulle à l'utilisateur décrivant l'image. Améliorer le crawl Le référencement commence par le crawl (en français exploration) de votre site par les robots d'exploration des moteurs de recherche. Il s'agit d'agents parcourant les sites à la recherche de nouvelles pages à indexer ou bien de pages à mettre à jour. Un robot d'indexation agit en quelque sorte comme un visiteur virtuel : il suit les liens présents sur votre site afin d'explorer le maximum de pages. Ces robots sont identifiables dans les logs par l'en-tête HTTP User-Agent qu'ils envoient. Voici les user-agents des principaux moteurs de recherche : Googlebot, etc. Voici ci-dessous des exemples de chaînes de User-Agents pour les moteurs de recherche les plus populaires :Object Ainsi, il convient de faire en sorte de mailler intelligemment ses pages à l'aide de liens afin de permettre aux robots d'accéder au maximum de pages, le plus rapidement possible. Pour améliorer l'indexation de votre site, il existe plusieurs méthodes : Robots.txt Il est possible et souhaitable de bloquer les pages inutiles au référencement à l'aide d'un fichier robots.txt afin de permettre aux robots d'indexation de consacrer toute leur énergie aux pages utiles. Les pages en doublon (ayant par exemple des paramètres inutiles aux robots) ou les pages ayant peu d'intérêt pour les visiteurs depuis une recherche (résultats de recherche interne du site, etc.) doivent typiquement être bloquées ; Sur CkomParis les résultats du moteur de recherche interne sont explicitement exclues du référencement via le fichier robots.txt, afin de ne pas fournir aux utilisateurs arrivant par un moteur de recherche des résultats générés automatiquement, conformément aux consignes de Google. Vitesse de chargement des pages Il est important d'améliorer le temps de chargement des pages, en utilisant par exemple des mécanismes de cache car cela permet d'une part d'améliorer l'expérience utilisateur et donc la satisfaction des visiteurs et d'autre part car les moteurs de recherche prennent de plus en plus en compte ces types de signaux dans le positionnement des pages ; Sitemap Le fait de créer un fichier sitemap permet de donner accès au robots à l'ensemble de vos pages ou des dernières pages indexées. Réseaux sociaux De plus en plus de moteurs de recherche prennent en compte les signaux de partage sociaux dans leur algorithme. Google Panda prend notamment en compte ce critère pour déterminer si un site est de qualité ou non. Autrement dit, le fait de favoriser le partage social limite les risques d'impact par les algorithmes tels que Panda. Sur CkomParis.com, les pages contiennent des boutons de partage asynchrones afin de ne pas ralentir le chargement des pages, ainsi que les META OpenGraph og:image permettant d'indiquer aux réseaux sociaux quelle image afficher lorsqu'un utilisateur partage un lien. Référencement d'un site mobile L'idéal est d'avoir un site mobile conçu en responsive design car, dans ce cas, la page indexée pour les ordinateurs de bureau et terminaux mobile est la même, seul son affichage change selon le périphérique d'affichage. Si votre site web mobile est sur un domaine ou sous-domaine à part, comme c'est le cas pour Ckom conseil, il suffit de rediriger automatiquement les internautes vers le site mobile en faisant attention que chaque page redirigée pointe bien vers son équivalent sur le site mobile. Il faut également s'assurer que le crawler Googlebot-Mobile soit bien traité comme un terminal mobile ! Google a indiqué qu'à partir du 21 avril 2015, les pages "mobile-friendly" auront un boost SEO sur les pages non mobile friendly dans les résultats de recherche sur mobile. Ce boost s'applique page par page et est réévalué au fil de l'eau pour chaque page, selon qu'elle passe ou non le test. Pour approfondir: Référencement d'un site mobile Contenu dupliqué Dans la mesure du possible, il s'agit de créer des titres de pages uniques sur l'ensemble du site, car les moteurs de recherche tels que Google ont tendance à ignorer le contenu dupliqué (en anglais duplicate content), c'est-à-dire soit de nombreuses pages du site ayant le même titre ou bien des pages du site dont le principal contenu existe sur le site ou des sites tiers. Le contenu dupliqué est quelque chose de naturel, ne serait-ce que par le fait que nous sommes amené à faire des citations, à rapporter des propos de personnalités ou encore à faire mention à des textes officiels. Toutefois, une trop grande proportion de contenu dupliqué sur un site peut conduire à une pénalité algorithmique, il est donc conseillé de bloquer un tel contenu à l'aide d'un fichier robots.txt ou une balise META robots ayant pour valeur "noindex". Balise canonical Lorsque les moteurs de recherche détectent du contenu dupliqué, ils n'en conservent qu'une seule page, selon leurs propres algorithmes, ce qui peut parfois conduire à des erreurs. Ainsi, il est conseillé de faire figurer dans les pages possédant du contenu dupliqué une balise Canonical pointant vers la page à conserver. En voici la syntaxe : <link rel="canonical" href="/http://votresite/pagefinale"/> D'une manière générale, il est conseillé de faire figurer dans vos pages une balise canonical avec l'URL de la page en cours. Cela permet notamment de limiter la déperdition liée aux paramètres inutiles dans l'URL tel que  ! https://www.ckomparis.com/e-commerce-paris/creation-e-commerce-paris.htmlCela sert également pour les pages d'index car il arrive que Google indexe votre page d'accueil sous sa forme https://www.ckomparis.com Pénalités On distingue généralement deux types de pénalités : Les pénalités manuelles, c'est-à-dire résultant d'une action humaine, faisant suite à un non respect des consignes aux webmasters. Il peut s'agir de liens non naturels (liens achetés), de contenu artificiel, de redirections trompeuses, etc. Les pénalités pour achat de liens sont courantes et pénalisent le site ayant vendu des liens ainsi que ceux les ayant acheté. Ces pénalités ne peuvent être levées qu'après avoir corrigé le problème (ce qui suppose d'avoir identifié le problème) et effectué une demande de réexamen du site via le formulaire consacré. Le réexamen d'un site web peut prendre plusieurs semaines et ne conduit pas nécessairement à une récupération de position ou parfois partielle ; Les pénalités algorithmiques, c'est-à-dire ne résultant d'aucune action humaine, liée généralement à un ensemble de facteurs que seul le moteur de recherche connaît. C'est le cas par exemple de Google panda, l'algorithme de Google déclassant les sites dits de mauvaise qualité ou de Google Penguin, un algorithme ciblant les mauvaises pratiques SEO. Ces pénalités ne peuvent être levées qu'à près avoir éliminé les "signaux" conduisant à un déclassement, à l'itération suivante de l'algorithme. Algorithme Google L'algorithme de Google est l'ensemble des instructions permettant à Google de donner une page de résultats suite à une requête. PageRank A l'origine l'algorithme était uniquement basé sur l'étude des liens entre les pages web et reposait sur un indice affecté à chaque page et nommé PageRank (PR). Le principe est simple : plus une page a de liens entrants, plus son PageRank augmente. Plus une page a de PageRank, plus elle en distribue à ses liens sortants. Par extension, on parle du PageRank d'un site pour désigner le PageRank de sa page d'accueil, car c'est généralement la page qui a le plus grand PageRank parmi toutes les pages du site. Optimisations de l'algorithme Depuis le PageRank, l'algorithme prend en compte un grand nombre de signaux supplémentaires, parmi lesquels (liste non exhaustive) : la fraîcheur de l'information ; la mention de l'auteur ; le temps passé, le degré d'implication du lecteur ; les sources de traffic autres que les SEO etc. Google annonce procéder à environ 500 optimisations de l'algorithme par an, soit plus d'une modification par jour. De ce fait, les SERP peuvent varier de façon importante selon les modifications effectuées par les équipes de Google. Google Caffeine Google Caffeine est le nom donné à la nouvelle architecture déployée par Google en août 2009 (et régulièrement améliorée depuis), dont l'objectif est une prise en compte plus rapide des informations mises à jour, ce qui se traduit par un crawl amélioré et par conséquent des résultats plus frais dans les résultats de recherche. Google Panda Panda est le nom donné au filtre déployé courant 2011 par Google pour lutter contre les sites de mauvaises qualités. Le principe consiste à dégrader le positionnement des sites dont le contenu est jugé de qualité trop faible : Voir Google Panda Google Penguin Déployé en 2012, Google Penguin est une mise à jour de Google pénalisant les sites dont l'optimisation SEO est jugée excessive. C'est le cas par exemple des sites dont un trop grand nombre de liens proviennent de sites jugés comme "spammant". Il semblerait également qu'un abus de liens entre pages parlant de sujets disparates soit un facteur pouvant entraîner une pénalité via l'algorithme Google Penguin. Google a ainsi mis en place un formulaire permettant de désavouer des liens pouvant potentiellement porter préjudice au référencement d'un site. Une mise à jour majeure de l'algorithme a été déployée en mai 2013 et en octobre 2014 (voir l'historique des déploiements de Google Penguin). Google Quality Update - Phantom Le 3 mai 2015 Google a procédé à un changement d'algorithme majeur modifiant la façon dont il classifie la qualité des pages. Appelé dans un premier temps "Google Phantom" par les experts, Google a finalement annoncé son déploiement sous le nom "Google Quality Update". Sortir d'une pénalité algorithmique Dans un premier temps, il faut s'assurer que la baisse d'audience est bien liée à un changement d'algorithme. Pour cela, il faut déterminer si la baisse coïncide avec un déploiement connu de Panda ou Penguin. Si c'est le cas, il y a de grandes chances que cela soit lié. Il est à noté que le déploiement peut prendre plusieurs jours, voire plusieurs semaines, ce qui signifie que la baisse n'est pas nécessairement brutale. Afin de sortir d'une pénalite algorithmique, il est conseillé de faire une revue manuelle de ses principales pages de contenus et de vérifier point par point si la qualité est au rendez-vous et si le contenu est bien unique. En cas de qualité insuffisante, il sera nécessaire de modifier ce contenu pour l'améliorer ou bien de le déréférencer (ou le supprimer). Concernant Google Penguin, il faut regarder les liens pointant vers le site dans Google Webmaster Tools et s'assurer que les liens sont d'une part naturels, d'autre part de bonne qualité (dans des sites n'ayant pas l'air d'être du spam).

Stratégie digitale

Stratégie digitale

Ckom Paris, expert en stratégie digitale propose d'élaborer un site internet autour de trois notions :

l'utilisabilité, l'e-marketing et le concept. La méthode est généralement l'empathie définie via l'e-marketing : orienter votre site comme un argumentaire de vente de vos services selon ses besoins, deviner ses attentes et y répondre dans une stratégie de communication efficace.

Les 3 clés de votre stratégie digitale pour CkomParis.

Salon E-marketing Paris 2018 : l’évènement incontournable du marketing digital

Le salon e-marketing 2018 se tiendra les 10, 11 et 12 avril, porte de Versailles à Paris. Un rendez-vous incontournable pour se tenir informer de l’évolution des nouveaux outils marketing et échanger sur les diverses stratégies et solutions à mettre en place. Le salon s’adresse à tous les professionnels du marketing : directeurs et responsables marketing, commerciaux, communication et informatique. Et il promet cette année encore d’être riche en apprentissage avec, aux côtés d’exposants innovants, de nombreuses conférences plénières, des ateliers solutions mais aussi des workshops. Autant d’opportunités de découvrir les dernières tendances, d’échanger sur les nouveaux outils et de développer ses compétences techniques. Sans oublier de s’interroger sur la place de l’humain dans un marketing de plus en plus digital, thème central développé par le salon E-marketing Paris 2018 !