01/31/14

Réseaux sociaux d’entreprise : « le RSE 2.0 devra cohabiter avec la mentalité 1.0″ (Lecko)

computer-large-newJe  me suis rendu le 30 janvier 2014 à la soirée Lecko dédiée à leur dernier rapport sur l’état des réseaux sociaux d’entreprise et c’est peu dire que j’avais marqué cet événement d’une pierre blanche car j’ai même traversé Paris sur mes béquilles pour ne rien rater des derniers résultats de l’étude. Il est vrai que l’événement de l’an dernier avait été tellement réussi que je ne voulais rater celui-ci sous aucun prétexte (voir également notre article dans la communication digitale expliquée à mon boss, Kawa nov 2013). Les conclusions de cette année ont été présentées comme à l’habitude par Arnaud Rayrole, patron et fondateur de Lecko (photo ci-dessous) et Guillaume Guérin (responsable du benchmark éditeurs). Cette présentation a été suivie d’autres, dont beaucoup d’éditeurs (ils ont participé à l’étude). Ce qui ma frappé dans ce panel descriptif de l’évolution et de l’état de l’art du social en entreprise, c’est le changement du paysage. Accélération, augmentation du nombre d’éditeurs mais aussi une plus grande complexité dans un marché qui croit de façon toujours assez impressionnante mais qui n’est pas mature, pour reprendre les commentaires d’Arnaud Rayrole. La nouvelle classification choisie par Lecko renforce il est vrai cette complexité car les matrices se sont multipliées … Mais ceci est bien la répercussion de l’hyper spécialisation des logiciels malgré les promesses d’interoperabilité des éditeurs. Autre constatation, la bonne tenue des éditeurs locaux dont Jalios (@vincentbouthros), Jamespot (@garniera), Seemy (@edouaud) et enfin Talkspirit de Philippe Pinault (@ppinault) et aussi BlueKiwi récemment racheté par Atos. Cocorico ! Même si les questionnements sur l’internationalisation ont passionné la salle. Evernote Snapshot 20140130 182134

Réseaux Sociaux d’entreprise : les logiciels avancent, pas les mentalités

Mais ce qui est encore moins mature, c’est la mentalité des entreprises qui est qualifiée de 1.0 par Lecko et que le cabinet de conseil ne voit pas disparaître , bien  au contraire, au grand dam des évangélistes des RSE des premiers temps qui voyaient une révolution culturelle s’instaurer dans les entreprises sous les coups de boutoir de ces logiciels du nouveau genre.  Pour ceux qui en doutaient encore, malgré la lecture de notre dernier ouvrage (cf. Amonboss.com), le bon vieux monde des bisounours du web 2.0 est bel et bien mort. Place donc au travail « sérieux », à la liaison avec les processus, avec les SI et dans une logique d’urbanisme. Cela rappellera des souvenirs aux anciens. Et il y a du travail !

De l’espoir … Grâce aux acteurs de changement

Mais l’espoir n’est pas perdu, car les réponses à ces défis se trouvent dans les bonnes vieilles recettes de la conduite du changement … C’est ainsi en effet, sans surprise, que les communautés, souvent transverses et liées à des métiers, se développent vraiment avec réussite : grâce aux efforts et à l’initiative de courageux acteurs de changements décrits ici comme “porteurs de communautés”. C’est là que se trouve le point le plus important : les RH et les managers doivent apprendre à repérer, encourager et féliciter ces porteurs de changement, une injonction qui semble aisée mais n’est pas si évidente que cela sur le terrain. Les premières initiatives des RSE, souvent lancées en fanfare, avec la bénédiction du management, mais aussi parfois une vision un peu trop descendante, n’ont pas toujours permis de réaliser cette promesse, et l’essoufflement de ces premières initiatives est, selon Lecko et aussi selon Björn Negelmann de Enterprise 2.0 Summit, monnaie courante. L’enjeu du RSE de ces prochaines années sera humain, ce n’est pas une découverte pour les experts de la collaboration ; reste à l’entreprise 1.0 à le comprendre. Mes notes de la réunion Lecko Voici ci-dessous un extrait avec mes notes brutes issues de cette réunion cruciale, rendez-vous incontournable sur ce sujet en attendant le entreprise 2.0 summit dont je parlerai bientôt.

Les enseignements du benchmark

L’étude est passée par la construction d’abaques : ces abaques sont des moyens de comparer tous les événements type d’un réseau social et de les cartographier autour de deux axes : relationnel/conditionnel et ceci permet de tracer une courbe d’engagement des communautés. Sur la totalité des courbes superposées, Lecko a construit des abaques (des profils de score d’engagement et sur le nombre d’années d’évolution).

  • Premier enseignement : la courbe est caractérisée par 3 points. Un pic d’enthousiasme, un passage de désintérêt et un rebond (ou non). Beaucoup observent que des espaces sont souvent créés et 50% de ces espaces sont inactifs au bout de 5 mois. Pour ceux qui s’accrochent, comme la plateforme RSE mysimplymarket de Simply Market, enseigne du groupe Auchan, on observe cette courbe en 3 parties sur 4 ans. Ils ont accompagné la plateforme par des accompagnements des chefs de rayon en leur démontrant la valeur qui peut être créée et ceci a rendu possible la collaboration. Un chef de rayon a même créé un meuble qu’il a partagé et qui a été généralisé dans l’ensemble du magasin.

Evernote Snapshot 20140130 183036

  • Quelle est la chance de réussite ? C’est en cela que l’exploitation de ces données sociales peut donner des outils de pilotage pour les entreprises. L’indice d’engagement a été mesuré par Lecko et il a été observé que ce score avait progressé de 18% sur un an sur les populations actives sur les réseaux sociaux.

Evernote Snapshot 20140130 183227

  • La nouvelle valeur du RSE se concentre sur quelques communautés transverses très actives.
  • Une confirmation : l’outil ne permet pas le changement de comportement
  • L’entreprise doit intégrer cette courbe en 3 points et accompagner ses utilisateurs.

Les démarches de transformation On constate 3 principales lignes de propagation des usages. Ce sont les espaces transverses, les communautés de pratiques. Ensuite, on peut aligner la collaboration avec le processus. Il y a besoin de rassurer le management avant et c’est le deuxième axe. Enfin, le troisième axe c’est l’augmentation de la productivité individuelle (traiter la surinformation) et collective (travailler mieux avec tout le monde). Evernote Snapshot 20140130 183716 La matrice ci-dessus a déjà été montrée l’an dernier et je l’avais placée en tête de mes préoccupations. Elle est hélas toujours valable. Nous sommes encore dans une situation où les bénéfices arrivent dans un deuxième temps alors « qu’on a besoin d’embarquer les utilisateurs pour faire décoller les communautés à dit Arnaud Rayrole ». Avec ces constats, les priorités pour les entreprises sont les suivantes :

  1. C’est l’usage qui prime même si « le management ne comprend pas tout au 2.0″ et il faut développer les pratiques sociales dans l’entreprise. « Il faut se faire à l’inertie des comportements dans l’entreprise » a précisé Arnaud. Un RSE 2.0 donc mais sur un terreau 1.0
  2. Il faut ensuite faire évoluer les stratégies métiers car ils faut interfacer le RSE avec les référentiels de l’entreprise et pour cela il faut que l’entreprise soit convaincue de la validité et de l’utilité de la démarche.
  3. Tout dépend du porteur de communauté, celui « qui va tout donner et ne rien recevoir » a précisé Arnaud. Or c’est assez frustrant, il est désarmé, « à poil » pour faire bouger l’organisation. Ces porteurs d’initiative sont bien ceux qui vont convaincre leurs collègues qui vont le faire en dehors de la plateforme. Ils vont le faire en les convaincant, en donnant du sens, en convaincant les managers que le contexte métier est valide et qu’ils acceptent qu’ils y ait un droit à l’erreur à ces primo adoptants. Cette démarche s’appelle micro social learning chez lecko. Les bénéfices viennent dans un second temps donc le porteur de communauté va vendre un résultat et il va le promouvoir et obtenir un accord des collègues qu’il va fédérer. Une fois que l’on a été rassuré on voit les « petites satisfactions des uns et des autres » et si ces utilisateurs relaient leur satisfaction ils vont pouvoir diffuser l’envie de participer. Enfin, c’est l’animation du débat qui va permettre de  progresser.

Ces porteurs d’initiatives sont pour certains de vrais leaders et même des enchanteurs qui sont capables de faire découvrir de nouvelles perspectives. Ces acteurs dé changement sont des pivots qui doivent être repérés et valorisés et ne pas se contenter de nommer des Community managers. Etude des solutions du marché Evernote Snapshot 20140130 185101

Guillaume Guérin, responsable des analyses de solutions et du marché

Critère 1, être innovant et critère 2 être présent sur le marché français. L’étude est passée de 24 à 29 éditeurs cette année et l’écosystème français est très bon. L’innovation cette année est que tout le contenu de ce benchmark sera mis en ligne le 3/02 sur lecko.fr.

  • Les besoins des entreprises restent assez spécifiques malgré le langage des éditeurs assez banalisé. Les histoires veulent garder leurs pratiques internes et les éditeurs eux, bougent à toute vitesse, avec des roadmaps qui vont de la Semaine à plusieurs mois. Souvent on intervient dans des contextes où on a besoin de légitimer les choix vis à vis des écosystèmes et pour cela on a besoin d’éléments factuels commec eux fournis par la méthode DOTU de Lecko utilisée pour ce benchmark.

Continue reading

07/16/13

Mieux que le big data … améliorer l’expérience client (interview Marketforce)

ideoshoppingcartLes clients mystère, ça n’a rien de nouveau ; cette technique marketing date même des années 40. Elle fut donc utilisée avant même que le terme « marketing » ait été inventé. Cependant, MarketForce, une entreprise américaine avec des bureaux à Londres, et plus récemment en France et en Espagne, a commencé à révolutionner la façon dont les enquêtes clients mystère étaient réalisées, grâce au recours au Crowdsourcing et à l’utilisation intensive du marketing digital.

Marketforce met à disposition de ses clients un logiciel dans un modèle SaaS, sur lequel ceux-ci peuvent ordonner et consulter leurs données marketing en temps réel. Ceci, en soi, est dans le ton de ce qui se voit un peu partout avec les logiciels qui se développent ici et là dans le big data, et n’a rien d’extrêmement innovant. Mais il y a un domaine dans lequel Marketforce est certainement allé plus loin que les autres entreprises qui ont surfé sur la vague big data, c’est la manière dont ils collectent les données elles-mêmes. En effet, une grande partie de la qualité du résultat qui sort des instruments de big data revient finalement à la façon dont l’information est collectée originellement. Comme le dit le vieux proverbe des informaticiens : « garbage in, garbage out ».

Il faut noter par ailleurs, qu’il y a quelque chose d’un peu naïf dans cette folie big data du moment, qui tend à faire croire qu’un logiciel seul pourrait résoudre comme par miracle les problèmes marketing des entreprises, avec au premier chef, la gestion de la relation clients, juste en pressant un bouton. Avant toute chose, la qualité des données et un objectif clair sont requis. C’est définitivement dans cette voie que Marketforce a réalisé l’intégration d’une chaîne complète depuis la collecte des données jusqu’à leur livraison. En fait, on pourrait dire que l’entreprise américaine es autant un cabinet de recherche marketing qu’une start-up du big data, et c’est cela qui fait qu’elle sort du lot, avec une stratégie qu’on pourrait presque qualifier de « Blue Ocean ».

Janet Eden Harris et  Simon Boydell qui ont répondu à nos questions à Paris

Mais avant tout, ils utilisent intensivement les techniques de marketing digital (marketing automation, marketing de l’affiliation, etc.) de façon à recruter de véritables clients consommateurs qui les aident dans la collecte des données au sein de leurs études.

image

Alors que l’entreprise américaine vient de s’établir en France et dans le reste de l’Europe, où le service client est traditionnellement mauvais pour le pas dire désastreux, marketforce fournit un cas d’école à propos des stations-service françaises (voir l’étude 2013 sur les stations-service) qui montre le niveau de satisfaction ds clients, pas aussi évident qu’on pourrait croire, même pour un service aussi basique. Comme ils le disent eux-mêmes dans l’interview, « un service acceptable, n’est pas suffisant » et on espère, que cette étude, et le service que fournit marketforce, sera d’un grand secours à nos entreprises européennes afin qu’elles changent la façon dont elles servent leurs clients, ce qui à son tour leur permettra de traverser la crise plus ou moins sans encombre.

Voyons donc plus en détail cette offre avec Simon Boydell et Janet Eden Harris de marketforce, que j’ai interviewés à Paris il y a quelques semaines*.

mysteryshopper copy

dessin par antimuseum.com

avec Janet Eden Harris, CMO & SVP Strategy at Market Force Information et Simon Boydell, Global Marketing Manager chez Market Force Information

Marketforce, qu’est-ce que c’est ?

Janet : notre solution permet aux grands distributeurs d’améliorer leur business, en se focalisant sur la satisfaction de leurs clients et l’expérience qui leur offrent en magasin.

Simon : notre cible sont les distributeurs, les fournisseurs de services de loisirs et hôtels cafés restaurants, en bref tout type de business qui a un contact avec des consommateurs au travers de tous les canaux de communication. Il n’y a pas que l’expérience en magasin qui est concernée, nous traitons aussi de la relation client en ligne, au travers des call Centers, nous pouvons collecter des données relatives à l’expérience client sur tous les canaux.

Un modèle SaaS : la plate-forme knowledge force

Simon : notre plate-forme de connaissance client Knowledge force est le point d’accès central pour tous nos clients. Une fois identifié, chaque client obtient un accès sur-mesure et individuel au site de façon à consulter ses  résultats en temps réel de telle façon qu’il peut savoir comment les clients perçoivent l’offre du commerçant. Cela ressemble un peu à un modèle SaaS, mais c’est aussi assez différent des autres systèmes de CRM qu’on trouve sur le marché. Toutes les informations sont produites et mises à disposition sur les différents terminaux ; vous pouvez ainsi vous identifier et voir vos tableaux de bord; pas seulement un ensemble de tableaux de bord prédéfinis, mais aussi des instruments personnalisés que vous pouvez créer vous-même et produire sur la plate-forme, de façon à recouper les informations et les analyser à votre guise.

La collecte de données : depuis les clients mystère jusqu’aux médias sociaux

Simon : nous avons 600 000 véritables consommateurs en ce moment, qui sont donc capables de réaliser des visites mystère pour nous et nous renseigner sur leur expérience client, et nous pouvons coupler ça avec des études de satisfaction sur tous les professionnels que nous mesurons. Toutes ces informations viennent nourrir la plate-forme et nos clients peuvent voir directement les résultats sur l’écran, en temps réel, de façon à ce qu’ils gardent puissent mesurer le pouls de la satisfaction de leurs consommateurs en permanence.

Janet : nous pouvons aussi récupérer les données des médias sociaux et les recouper avec les données qui viennent d’autres sources, d’autres fournisseurs de données et même des données financières propres à nos clients que nous pouvons croiser et rassembler.

Assurer la validité des données

Janet : la façon dont nous procédons tient beaucoup à la localisation des  points de vente de façon que, si je suis le gérant d’un de ces points de vente, je peux en consulter les données de satisfaction client et croiser ces données avec d’autre données en provenance des visiteurs mystère et aussi les commentaires dans les médias sociaux. Ainsi, je peux prendre des décisions, car je peux comprendre ce qui va bien mais aussi ce qui va moins bien et que j’ai besoin d’améliorer.

Recruter de véritables consommateurs

Simon : ce n’est pas toujours facile, mais la façon dont on s’en sort tient beaucoup à l’optimisation de notre site Web en termes de référencement naturel dans les moteurs de recherche ; ensuite, nous avons un certain nombre de projets avec beaucoup d’autres sites Web qui permettent d’impliquer beaucoup de consommateurs qui cherchent à vivre une expérience client différente et également recevoir une rétribution alors qu’ils continuent à consommer dans les endroits qu’ils privilégient.

Cette rétribution correspond à un très faible montant, cela permet à ses consommateurs de sortir gratuitement, et de se rembourser, par exemple, un repas au restaurant.

Le Royaume-Uni, la France et l’Espagne

Simon : nous sommes au Royaume-Uni depuis 2003 et nous avons ouvert un bureau à Paris, nous en avons également un à Madrid. La décision de s’installer ici ou là dépend beaucoup des opportunités de business. Nous pensons que nous devons venir soutenir les entreprises en France de façon à ce qu’elles comprennent mieux leurs clients car dans le climat économique d’aujourd’hui, la fidélité client est d’une importance capitale ; et nous pensons que les informations que nous vous pouvons fournir aux entreprises leur permettront d’améliorer cette fidélité, et d’améliorer aussi la façon dont ils travaillent afin de développer leurs ventes.

Le cas d’école sur les stations essence en France : « un service acceptable n’est pas suffisant ! » (Voir l’étude sur les stations essence en France en 2013)

Simon : nous avons récemment entrepris une étude sur un panel de façon à obtenir des retours sur l’expérience client dans les stations essence en France et nous partageons cette étude sur le Web en ce moment. Ceci permet de souligner que les consommateurs ont des stations préférées, mais pas seulement ;  il y a aussi des raisons qui font que ces consommateurs se rendent dans cette station plutôt que telle autre, et que ces décisions qui sont prises par ces consommateurs dans ces stations sont aussi autant de chances pour les commerçants de comprendre en quoi leur qualité de service est acceptable ou non. Ce que l’étude a démontré, c’est qu’ « une qualité de service acceptable n’est pas suffisante ! »

image

Expérience client en Europe ? Comme le disait mon vieux prof de maths… « Peut mieux faire ! » (Extrait de l’étude sur les stations essence)

Cette étude fut entreprise auprès de 1500 consommateurs dans toute la France, avec une répartition représentative en termes d’âge, de sexe et d’origine géographique ; toutefois, chaque étude est spécifique, notamment du secteur dans lequel elle s’opère.

retours d’expérience

Simon : l’impact que la satisfaction peut avoir sur les consommateurs et leur propension à recommander un commerçant est un point de vigilance pour les commerçants. Un score de 4/5 est très différent d’un score de 5/5.

L’expérience client

Le prix et la proximité vont toujours être importants, cela est compréhensible, mais il y a aussi le service que les clients reçoivent dans les stations ; l’amabilité du commerçant et l’efficacité de ce service ont toujours un impact très important sur les consommateurs ; quand les clients sont surpris agréablement par l’amabilité et l’efficacité du service, cela change profondément leur expérience client.

À propos de l’entreprise : une stratégie « blue ocean »

Notre ambition est d’aider les entreprises françaises à améliorer le service qu’ils offrent à leurs clients. Nous avons certainement des intentions de nous développer, car nous pensons que nous notre offre est très attractive pour nos cibles. En termes de concurrence, nous n’avons pas un seul concurrent direct, nous en avons plusieurs au travers des différentes disciplines et méthodologies que nous utilisons. Nous avons certainement pour intention de grossir et d’investir ici en France, et nous avons pour but de développer cette équipe rapidement car nous pensons qu’il y a possibilité de prolonger ici le succès que nous avons eu dans d’autres pays. Marketforce emploie aujourd’hui 450 personnes dans le monde, et 156 en Europe, sa croissance est rapide.

Janet : notre chiffre d’affaires est d’environ 60 millions de dollars en ce moment.

*Note : cette interview a survécu au vol de tout mon matériel de travail le 2 juillet 2013, y compris mon carnet avec toutes mes notes de l’interview. J’ai donc reconstitué cette interview de mémoire en réutilisant le podcast que j’avais enregistré pour l’occasion et fort heureusement sauvegardé.

06/5/13

études de marché : méthode du questionnaire en 12 points

question2-largeElaborer un questionnaire nécessite que l’on suive quelques règles, de façon à éviter les biais classiques qui sont générés par une insuffisance méthodologique.  J’ai déjà, dans un chapitre précédent, traité des 22 biais possibles dans un questionnaire, mais il manquait encore la check-list, un outil simple et facile d’accès qui va vous permettre de construire votre questionnaire. La voici donc, en 12 points, cette méthode éprouvée, que je remets à jour régulièrement depuis quelques décennies, et qui est toujours applicable.

Ce que je désire livrer ici est une simple liste de contrôle, un fil rouge véritablement utile pour la conduite d’une étude Marketing. La plupart du temps, ces principes simples -terre-à-terre – sont laissés de côté.

Etape 1: Objectifs

  • Décrivez les objectifs de votre enquête en quelques points.  Evitez d’accumuler les objectifs. 2 à 3 points principaux sont un maximum pour une bonne enquête.  Bien que cela puisse sembler un peu restrictif, il est très probable que vos interviewés ne soient pas capables d’en supporter beaucoup plus (avec l’exception des enquêtes très spécialisées du domaine « business-to-business », et encore …) ;
  • Omettre de décrire votre objectif vous fera perdre de vue le but premier de votre enquête et les conséquences sur votre questionnaire en termes de longueur, de justesse et d’ordre d’apparition des questions seront fâcheuses.

photo antimuseum.com

Etape 2: Population

  • Définir la population totale de votre enquête ;
  • Faites correspondre cette définition avec l’objectif établi lors de l’étape 1, c’est-à-dire, que celui-ci ne doit être ni trop large ni trop étroit ;
  • Un biais fréquent consiste à interviewer un échantillon non pertinent à l’intérieur d’une enquête et de le mélanger au reste, noyant ainsi les résultats et faisant perdre de la pertinence à votre étude. Il faut au contraire filtrer les personnes non-pertinentes dès le départ et éviter de les mélanger au reste de la population.

Etape 3: Pré-enquête

  • Attention, une pré-enquête n’est pas un pré-test !
  • Il ne faut jamais la négliger,  or il n’est pas rare que pour gagner du temps on passe allègrement cette étape. C’est une erreur, qui coûtera cher, soit car vous devrez refaire l’enquête, soit du fait de résultats seront peu lisibles ;
  • Mener la pré-enquête sur quelques individus concernés par votre étude, ceci vous permettra d’établir des hypothèses. Personnellement, j’aime bien démarrer une étude quanti par un quali sur 10-12 personnes (la courbe d’expérience est à 12) ce qui me permet de poser de bonnes hypothèses de travail que je vais ensuite quantifier. C’est un peu scolaire, mais tellement logique … ;
  • Eviter les préjugés (les vôtres ou ceux de vos clients) qui pourraient induire des conclusions hâtives avant même le début de l’enquête. Toute conclusion préliminaire est une hypothèse et toute hypothèse doit être vérifiée sur le terrain. Les surprises sont souvent nombreuses.

Etape 4: Hypothèses

  • Une fois identifiées, ces hypothèses vont vous servir de base pour votre étude ;
  • Formuler clairement les points (en fonction de l’étape 1), que vous désirez confirmer, clarifier, voire même infirmer,
  • Ne pas filtrer ces hypothèses selon vos préjugés personnels, c’est-à-dire, éviter les attitudes du genre « Je n’ai pas besoin de vérifier ce point car je pense que,… » à moins que vous ayez déjà en votre possession des faits sur le phénomène concerné.

Etape 5: Rédaction des Questions

  • Rédiger les Questions de façon …Compréhensible, non tendancieuse, non suggestives
  • N’impliquant pas des réflexions de défense de la part des interviewés
  • En évitant les circonlocutions et les répétitions qui risquent d’engendrer de la lassitude de la part de l’interviewé.

Etape 6: Type de Questionnaire

Il est certain que depuis au-moins 13 ans je ne fais plus grand-chose d’autre que des questionnaires en ligne, ce qui est un peu normal du fait de mes responsabilités durant cette période.  Il n’empêche que le questionnaire par enquêteur existe encore et a une utilité certaine lorsqu’il faut aller chercher le répondant sur un lieu précis (comme un salon par exemple) ce qui va de ce fait être très économique. Le questionnaire par téléphone est aussi en vogue, notamment en quali, comme cela a été le cas avec l’enquête en cours avec Ipsos sur les boss qui tweetent dans le cadre de la prochaine conf. Media Aces (en partenariat exclusif avec les Echos). Bref, si Internet a pris une place considérable, que ce soit en questionnaire en ligne sur site, ou en direct  (ex : sondages polltogo) ou via des access panels ciblés, d’autres formes de sondage existent qu’il ne faut pas négliger.

Rappelons aussi l’actualité du face  à face en qualitatif, nous y reviendrons plus tard. Le Fax peut quant à lui être abandonné, sauf exception exceptionnelle.

Etape 7 : adaptation du questionnaire au pré-test

Le pré-test c’est une étape IN DIS PEN SABLE ! Même en le mettant en gras et en capitales, j’en connais qui en profiteront pour passer au point suivant. Mon conseil d’ami est de commencer par se mettre soi-même dans les conditions de l’enquêté. Cela est un bon exercice d’empathie et permet de corriger 80% des erreurs évidentes de biais, de logique (branchements de questions) et de formulation. Ensuite, il faut trouver une dizaine de répondants autour de vous (moins si le questionnaire est très simple) et les mettre dans une situation d’enquête. La plupart du temps, les pré-testeurs sont ravis de se prêter à ce jeu-là alors il ne faut pas s’en priver.

Ma check-list  essentielle pour cette étape :

  • Adapter les questions en fonction du Pré-test ;
  • Modifier la place des questions en fonction du pré-test ;
  • Supprimer les questions inutiles ;
  • réintégrer les questions oubliées ;
  • Si des cartes (ou des images en lignes) doivent être montrées aux interviewés, s’assurer que leur contenu est cohérent à celui trouvé dans le questionnaire ;
  • Pré-tester sur des individus significatifs de la population, cela vous permettra aussi de critiquer le questionnaire sur le fond.

Etape 7: Echantillonnage

  • Déterminer l’échantillon représentatif ;
  • Donner une taille suffisante à l’échantillon (des méthodes de mesure des pourcentages d’erreur peuvent être utilisées) ;
  • Attention ! un questionnaire biaisé sur un échantillon large est moins intéressant qu’un questionnaire neutre appliqué sur 150 personnes. Le seul critère de la taille et de la représentativité de l’échantillon ne suffit pas ; mais c’est un point de passage obligé.

Etape 8: Qualité de l’administration

  • Administrer les questions de façon neutre (relations enquêteur/enquêté) .  C’est-à-dire en empêchant les enquêteurs / ou les formulations des phrases en auto-administré n’introduisent des biais
  • Cela implique que les enquêteurs soient formés ou qu’ils soient choisis dans un pool de « professionnels ».  Dans tous les cas, une séance de débriefing, claire, précise et exhaustive doit avoir lieu ;
  • Prévoir les modalités de réexpédition s’il s’agit d’un questionnaire auto-administré ; les outils en ligne permettent les relances des non répondants.

Etape 9: Non réponses

  • Tenir compte des non réponses (taux de réponses).  Ne pas les considérer comme non importantes.  Elles sont un bon indicateur de la qualité de votre questionnaire (en autres choses, notamment si vous avez promis un beau cadeau aux répondants !) ;
  • Il est des cas où les non réponses sont au contraire très importantes. Prenons un cas récent où j’invitais une population interne de 250 top managers dans une entreprise. Un peu moins de 200 réponses furent obtenues après 2 relances. En conséquence nous avons lancé une relance téléphonique avec un semi quanti afin de comprendre pourquoi nous n’avons pas eu assez de réponses : les non réponses sont à l’évidence le signe d’un manque d’intérêt porté au sujet de la conférence. Il faut donc creuser pour savoir pourquoi, ce qui est une indication plus précieuse que les simples avis de la minorité qui s’est exprimée.

Etape 10: Interprétation

  • Les chiffres ne veulent rien dire tant qu’on ne les a pas croisés, analysés, remis en cause et … critiqués ;
  • Il n’est pas rare de devoir pousser plus loin l’analyse en complétant son étude au fur et à mesure. Le meilleur dispositif étant l’étude en continu, notamment sur les sites Web. J’ai mené ce genre de benchmarks de sites, avec des instituts, on par moi-même, pendant de nombreuses années et à de nombreuses reprises. Il existe des limitations et des critiques importantes, mais il faut insister sur l’importance de ces benchmarks pour se confronter au terrain et s’améliorer.

Etape 11: Analyse

  • Analyser complètement les réponses (éviter l’analyse sommaire)  ;
  • Si le questionnaire le permet, et que l’échantillon est assez grand, livrez-vous à des analyses croisées, souvent riches d’enseignement (croisement entre les réponses à la question X et Y) ;
  • Les études mal faites multiplient les objectifs et les questions posées, en provoquant les réponses redondantes et donc biaisées. Les bonnes études restent courtes, leurs questions sont pesées méticuleusement et neutres, et la richesse du questionnaire vient de son analyse et notamment des analyses croisées. Remplir des feuilles de question peut éventuellement vous rassurer et rassurer votre client, mais c’est une mauvaise approche ;
  • Ne pas extrapoler sur la population entière de façon abusive.

Etape 12: Rapport

  • Commencer son rapport par la note de synthèse “résumé de direction” ;
  • Rédiger un rapport qui exploite de façon exhaustive les résultats, et placer cette analyse derrière le résumé de direction ;
  • Rédiger le rapport en évitant les conclusions tendancieuses, étayer ces conclusions par des chiffres et des analyses. Méfiez-vous notamment des jolies infographies qui permettent de manipuler les résultats ou faire passer des idées fausses ;
  • Minimiser les a priori, ne pas hésiter à poser des hypothèses à confirmer dans une étude ultérieure ;
  • Eviter les conclusions « politiquement correctes » qui font plaisir à tout le monde mais ne reflètent pas la réalité du produit/marché/des clients … ;
  • Mentionner les résultats bruts et les statistiques (les 2 sont utiles) ;

Un rappel utile : la qualité d’un questionnaire dépend d’abord de la qualité de sa formulation, mais aussi et surtout de tout un ensemble de facteurs humains, qui ne peuvent trouver de place dans une liste de contrôle. Il conviendra donc au marketeur soucieux de respect méthodologique, de rester vigilant sur la formulation orale et la tonalité associée aux questions dans le cas d’un face à face, et à la formulation écrite lorsqu’il s’agit d’un questionnaire auto-administré (cf. ma liste de biais possibles).

05/28/13

La distribution informatique forcée de se réinventer – baromètre regards croisés 2013 (Aressy)

france-largeJ’ai interviewé Laurent Ollivier, Directeur Général d’Aressy afin qu’il nous présente son baromètre 2013 de la distribution informatique française. Au-delà du caractère un peu anecdotique de l’instrument de mesure de l’évolution du secteur, c’est une nouvelle vision de l’informatique que nous offre Laurent dans cette analyse, sur fond paradoxal de traditionalisme dans une profession pourtant à la base de la transformation digitale du monde économique. Zoom sur un secteur en plein bouleversement, et cela ne fait que commencer…

J’ai donc interviewé Laurent Ollivier, le directeur général d’Aressy, afin qu’il nous explique l’état des lieux et l’évolution de ce secteur de la distribution informatique, probablement peu connu du grand public et de la majorité de nos lecteurs, mais riche d’enseignements, à la fois sur le marché, la situation économique, et l’évolution de la distribution en général.

Un monde varié et un circuit long

Le monde de la distribution informatique est varié et regroupe différents types de matériels (serveurs, clients, réseau, mobilité …) , mais aussi de logiciels et d’opérateurs, au sein d’un circuit long, que l’on peut représenter par le schéma ci-dessous :

image

Légende : l’informatique a beau être au centre de la révolution digitale, son circuit de distribution se rapproche de celui du secteur des appareils ménagers d’il y a 30 ans ! Un bon vieux circuit long avec prise de marges en cascades … pas idéal pour survivre à la crise [image Aressy]

Il s’agit d’une chaîne longue, avec prise de bénéfices en cascade, comme on a pu l’observer dans la distribution alimentaire il y a déjà très très longtemps, dans les années 60-70, puis dans la distribution des produits non alimentaires (électroménager par exemple) dans les années 80-90 ; et j’ai été tout surpris de me rendre compte que la distribution informatique en était toujours là. Les circuits longs sont consommateurs de marge, peu adaptés aux environnements en mouvement et à la consommation de masse, ils ont tendance à se regrouper au travers de circuits courts, qui court-circuitent les intermédiaires, soit au travers de centrales d’achat propriétaires (un des grands exemples et le GALEC chez Leclerc) ou les regroupements d’indépendants au travers de centrales d’achat transverse (dans les lettres ménagers, il y a eu d’abord le GITEC puis plus récemment Pro & Compagnie). Rien de tout cela dans l’informatique, qui reste un secteur traditionnel. Et ceci malgré la rupture apportée par Dell dans en 96-97, via la vente directe sur Internet, l’entreprise texane étant victime aujourd’hui d’un revers de fortune.

On y trouve un mélange de revendeurs internationaux comme econocom (aujourd’hui spécialisés dans la mobilité), et des revendeurs locaux bien implantés en région, mais avec un rayonnement moins large. Le principal réseau de revendeurs informatiques en France est le réseau est FRP2I, avec 151 adhérents ou associés, suivi de près par convergence.com et eurabis (source EDI-Mai 2013).

La distribution mise au défi du e-commerce, du cloud et du BYOD**

La distribution informatique reste donc un marché assez traditionnel qui vit de véritables mutations liées à sa valeur ajoutée, et est aussi challengée et par le modèle “cloud”, où les clients vont en ligne pour acheter leurs offres voire, les acheter directement auprès des constructeurs. “Les chiffres de vente de PC sont en baisse”, selon Laurent Ollivier, et les usages sont en train de changer.

Je ferais remarquer également que nous sommes probablement dans une année de transition, où le lancement de Windows 8, probablement pas réussi à la hauteur des espérances légitimes, a créé une position d’attentisme, chez les particuliers comme les entreprises, toujours traditionnellement un peu en retard par rapport au premier. Il existe donc une opportunité pour ce secteur d’évoluer vers le service à valeur ajoutée (conseil, sécurisation, support aux utilisateurs…)

**Bring Your Own Device (l’utilisateur apportant son propre matériel)

Quatre points ressortent du benchmark regard croisé 2013 de la société aressy :

  1. La continuité d’abord : on observe une régularité sur les notes, les constructeurs étant les mieux notés, les grossistes arrivant au milieu, les revendeurs étant en bas de l’échelle. La comparaison avec le secteur de l’électroménager d’il y a 30 ans, ne me paraît pas encore une fois déplacée, l’acteur en bas de la chaîne est celui qui est le plus challengé, parce qu’il est petit, qu’il a besoin de plus de marge que les autres, et que c’est lui qui en trouve le moins, parce qu’il est justement au bout de cette chaîne. Moralité, il tire le diable par la queue, ce qui n’est pas un élément de dynamisation, d’où probablement la mauvaise note ;
  2. La pression sur les “leads” : dans une période de crise, rechercher du client, donc des prospects est une obligation ; ce qui explique que les revendeurs sont en attente « d’opportunités commerciales de la part des marques, soit en actions marketing menées par les marques seules, soit conjointement avec le revendeur ». Ceci étant, comme toujours en matière de lead generation dans le domaine B2B, notamment quand la pression se fait forte, les conflits ressortent, et il y a « ambiguïté sur le mot lead », certain le voyant comme juste un moyen d’obtenir un suspect ou un contact, d’autres voulant aller jusqu’à la vente. Les premiers reprochant aux autres de ne pas ramener assez de contacts, et vice versa pour ceux qui pensent que les revendeurs n’arrivent pas à clore les ventes assez vite ou assez bien. Toute référence à un épisode vécu sur le terrain serait purement fortuite ;
  3. Les challenges : 64 % des marques organisent des challenges, mais les notes sont faibles. « Il s’agit souvent de mécaniques de récompense d’office des revendeurs les mieux placés sur le marché, ce qui ne laisse pas de chance aux petits » explique Laurent Ollivier. Encore le parallèle avec l’électroménager ! Les challenges menaient forcément à la récompense des grossistes, pourtant assez paresseux, car il étaient gros, mais cet effet de taille n’était pas le fait de leur performance. De plus, la pression sur les budgets fait baisser le nombre de lauréats, réduisant l’intérêt des challenges, et enfin, les dotations sont en baisse à cause de la crise et de la législation qui devient de plus en plus contraignante. Il ne faudra donc pas aller chercher du côté de ces challenges pour sortir de la crise, qui est probablement aussi structurelle que conjoncturelle ;
  4. Les programmes partenaires : ce sont à la fois des outils pour aider et des engagements à un résultat de vente, ce qui semble bien compris par tous les acteurs. Rien à signaler sur ce point.

Le contact humain reste la cheville ouvrière de la distribution informatique

C’est un comble ! Au moment où l’ensemble de l’économie est bouleversé par le digital et des modèles de plus en plus sophistiqués qui mélangent on line et offline, le monde de la distribution informatique, terriblement traditionnaliste, en reste au contact humain, réclamé par 97 % des revendeurs comme indispensable. Pourtant, 72 % des fabricants le proposent uniquement ; il va de soi que plus les marges sont faibles, plus ce genre d’accompagnement devient difficile. Encore une fois le parallèle avec le secteur d’électroménager est saisissant. Il y a 30 ans, les fabricants fournissaient et payaient les démonstrateurs en magasin afin de placer les produits en les rémunérant sur les ventes directement. Cette prestation a aujourd’hui complètement disparu.

« Il s’agit d’une approche à l’ancienne » précise Laurent Ollivier, « mais elle reste valable car les constructeurs fournissent des produits à forte valeur ajoutée et des solutions » il y a donc besoin de rassurer le revendeur, encore un parallèle avec l’électroménager, car le maillon faible en bas de la chaîne, sur un circuit long, est toujours celui qui réclame de l’aide. On notera également une petite faiblesse sur les produits de démonstration, réclamés par les revendeurs n’est pas souvent fournis, et là encore je retrouve une similitude avec le secteur de l’électroménager d’il y a 30 ans … sic transit gloria mundi.

Un marché très traditionnel en nécessité de refondation moderne

Laurent Ollivier en arrive à la même conclusion que moi : Le marché « est tellement difficile, il y a tellement peu de marge, qu’il faudrait se trouver un double modèle, en laissant le client acheter directement sur des e-shops, voire directement auprès de la marque [du constructeur] et se créer un modèle parallèle, de véritable valeur ajoutée, facturée au réel, et gagner sa vie là-dessus au lieu de pseudo vivre sur des petites marges liées au négoce ».

Laurent Ollivier vient de résumer la nécessaire transformation du métier de la distribution informatique, et de préciser : « l’avenir, c’est la valeur ajoutée, le conseil, la construction de l’infrastructure, dans l’intelligence qui n’est pas de la revente, mais de l’intégration et du conseil, sur les nouveaux matériels, les nouveaux logiciels et l’intégration et le support aux utilisateurs ».

L’informatique ne pourra pas échapper à la révolution digitale qu’elle a elle-même créée, ce secteur devra se réformer, et la crise en précipitera la transformation.

Lecture complémentaire :

05/16/13

22 erreurs à éviter dans la conception d’un questionnaire en ligne (2/2)

question2-large_thumb1

http://bitly.com/biaisquest.qrcodeSuite et fin de notre article en 2 parties sur le sujet des “biais de questionnement”. Voici les erreurs de conception 11 à  22 étapes, à éviter à tout prix lors de la conception de son questionnaire en ligne.

note : pour rassembler les 2 parties, cliquer sur le QR code, le scanner ou taper http://bit.ly/biaisquest

Biais N°11 : QCM avec recoupements

voici un exemple de recoupements mal formulés :

a. 1 heure et moins
b. 1-3 heures
c. 3 heures et plus

il vaut mieux remplacer cette échelle par :

a. moins d’1 heure
b. de 1 heure à 3 heures (inclus)
c. plus de 3 heures

Biais n° 16 : éviter les questions “cactus” – photo antimuseum.com 

Biais N°12 : L’ordre des questions est très important

Surtout si votre questionnaire contient des filtres. Des biais peuvent être induits par l’ordonnancement des questions. Ce que je vois notamment souvent, c’est une question qui demande un avis avant une autre qui demande si le répondant connaît le sujet. Pas évident de répondre sur quelque chose que vous ne connaissez pas, non ? Dans ce cas le répondant répondra n’importe quoi à la première question pour ne pas paraître idiot, et s’il ne veut pas paraître incohérent, il déclarera qu’il connaît le sujet lors de la deuxième question. Dans un cas, quand vous croiserez les réponses, vous vous retrouverez avec une incohérence, ou une réponse fausse.

Biais N°13 : Distinguer questions factuelles & d’opinions

Il ne pas mélanger les 2 sujets dans une même question. Ce sont des questions “zeugma” du style “mangez-vous du chocolat et est-ce que vous trouvez ça bon ?” … Alors je réponds quoi à votre question monsieur le sondeur ??? Pas simple.

Biais N°14 : Questions ouvertes & fermées

question-smallEn “quanti”, il faut privilégier les questions fermées au maximum. Les questions ouvertes sont plus difficiles à quantifier et nécessitent une opération de regroupement intermédiaire assez longue. En outre, en moyenne, 4 réponses sur 10 à une question ouverte sont considérées comme inappropriées (statistique non brevetée SGDG, mais basée sur l’expérience) … mais, car il y a un mais …

… mais il faut toujours laisser une place pour une zone de commentaires libres (ou plusieurs si nécessaire) afin de laisser le questionné s’exprimer. Ceci est indispensable dans toutes les formes de questionnaires auto-administrés. Ceci permet aussi de s’apercevoir de certaines incohérences dans la formulation de ses questions, lorsque le répondant a pataugé car il ne l’a pas comprise. Bien-sûr, il vaut mieux patauger au moment du prétest, mais là encore, la pratique montre que c’est souvent l’inverse qui est fait.

Attention, sur Internet, les internautes utilisent les questions ouvertes comme un forum. Ils se peut qu’ils attendent également des réponses rapides et personnalisées de votre part. Notamment quand ils expriment des mécontentements. Le bon marketeur consciencieux se mettra en rapport avec le service client ; bien-sûr, tout le monde fait ça, c’est bien connu.

Biais N°15 : Eviter les réponses imposées (=> case « sans opinion »)

Si un problème n’évoque rien pour l’interviewé, celui-ci sera tenté de répondre au hasard pour ne pas paraître idiot. Ne jamais oublier la case « ne sait pas » ou « sans opinion » qui donne à l’interviewé une porte de sortie honorable.

Cette case est souvent éludée par les apprentis sondeurs qui ont peur de montrer des réponses NSP à leurs commanditaires ; c’est une grosse bêtise, car il vaut mieux un vrai NSP qu’une fausse réponse à une mauvaise question. Là encore, personne ne fait jamais cela dans la réalité.. bien-entendu.

Biais N°16 : Eviter les mots impliquants

par exemple : « Avez-vous peur du bruit dans votre résidence »

devillish-iconCette question implique un sentiment fort et une réaction de la part de l’interviewé : exemple de réaction possible : « je ne veux pas que l’on voie que j’ai peur, alors je vais répondre … » ou l’inverse : “le monde est de plus en plus dangereux etc. etc.” comme au café du commerce, il est vrai que certains d’entre nous qui n’ont pas encore coupé le bouton de la TV sont particulièrement conditionnés.

Par ailleurs, le terme de bruit est trop vague pour désigner les nuisances sonores (terme plus édulcoré mais dont il faudra s’assurer de la compréhension dans le pré-test, voire qualifier, en différents types : discussions des voisin, bruits de la circulation, moteurs des avions …)

Il vaut mieux dans ce cas retourner la question :

par exemple : « Comment qualifieriez-vous l’impact des nuisances sonores sur votre vie dans la résidence xxx ? »

  1. impact très fort
  2. impact plutôt fort
  3. etc. maintenant vous connaissez les options (voir 1/2)

Biais N°17 : Préserver l’anonymat des réponses

C’est une obligation légale régie par la CNIL (en France), elle-même régie par une réglementation européenne de plus en plus contraignante (directive de 95 révisée en 2001, il y a sans doute eu du nouveau depuis, mais bon … il y a peut-être assez de réglementations comme cela, il serait peut-être mieux de les respecter).

Ne pas rassurer les interviewés sur ce point implique en outre que vous risquez d’induire des comportements de défense.

Biais N°18 : Proposer plusieurs modalités de réponses & « autres à préciser »

exclamation-smallPlus il y a de choix possibles, moins les réponses des interviewées seront biaisées, mais trop de choix tue le choix car il crée l’embarras. Il faut donc se limiter aux choix les plus importants en laissant les autres pour la case « autres à préciser ». Le prétest vous aidera à choisir les options les plus importantes. Une petite astuce que j’aime bien : dans Surveymonkey (par exemple), j’utilise l’option de lotterie pour présenter les choix dans un ordre aléatoire afin de minimiser les l’impact de l’emplacement des choix dans la liste.

La case « autres à préciser » est souvent omise dans les questionnaires mal conçus, et Dieu sait qu’il y en a ! Elle permet pourtant de se garantir des oublis qu’il n’est jamais possible d’écarter totalement dans un questionnaire, surtout lorsqu’on ne connaît pas toutes le réponses possibles (et vous ne les connaissez pas puisque vous questionnez les clients ! CQFD).

Biais N°19 : Les doubles négations

par exemple : « Ne pensez-vous pas qu’il est impossible que … »

à remplacer par « pensez-vous qu’il est possible que …”

… à défaut, vous risquez de générer incompréhension et biais négatifs.

Biais N°20 : Les filtres

Il est inutile de garder les répondants indésirables qui sont nombreux sur l’Internet, sauf si vous travaillez à partir d’un access panel et d’un fichier connu. Dans le cas d’un questionnaire ouvert, les répondants sont tout le monde et n’importe qui. Un des moyens de vous débarrasser des surfeurs arrivés sur votre questionnaire par hasard est de les filtrer dès le début. Vous pourrez ainsi les éliminer par un tri croisé assez facilement. Un branchement vous permettra de les évacuer élégamment en leur disant merci Sourire

Biais N°21 : Echelles inversées

par exemple : « de 1 à 5 (de + facile à + difficile) » et de « 1 à 5 (de – favorable à + favorable) » etc.

Il faut toujours utiliser le même ordre de progression à l’intérieur d’un même questionnaire. Et aussi toujours utiliser le même nombre de choix dans une échelle. Enfin,  il faut répéter le plus possible dans le tableau les significations de l’échelle afin de ne pas obliger l’interviewé à se reporter à une légende.

Cela paraît encore un enfoncement de portes ouvertes, mais regardez les questionnaires que vous recevez, et vous verrez que cette erreur est souvent commise, surtout celle qui consiste à noter dans un sens (du – vers le + de gauche à droite), puis dans un autre (idem mais de droite à gauche !).

Biais N°22 : Explications sur les questions complexes

network-smallUn questionnaire auto-administré livre l’interviewé à lui-même, c’est même son principe de base. Il est possible de reproduire sur l’écran le principe de la carte explicative utilisé dans les questionnaires en face à face ou postaux, grâce à l’introduction d’images dans les question. Or je remarque que les possibilités du html sont peu utilisées dans les questionnaires en ligne.

Biais N° 23 : éliminez les experts Marketing et en études de marché

Comme dans les DVD, sur Visionary Marketing vous avez toujours le droit à un bonus. Chaque fois que je suis interrogé, j’attends avec impatience cette question de filtre dès le départ : “êtes-vous un professionnel du marketing ?”

Et  force de constater que tous ne la posent pas. Ne pas éliminer les experts vous expose à encore plus de biais, de la part de professionnels qui passeront plus de temps à décoder vos questions qu’à y répondre en toute franchise, qui s’amuseront (c’est mon cas) à compter le nombre de biais par minute et qui … cerise sur le gâteau, seront éventuellement intéressés à grapiller des informations pour la concurrence …

A bon questionneur, salut !