Big data : pourquoi l’abondance des données n’a aucune importance #scmw2013

imageLa sélection du jour …

Est cet article fondamental de Chad Wellmon[1] dans The Hedgehog Review (Printemps 2012) qui traite de l’infobésité et dont je pense qu’il est une bonne introduction à mon discours de ce soir) la conférence Scoop.it! qui aura lieu à Paris, dans les locaux de Telecom Paristech à partir de 18:00. Le sujet en sera « La stratégie de contenus marketing Web », avec un focus particulier sur la curation, ce qui se comprend puisque la conférence est menée à l’initiative de Marc Rougier et de son équipe. J’ai déjà annoncé cette conférence la semaine dernière. Cet article sera mis à jour juste avant la conférence afin de permettre aux auditeurs – et aux internautes – de consulter ma présentation.

header_SCMW2013

J’interviendrai vers 19h30, sur le thème de : « veille, outils et astuces. Comment survivre à l’infobésité ? ». Le sujet central en est les quelques outils que j’utilise pour la veille, mais j’en ai profité pour élargir plus largement le sujet à une réflexion autour du contenu, la façon dont les utilisent dans les entreprises, et en conséquence, ce phénomène auquel nous sommes tous confrontés, qui est l’infobésité. L’infobésité, ou « information overload » en Anglais, c’est-à-dire « surcharge d’information », ne date pas d’aujourd’hui. En ces temps de « big data », où on se glorifie d’accumuler des milliards « d’informations » avec des termes de plus en plus emphatiques (mégaoctets, téraoctets, pétaoctets, exaoctets, zettaoctets et ainsi de suite… n’en jetez plus !) il est urgent de se reposer la question de savoir ce qu’est l’information, et surtout, de ce qu’elle n’est pas, à savoir de la donnée … donc des pétaoctets (ou zettaoctets ou trucmachinoctets).

image

note : illustrations antimuseum.com

Étrangement, en me penchant sur ce terme d’infobésité et en en cherchant l’historique, je suis aperçu que cette question n’était pas, loin s’en faut, une question contemporaine, mais qu’elle a toujours été posée, depuis le début de l’invention du livre, même manuscrit, car le livre est aussi, on l’oublie souvent, une invention technologique (a fortiori, lorsque nous nous sommes mis à les imprimer).

Cette question se repose en fait à chaque fois qu’une technologie arrive, et qu’elle contribue à multiplier les signes. Le terme de surcharge d’information a été popularisé par Alvin Toffler en 1970 dans son livre « future shock » mais il a déjà été mentionné par Betram Gross dans son ouvrage « le management des organisations  en 1964. Mais en fait, le problème de l’infobésité est antérieur à cette période moderne et intervient à chaque fois que notre capacité à produire de l’information surpasse notre potentiel à la décrypter et la digérer. D’où la nécessité de développer des tactiques de plus en plus sophistiquées pour filtrer, éliminer, scanner et choisir l’information en faisant bien attention à ne pas prendre le contenant pour le contenu…

Ni les pétabytes ni ses superlatifs n’ont, en l’espèce, aucune importance, car ils sont probablement redondants, inintéressants, dupliqués, parfois mêmes « gonflés » par des logiciels qu’on a oublié d’optimiser et qui génèrent des fichiers de plus en plus lourds mais pas plus signifiants que par le passé. En d’autres termes, ils ne sont pas le signe qu’il y a plus d’information que par le passé, mais simplement celui qu’on a généré plus de bruit (j’ai souvent, dans un passé récent, utilisé la métaphore du signal/bruit pour relativiser l’importance de la veille sur les médias sociaux par exemple).

Voici donc quelques extraits tirés du texte de Chad Wellmon, que je vous invite à lire en version intégrale sur Internet.

[…]

La tâche la plus complexe, et la plus pressante de notre ère digitale, en conséquence, consiste non pas à se demander ce qui vient après le yottaoctet, mais dans notre acclimatation culturelle croissante avec un monde de plus en plus digital. De façon à comprendre comment nos vies sont déjà profondément influencées par la technologie, nous avons besoin de considérer l’information non pas dans les termes abstraits des terraoctets et zettaoctets, mais d’une façon plus culturelle. Comment ces technologies que les humains ont façonnées afin d’interagir avec le monde, viennent-elles nous façonner également à leur tour ? Quel impact a sur nous l’interaction de ces technologies, fabriquées par nous-même, et les éléments irréductibles de nos vies ? La tâche d’analyse consiste essentiellement à identifier et à comprendre les formes d’agencement humain particulières à notre ère numérique, sans réduire la technologie à une extension mécanique des humains, à un simple outil. En raccourci, se demander si Google nous rend plus bête, comme certains critiques culturels l’ont fait remarquer, est une mauvaise question. Elle part de l’hypothèse de la distanciation entre les hommes et de la technologie qui n’est plus, si elle l’a jamais été, tenable.

2 récits opposés

L’histoire de cette influence mutuelle entre humains et technologie a été obscurcie récemment par la cristallisation de 2 récits concurrents quant à la façon dont nous vivons cette information. D’une part, il y a ceux qui prétendent que les efforts de numérisation de Google, la puissance du réseau social de Facebook, et l’ère des big data en général permettent de réaliser le rêve antique de l’universalité de toute connaissance. Le monde numérique deviendrait ainsi un « réseau sans frontières et unique de mondes interconnectés et d’idées », une sorte de connaissance sans distinctions ni différences. À la différence d’autres innovations technologiques plus anciennes, comme l’imprimerie, qui était limitée à une élite éduquée, l’Internet est un réseau de « pages Web, blogs, articles d’information et de tweets fortement inter reliés, visible de tous et de n’importe qui ». Notre ère de l’information est unique non seulement par son échelle, mais par son agencement ouvert et démocratique. L’information a été finalement libérée. Les technologies numériques, prétendent les plus optimistes d’entre nous, nous donneraient accès à une connaissance universelle qui nous rendrait plus intelligents et qui finalement nous libéreraient. Ces prétentions utopiques sont liées à des visions similaires à propos d’un futur trans-humaniste dans lequel la technologie nous supplanterait et nous permettrait de dépasser ce qui étaient autrefois les limites historiques de l’humanité : physiques, intellectuelles et psychologiques. Le rêve d’une humanité post-humaine en somme.

À l’opposé, des observateurs moins emphatiques interprètent la montée en puissance de la numérisation et des big data comme l’annonce d’une surcharge d’information. Nous souffririons d’un déluge de données. Beaucoup s’inquiètent que les hyperliens du Web nous envoient d’une page à une autre, que les blogs réduisent de longs articles en résumés d’1 ou 2 lignes, et que les tweets réduisent les pensées à 140 caractères, créant ainsi une culture de la distraction. Les technologies mêmes qui nous aident à gérer toute cette information minent notre capacité à lire en profondeur et avec attention. Le Web, selon certains, est un média fortement lacunaire qui favoriserait une forme moins intense et plus superficielle de lecture

[…]

Les inventions technologique, qu’il s’agisse de l’encyclopédie imprimée à l’heure où elle fut inventée ou de Wikipédia, ne sont pas des machines abstraites qui, indépendamment de nous, nous rendent bêtes ou intelligents. Comme nous l’avons vu avec les technologies de la lecture amenées par les lumières, la connaissance émerge de processus complexes de sélection, distinction et de jugement, du fait de l’incontournable interaction entre les humains et la technologie. Nous devrions résister ainsi à la fausse promesse représentée aujourd’hui par le champ de sélection situé en-dessous du logo de Google : soit vous accédez immédiatement et sans médiation à la connaissance pure, soit vous vous livrez à une vie de distraction et d’information superficielle. Cette alternative est un piège. La connaissance s’acquiert à force de travail ; elle est façonnée, créée et organisée par les humains et leurs technologies. Le moteur de recherche de Google et ses algorithmes sont uniquement le dernier avatar d’une longue histoire des technologies que les humains ont développées pour organiser, évaluer et interagir avec le monde qui les entoure.

clip_image006Poursuivre cette lecture sur le Web avec l’article en version intégrale : Pourquoi Google ne nous abêtit pas … ni ne nour rend plus intelligent par Chad Wellmon


[1] Chad Wellmon est professeur à l’Université de Virginie aux Etats-Unis. Il est l’auteur de « devenir humain : anthropologie romantique et personnalisation de la liberté » (2010)

Big data : pourquoi l’abondance des données n’a aucune importance #scmw2013 was last modified: mai 11th, 2015 by Yann Gourvennec

Captain Dash, futur super héros du Big Data

J’ai rencontré Gilles Babinet un soir d’avril pour évoquer avec lui sa nouvelle aventure : Captain Dash. Armé de ma tablette (sur laquelle j’avais préalablement chargé l’application idoine), j’ai découvert, démonstration à l’appui, qu’un Captain Dash pouvait en cacher un autre…

« L’institutionnel c’est bien, mais la start-up c’est génial ! »

Gilles Babinet, vous le connaissez déjà (voir la superbe transcription d’une de ses dernières présentations sur la révolution de la société par Internet, retranscrite par Michael Tartar). C’est qu’il est fort présent pour défendre et vendre le secteur digital français, non seulement en France, mais en Europe. Ses responsabilités, au sein du CNN, Conseil National du Numérique sont importantes, mais s’il a « beaucoup fait d’institutionnel » m’a-t-il confié, il a aussi enchaîné immédiatement pour me dire que « la start-up, c’est génial »…

big data : 2 ans et demi de développement

C’est ainsi que l’ex fondateur de Eyeka est reparti à l’aventure, et ce n’est pas un vain mot : « cela représente 2 ans et demi de développement » a-t-il dit. Et Captain Dash grossit vite : « déjà 30 personnes, et 30 ans de moyenne d’âge ! ». L’entrepreneur, un temps actif parmi les « pigeons », a remis le couvert : « j’ai mis de mon argent » a-t-il précisé, mais il n’est pas seul Bruno Walther (ex Ogilvy) est le co-fondateur de la start-up, et le fonds d’investissement isource les a soutenus.

[mon “univers” statistique avec Captain Dash]

Réinventer le tableau de bord

La mission de Captain Dash, c’est de devenir le super-héros du tableau de bord. Les connecteurs les plus habituels sont Twitter, Facebook et Google Analytics bien-sûr. Mais la version du grand public, n’est pas le but ultime ; les véritables cibles, ce sont les grands comptes, nous y reviendrons, en direct ou plus souvent au travers des agences. Captain Dash, c’est donc un moyen ludique et esthétique de visualiser les statistiques, et il est vrai je suis pris au jeu, notamment des fameuses « Battles », qui permettent instinctivement de comparer les résultats à l’intérieur des données statistiques.

[le mode battle]

à l’assaut des grands comptes

Tout cela est fort beau, mais ce n’est pas là que notre super héros frappe le plus fort ! C’est que celui-ci est déjà parti à l’assaut des grands comptes. « Notre métier, c’est la prestation de services » explique Gilles. « On va au-delà de la mesure de social media, avec la possibilité d’analyser finement les retombées de la publicité télévisée et en ligne ».

Big data : comment corréler les événements statistiques

Car le véritable sujet est ici, c’est le big data, le fameux Graal du marketing du XXIe siècle que nous ne cessons de documenter dans ces pages, et que nous n’avons pas fini de décrire, tant il s’agit d’une discipline qui se structure au fur et à mesure où elle s’invente.

« C’est avec des applis comme Captain Dash » poursuit Gilbert Babinet, « que l’on est capable de dire que le taux de clic (CTR = Click Through Rate) explose 6 à 7 fois juste après une publicité TV ». Ainsi, en liant les bases de données et les statistiques, le Big Data permet des corrélations directement actionnables. Conclusion : si vous voulez augmenter l’efficacité de vos publicités en ligne, concentrez vos efforts sur les périodes qui suivent les passages TV. Ceci n’est qu’un exemple de ce qui est possible Captain Dash bien-sûr.

Car derrière Captain Dash, il y a la grosse artillerie : Hadoop qui sert de base arrière (HDFS, ou Hadoop File System est un système de fichiers open source distribué, sous licence Apache, qui permet de traiter de gros volumes de données) et l’équipe du Captain « superpose les données en provenance des publicités en ligne, des comptes de régie, des flux Google etc. et tout ceci peut être synchronisé avec les données métiers ». Autre exemple : en fonction des prévisions météo, les marques grand-public sont capables d’aligner leurs prévisions de vente. Ainsi, les ventes de boissons, mais pas seulement, sont très sensibles aux variations climatiques. Avec Captain Dash, il est facile donc de faire des corrélations de ce genre.

 

Gilles_babinet2

Captain Dash ne vend pas en fonction des volumes, mais il fonctionne sous forme de licence. Si les clients principaux sont des agences, les grands comptes ne sont pas les derniers à s’intéresser à la nouvelle start-up de Gilles. On y trouvera les grandes marques de l’alimentaire suisse, des géants des cosmétiques français, que pour des raisons de confidentialité, nous ne pouvons nommer, mais que vous reconnaîtrez aisément.

Des rapports… Et les recommandations

Comme toujours sur ces outils de business intelligence, l’essentiel de la valeur se trouve dans le conseil. Celui-ci est fourni par les agences qui accompagnent ainsi les rapports de recommandations stratégiques pour leurs clients.

30 000 téléchargements…

L’application gratuite a déjà été téléchargée 30 000 fois ; « elle a obtenu l’excellente note de 4.7/5, avec un taux d’utilisation de 90 % » a précisé l’entrepreneur (proportion des utilisateurs ayant paramétré l’application). La fréquence d’utilisation sur IOS y est excellente, avec « 9 sessions en moyenne sur 10 jours ».

… Et des connecteurs à ajouter

LinkedIn, Viadeo, YouTube et Dailymotion seront ajoutés en cours d’année, ainsi que “ les réseaux sociaux étrangers comme Badoo, Sina Weibo, mais dans un 2e temps” a précisé Gilles.

L’application est disponible sur iPad et, c’est plus inhabituel, sur Windows 8 ; “on parle au ‘corporate’ et il y a un gros enjeu de sécurité” c’est donc pour cela que Microsoft a été choisi. De même, le capitaine a délaissé quelque temps son colant en nilon pour endosser le blazer bleu marine d’IBM dans le cadre de ce que Gilles a nommé “un gros partenariat stratégique”. “Amazon est l’ennemi de tous les clients FMCG**” a précisé notre entrepreneur, “les clients veulent installer leurs données sur leurs clouds”. Il es vrai que certains des clients sont des géants, comme SEB, avec ses 600 sites Web, cela génère des volumes de données conséquents. Les PME ne sont pas encore dans le radar de Captain Dash, qui a préféré amener sa dashmobile sur le terrain des grandes entreprises, mais une version sera un jour disponibles pour elles quand-même, sans pour autant que nous puissions donner de date. Les petits utilisateurs pourront néanmoins se satisfaire un temps de la version gratuite,sur IOS et Windows 8.

Aider les marketeurs à prendre de meilleures décisions, en France et … aux USA !

Un projet Captain Dash demande du paramétrage : 1 mois en moyenne pour un projet complexe, mais les projets simples peuvent se régler en à peine 1 semaine a indiqué Gilles. Une fois le paramétrage réalisé, il faut que les tuyaux se remplissent avant que les statistiques commencent à parler. L’intégration est payante, c’est là le vrai business model, puis le pricing s’établit par marque et par pays (1500€) sans limite de sièges, le client pouvant ainsi propager l’expérience utilisateur auprès de ses employés, sans restriction.

Comme l’explique la plaquette ci après [Profession de foi Captain Dash en PDF], en 2013, malgré la sophistication des outils mis à leur disposition, les marketeurs prennent encore des décisions sur de vagues intuitions, alors qu’ils sont noyés de données et n’en utilisent pas plus de 1%.

L’enjeu suivant pour la jeune pousse parisienne est d’attaquer les Etats-Unis, “on y est en mode “grass-roots” a indiqué Gilles, mais “dès qu’on peut on ouvre un bureau à New York” a-t-il indiqué.

Captain Dash est une initiative intéressante car non seulement elle donne vie au Big data dont tout le monde parle mais qui a du mal à se donner un visage, mais en plus elle le fait de manière ludique et esthétique, afin de mieux évangéliser sur un public encore réticent à passer du temps sur l’analyse de ses données. La prouesse de notre super-héros est de mettre l’ergonomie du tableau de bord au service de l’entreprise, l’enjeu va bien au-delà d’une simple application iPad grand-public, un Captain Dash peut en cacher un autre …

** Fast Moving Consumer Goods, produits grand-public de consommation courante

Captain Dash, futur super héros du Big Data was last modified: janvier 14th, 2016 by Yann Gourvennec

Big Data : 1% seulement des données servent au décisionnel et c’est parfaitement normal

 

eye-largeNON ! JE NE VOUS PARLERAI PAS de l’opération Carambar en vous donnant un point de vue différent comme tout le monde ! C’est un joli coup de pub et de RP, il n’y a rien à (en) dire, sinon un coup de chapeau pour cette manipulation (qui risque de coûter un peu cher à la marque et ou l’agence la prochaine fois car les journalistes n’aiment pas qu’on se moque d’eux). Aujourd’hui, nous allons parler, comme le businessman du Petit Prince, de “choses sérieuses”… Le BIG DATA et le CLOUD COMPUTING.


239854_1.pngLes anciens de l’informatique connaissent bien Information Builders, entreprise pionnière de l’informatique décisionnelle (38 ans d’existence, classée leader de son domaine par Gartner, voir ci-contre en cliquant), et de ce qui se nommait EIS (Executive Information Systems) et a évolué vers le BI (Business Intelligence). J’avais un peu perdu de vue l’entreprise depuis lors, mais à la faveur d’une conférence intitulée “autonomie d’une nouvelle prise de décision” qui s’est tenue le 27 mars 2013 sur les nouvelles tendances de l’informatique et leurs conséquences sur les entreprises en termes de décision. La table ronde accueillait également des intervenants d’EMC et de Inbox.
 On y a parlé beaucoup Big Data, Cloud Computing et décisionnel.

déplacement du domaine du décisionnel

Je ne suis pas un fan du terme “big data” qui tend à faire passer la quantité (big) pour de la qualité, et surtout de la “donnée” pour de “l’information”, ce qu’elle n’est pas bien-sûr. Revenons sur les fondamentaux…

La problématique du décisionnel a beaucoup changé depuis les années 1990. A l’époque, les données étaient rares, mais elles étaient propres (dans les 2 sens du terme). La préoccupation des patrons du Marketing – comme c’était le cas chez Unisys quand j’y travaillais – était de bien utiliser ces données internes, peu pléthoriques, mais déjà difficiles à analyser. L’emphase était alors sur la l’analyse pure et, surtout, la présentation formelle des données propres à la prise de décision, en temps réel dans les réunions de comités de direction. Ce champ a été occupé, au fil des années, par des acteurs comme Business Objects (plus tard racheté par SAP) et Information Builders, mais le décisionnel s’est semble-t-il déplacé sévèrement et a succombé à la mode des médias sociaux. Certes, mais le Big Data ne se limite pas à ça comme le montre ce visuel issu de l’étude IDC /EMC.

image

Si l’essentiel des données  viennent aujourd’hui des outils de surveillance (là on se doute des noms des principaux clients des outils du décisionnel, et on imagine leurs galons), il semblerait que le médical parte en flèche dans les années 2020, ce qui n’est peut-être pas étonnant vu le vieillissement des populations occidentales. Mais le fait notable est, selon cette prévision, le tassement (en proportion) des données issues des médias sociaux et surtout la quasi disparition des images et des vidéos utilisateurs. Même si je suis assez étonné par cette dernière trouvaille, je n’ai pas de mal imaginer que les données moins “futiles” sont plus à même de fournir de l’information décisionnelle. Il y a plus à tirer de l’analyse d’une cohorte de malades, que d’une horde de “likers” frénétiques.

Car beaucoup des discussions du panel (voir photo ci-dessous) ont tourné autour de l’analyse de tonalité, un “vieux” sujet de 2006-2007 qui est un peu en mode survie aujourd’hui et que j’ai toujours voulu prendre avec des pincettes. L’analyse des sentiments est effectivement le graal du décisionnel dans les médias sociaux et dans la communication en général, mais … car il y a un mais … Jon Husband, présent dans l’assemblée, l’a fait remarquer, ‘”l’analyse prédictive de la tonalité – sentiment analysis en Anglais – reste un défi car les logiciels sont peu capables d’analyser ces données molles du fait du manque de contexte”. Il faudra ajouter de l’intelligence humaine, c’était ma conclusion dès 2006, à la naissance de ces concepts et de ces logiciels : il s’agit d’un marché – à terme – de conseil et non simplement de mesure.

image

Le panel de la discussion lors de la conférence IB, Directeur Adjoint du pôle éditorial de Brainsonic. De droite à gauche : Eric Mokemat, Dir technique IB, Sébastien Schreiber de Brainsonic (animateur), Nicolas Kaddeche, Directeur Conseil, Inbox, Sébastien Verger, CTO EMC France

3 V ou 3 T ?

Le panel de la discussion a évoqué les 3 V  du Big Data : volume, vitesse, variété de données : selon les panelistes, ces 3 enjeux du Big Data, sont aussi ceux de tous les décisionnaires de l’entreprise, pas seulement les top executives. Le 4ème v est encore plus important, c’est celui de la véracité, celui va transformer la donnée en information. Mais où est le véritable problème marketing ?

Sans doute que la problématique de base est plus à chercher du côté du temps et de la maturité marketing (et non informatique) ? Seules 1% des données seraient analysées selon l’étude IDC / EMC. La donnée de base donc n’est pas la donnée ou l’infobésité, une préoccupation d’informaticien en somme, il n’y a que nous – et encore, je n’en fais pas partie – pour nous émerveiller des zettaoctets que nous générons. La plupart de ces inflations de données sont d’ailleurs fictifs et sont dus à l’infobésité des logiciels et des matériels : en revenant sur mes photos numériques des années 90, je me suis aperçu qu’elles faisaient 500 KO, et maintenant, un négatif numérique de photo d’art comme celle ci-dessous fait 25 MO! Certes, elle est plus belle, et me permet de faire de jolis agrandissements, mais ce n’est pas un accroissement d’information, mais un accroissement de données. Donc finalement, l’accroissement du nombre et du poids des photos sur Internet n’a pas changé la donne. La preuve … les photographes professionnels existent toujours, et vous pouvez toujours acheter un Nikon D600 ou même D800 pour essayer les suivre … vos fichiers de 25MO n’y suffiront pas.

image

[le négatif digital (.dng) pourtant un format compressé fait 25 MO !]

Le décisionnel dans les médias sociaux, et ses acteurs de niche

Le véritable défi, pour les médias sociaux, me semble se situer aussi autour du fait qu’il semblerait que l’analyse de la donnée à des fins de décision, notamment liées aux médias sociaux, aient échappé – du moins temporairement – aux acteurs majeurs du décisionnel. Ainsi, les incontournables du domaine sont la plupart du temps de petits acteurs, historiquement implantés sur les médias sociaux : certains orientés outils et spécialisés (Tweetreach, imbattable sur Twitter en événementiel, Socialbakers sur Facebook, …) ou spécialisés sur le domaine de l’influence (comme l’excellent e-cairn, une création française, même si elle est implantée dans la Silicon Valley) ou qui viennent du monde de l’édition logicielle Web SaaS ou du service (Digimind en France et Synthesio en France et au UK, Radian6 aux US, Linkfluence, un petit acteur talentueux en France, …). Le responsable digital et décisionnaire ne sait plus où donner de la tête, mais en même temps il est piégé car aucun de ces outils n’est capable de tout traiter correctement.

Les éditeurs n’ont pas fini de chercher ni de mettre au point leurs solutions, à la recherche d’une perfection à 360° dans un domaine où ce n’est finalement peut-être pas possible. J’ai pour ma part arrêté de la chercher et j’essaie de prendre des décisions sur ce que je vois, plutôt que d’essayer de tout mesurer. Voir ma présentation en Anglais au sujet du futur des études de marché.

Peu importe, le vrai problème de la Big Data est hors des médias sociaux, on le voit clairement dans l’étude IDC, et la problématique de temps et de capacité à traiter ces données pléthoriques n’est pas triviale, les 3 v sont peut-être à remplacer par les 3 T : le temps, le temps et le temps.

En fin de compte, ce qui permet de trier la donnée, c’est le filtrage et l’élimination volontaire et arbitraire de la donnée pléthorique : il n’y a rien d’étonnant donc à que seules 1% des données servent à la décision. C’est même presque heureux.

Voici mes notes in extenso de la réunion et du panel

1. LE BIG DATA

Stéphane Schreiber (Brainsonic) a introduit la présentation en donnant “un seul chiffre : seulement 62% des entreprises ont conscience de l’importance du big data et la plupart ne savent pas véritablement ce que c’est”.

image“Ils ne savent pas par quel bout prendre le sujet” selon M. Kaddeche de Inbox, or le retour d’expérience, c’est qu’il faut d’abord explorer et voir ensuite ce qu’on peut mettre en œuvre.

Autre étude IDC (Digital Universe) : C’est une étude EMC qui en est à sa sixième année qui définit la taille de l’univers digital. IDC revient chaque année sur les données de l’année précédente.

En 2005, la taille de l’univers numérique, 130 hexa octets (1 milliard de GO), la prévision pour 2012? c’est 2.8 zettaoctets et pour 2020, on arrive à 40 zettaoctets [je ne sais pas exactement combien ça fait, mais ça doit être beaucoup !]

  • ces données viennent majoritairement 1) du particulier : le particulier est à l’origine de 60%+ des données produites 2) du m2M  : 20-25% des données générées mais à 2020 cela sera 40% des données générées 3)
  • environ 200 milliards d’appareils connectés (7 milliards d’individus) à l’horizon 2020. image

M. Kaddeche de Inbox

  • 16% de ces données sont transmises dans le cloud et cela sera 30% ou plus à horizon 2020. “Finalement, quand on réfléchit, cela ne fait pas tant que ça !” dit M. Verger. “La peur de M. tout le monde, c’est de perdre la main sur ses données”.  L’un des enseignements de cette étude, c’est que le consommateur va avoir le choix.
  • Tout ceci est un enjeu majeur pour les entreprises : 1) les médias sociaux : on sait déjà prédire une épidémie, un succès de cinéma, d’un lancement de produit avec les médias sociaux” a dit M. Khaddeche (photo ci-dessus), et il y a un volet interactif de plus en plus important, et les médias sociaux deviennent un véhicule de communication de plus en plus important. Le client pose déjà ses questions de SAV, et certaines entreprises maîtrisent déjà cela très bien 2) les données de navigation

L’infobésité n’est donc pas près de disaparaître nous a confrmé M Mokemat de Information Builders. “Sur un plan technique, le premier porblème à régler sera celui du stockage, et le deuxième sera l’intégration de ces données”. En effet, beaucoup de ces données sont des données non structurées. Le critère qui va prendre de plus en plus d’importance aussi, c’est l’intégrité de ces informations, leur fiabilité (voir mon compte-rendu sur la présentation de Yseulis Costes en Décembre 2012 sur ce sujet).

Information Builders a pour premier métier l’intégration des données (j’ai souvenir en effet de présentations auxquelles j’ai assisté en 1995 sur le BI ou “Business Intelligence”). Ils avaient construit un middleware ‘ESQL’ qui permettait de se connecter à plein de sources de données hétérogènes. Le vrai enjeu pour la société informatique est maintenant de se brancher sur les automates qui seront les premiers fournisseurs de données. “Le challenge sera de croiser ces données avec les données de l’entreprise, qui sont elles des données maîtrisées et aussi anticiper les événements pour prendre de meilleures décisions”. Il y a une partie dédiée à la collecte, à l’analyse et enfin à la distribution et la présentation de ces données. De plus en plus, il faudra aussi être capable de faire du prédictif.

L’écueil de base est de tenter de résoudre le problème métier par la donnée, même si c’est ce qu’on imaginait au début du CRM” a dit M. Kaddeche. Si un client a besoin de voir un conseiller, il ne faut pas l’envoyer sur un achat en ligne” a-t-il dit

Lire la suite

Big Data : 1% seulement des données servent au décisionnel et c’est parfaitement normal was last modified: janvier 23rd, 2016 by Yann Gourvennec

Faut-il supprimer votre programme de fidélité ? Stonyfield saute le pas

dollarsLa Saint Valentin est à présent derrière nous … et si l’amour ne s’achète pas, certaines marques ont pu expérimenter que la fidélité des consommateur a un prix ! C’est le cas de Stony Field qui – aux Etats Unis – a récemment annoncé par email la fin de son programme de fidélité ‘My Stony Rewards’ à l’ensemble de ses abonnés.

Il semblerait en effet que ce programme de fidélité ait été victime de son succès avec à son actif 500 000 membres depuis sa création en 2009. Officiellement terminé depuis Avril 2012, le programme a été successivement prolongé à la demande des consommateurs, mais ne peut être maintenu plus longtemps.

Ce qui peut à première vue passer comme un ‘social suicide’ sonne plus comme de la franchise et de la transparence aux yeux des consommateurs comme en témoigne des blogs tels que ‘couponsdealsandmore.com’.

Par ailleurs, Stonyfield est résolu à capitaliser sur le ‘Data mining’ et le ‘Community management’ si l’on en croit l’article paru récemment dans Chiefmarketer ainsi que le compte twitter de la marque – @Stonyfield – qui le jour de la Saint Valentin annonçait un jeu facebook intitulé ‘Taste the Love’ :

stonyfield twitter

  • Un claim impactant : 30 ans de yaourts à gagner – Chaque mois – et ce jusqu’en décembre 2013 – 2 fans auront la possibilité de gagner un an de yaourt après bien évidemment avoir liké la page pour y participer
  • Des coupons de réduction en guise de consolation

Ce qu’il faut retenir ?

  • Il devient désormais nécessaire de concilier R.O.I et Community management
  • L’avenir des réseaux sociaux passe également par le point de vente et plus seulement par la discussion
  • Les programmes de fidélité sont bien souvent source de déception pour les consommateurs. Plutôt que de les maintenir sans apporter une réelle récompense aux consommateurs, il est préférable d’avoir le courage de les arrêter.

En résumé, nous entrons dans l’ère du Big Data : collecter des données, c’est bien … les utiliser et leur donner un sens c’est mieux car autrement elles se périment comme du yaourt !!!

Pour aller plus loin – le community management en temps réel par OREO sur le blog promoaffinity

Faut-il supprimer votre programme de fidélité ? Stonyfield saute le pas was last modified: mai 11th, 2015 by christelle

les pros du Web de ch’Nord seront tous aux Journées du contenu web à Lille les 21-22 mars 2013

Journées du contenu web - web analyticsJe relaie l’annonce de ce superbe événement organisé par Eric Delcroix auquel j’aurai le plaisir de participer … bon ! je retourne finir ma présentation … que je publierai en ligne sur Slideshare le 22/03/2013, jour de mon intervention (pour ceux que cela étonnerait que j’écrive en Ch’ti, je précise que, bien que Breton, j’ai vécu dans le Nord très longtemps et que je suis un heureux diplômé de Skema Lille)
Journées du contenu web – web analytics

Alors que la 1er journée des contenus web à Lille est consacrée à la création de contenu pour le web et la matinée de cette journée au référencement sous toutes ses formes, l’après-midi de la seconde journée est traditionnellement réservée au Web analytics. Nouveauté de cette année, Elle sera suivi d’une conférence de cloture par Yann Gourvennec, visionarymarketing. co-fondateur de Media Aces et auteur avec Hervé Kabla de Les médias sociaux expliqué à mon boss en début de soirée.

Bouton-inscription-2

Nous avons voulu gardé un fil conducteur entre les 2 journées, aussi, des rédacteurs web interviendront également ce 2e jour lors de certaines tables rondes ainsi que des référenceurs à l’image de ce qui se fera la veille avec la présence de référenceurs…

La journée du 22 mars débutera à partir de 9 h (les horaires  : 9 h – 12 h avec une pause vers 10 h 30 et de 13 h 30 – 16 h 30 avec une pause vers 15 h. N’oubliez pas également la conférence de cloture entre 18 h et 20 h.

Nicolas Malo a du déclarer forfait dans l’organisation cette année de son WACAMP comme il l’a expliqué dans son blog ! Cependant, Nicolas avait déjà travaillé sur l’organisation de sa partie et il sera présent lors de cette après-midi analytics 😉 Reconnaissons le, nous avons tiré profit de son travail !

Le programme des web analytics

  • Table ronde : l’avenir de l’analytics (13 h 30 – 15 h) Quel est l’avenir à terme de l’analytics ? Pour mesurer quoi ? Et certainement que la question « big data » sera posée ? est ce que les référenceurs vont s’approprier le métier ?
  • Atelier conférence de Nicolas Malo (15 h – 16 h 30… prévoir 17 h, Nicolas, co-auteur du livre Web Analytics est aussi bavard 😉
  • En parallèle, tout le long de l’après-midi, un enchainement de 6 à 8 mini conférences avec des cas pratiques, etc. complétera le programme.

Intervenants confirmés (la liste n’est pas exhaustive, nous la complétons au fil des jours)

  • Nicolas Malo
  • Aurélien Bouchard
  • Jean-Baptiste Gabellieri
  • Julien coquet
  • Sébastien Monnier

N’oubliez pas qu’il est impératif de s’inscrire par exemple depuis la page comment s’inscrire de ce site, car les places seront comptées comme chaque année !

En soirée, vous aurez le privilége et le plaisir de pouvoir écouter Yann Gourvennec, visionarymarketing. co-fondateur de Media Aces et auteur avec Hervé Kabla de Les médias sociaux expliqué à mon boss. Profitez de la page d’inscription pour vous inscrire à cette conférence en soirée.

les pros du Web de ch’Nord seront tous aux Journées du contenu web à Lille les 21-22 mars 2013 was last modified: mai 11th, 2015 by Yann Gourvennec