Data Visualisation : le YouTube de la donnée

La data visualisation est en vogue, grâce au phénomène relativement récent des Big Data. L’explosion exponentielle du volume de données et leur hétérogénéité en rendent le traitement difficile et l’on ne sait souvent pas quoi faire de toute cette masse de données. Si la data visualisation, qui s’efforce de synthétiser et de rendre explicite ces données est en pleine évolution, son origine est lointaine et remonte aux début du 19e siècle. En effet, la paternité de la data visualisation est généralement attribuée à Charles Joseph Minard. Ce polytechnicien passé par l’école nationale des ponts et chaussées est connu pour ses impressionnantes représentations graphiques. Il est d’ailleurs incroyable de voir à quel point celles-ci sont détaillées, précises, et exhaustives, tout en restant claires et explicites. Un travail de visionnaire que nous peinons aujourd’hui à égaliser avec nos ordinateurs ! Je vous invite à découvrir ce travail réalisé tout au long des années 1800.  

Ceci est une rediffusion d’un article de fin novembre 2015, qui nous paraît parfaitement adapté à ce deuxième et dernier jour du salon Big Data de Paris 2016. A ce sujet, notons que Visionary Marketing était présent sur le salon hier après midi avec nos confrères de e-marketing afin de réaliser un reportage Web qui sera diffusé le 16 mars en fin de matinée. Nous ne manquerons pas de vous tenir au courant, chers lectrices et lecteurs, des horaires précis de cet événement 100% digital dans lequel nous aurons bon nombre d’interviews à vous présenter. 

L'une des représentations graphiques les plus connues de Minard : les pertes des armés napoléoniennes pendant la campagne de Russie, corrélées avec la température.
L’une des représentations graphiques les plus connues de Minard : les pertes des armés napoléoniennes pendant la campagne de Russie, corrélées avec la température.

La donne va peut-être changer et chacun d’entre nous pourra se muer en Charles Joseph Minard grâce à des logiciels de data visualisation qui émergent ces dernières années. Ceux-ci ont chacun leurs avantages et leurs inconvénients : il existe des articles comparant ces différentes solutions ici et . J’ai ainsi pu interroger deux responsables d’un des leaders de la data visualisation : Johanne Desanges, responsable marketing, et Edouard Beaucourt, directeur régional, chez Tableau software. Ce témoignage de cet acteur majeur nous apprend notamment que les techniques de représentations graphiques et d’interrogations de la donnée sont en pleine évolution, mais aussi que cette discipline à l’origine réservée aux entreprises s’immisce petit à petit auprès du grand public : de la même manière que Youtube nous a permis à tous d’être des producteurs de film, les logiciels de data visualisation nous permettront peut-être d’être des data scientists en quelques clics.

Aujourd’hui, nous avons les données, mais nous ne savons pas vraiment les exploiter…

Johanne Desanges : Il est vrai qu’aujourd’hui, nous avons énormément de données. Nous sommes dans ce que l’on appelle un océan de données : tout est connecté, que ce soit nos ordinateurs, nos montres, nos téléphones. Il y a un grand nombre de personnes qui se retrouvent avec des données et qui ne savent pas quoi en faire. C’est là que Tableau software intervient. Lire la suite

Data Visualisation : le YouTube de la donnée was last modified: mars 8th, 2016 by Cédric Jeanblanc

Livre NOIR des Big Data ou comment rater son projet avec un POC

le livre noir des big data
en attendant le livre blanc, voici le livre noir !

Les Big Data sont très récents et ont  en peu de temps généré un fort enthousiasme dans les mondes de l’IT et du marketing. Les attentes sont démesurées et nous ne sommes qu’au début de l’exploitation de cette technologie : c’est donc naturellement que les entreprises se mettent à investir dans les Big Data. Mais il faut bien garder à l’esprit que les Big Data sont avant tout une énorme masse de données hétérogènes difficiles à assembler et à exploiter. C’est pourquoi, le passage entre l’idée et le projet est souvent périlleux, et le retour à la réalité peut être amer pour toute entreprise qui voit son projet Big Data s’enfoncer doucement dans le gouffre des désillusions. Comme dans tout projet, il y a des bonnes pratiques et des choses à ne pas faire : c’est ce que nous avons choisi de résumer en deux temps, dans un livre blanc et un livre noir des Big Data JEMS datafactory (transparence, JEMS Group est notre client). Ce format noir/blanc permet de souligner que d’un côté (lumineux), les Big Data sont une chance pour l’entreprise, à condition d’utiliser la bonne méthode, mais à l’inverse, elles peuvent se transformer en un véritable piège coûteux pour l’entreprise (côté sombre).

Livre Noir des Big Data : le mauvais réflexe des POC

Le POC est l’acronyme de Proof Of Concept, terme inventé par Bruce Carsten au milieu des années 80. On peut traduire ce terme en « preuve de faisabilité » : le but est donc de savoir, via une réalisation dans une simulation, si le projet va pouvoir être appliqué à plus grande échelle et en situation réelle. A première vue, cette approche est bonne : elle est d’ailleurs encore beaucoup utilisée en France. Mais en regardant de plus près, le POC est une approché viciée pour plusieurs raisons : elle nécessite une réplication parfaite des conditions réelles, elle est établie sur un périmètre limité, n’apporte aucune garantie de montée en charge… Faire un POC avant de lancer un projet est donc un mauvais réflexe. Dans le livre noir des Big Data, vous verrez en détail pourquoi le POC n’est pas une solution parfaite.

Retrouvez ci-dessous le livre noir des Big Data en version intégrale. Rendez-vous lundi prochain pour le livre blanc des Big Data, qui vous guidera au travers de la réussite d’un projet de Big Data, d’un facteur clé de succès à un autre.


Le livre noir des Big Data sur le slideshare de Visionary Marketing

 

Envie de conserver ou/et d’imprimer le Livre Noir des Big Data ? Cliquez sur le bouton de téléchargement ci-dessous

le livre noir des big data

En attendant le livre BLANC, ce qu’il faut retenir du Livre NOIR des Big Data

Les POC, vous l’aurez compris, ne jouent pas le beau rôle dans ce livre noir. Il est toutefois nécessaire de nuancer cette sombre vision sur les POC : ils trouvent par exemple encore une utilité dans la phase de R&D pour explorer de nouvelles possibilités. Mais dans le monde des Big Data, la marge entre expérimentation et exploitation est bien trop haute pour considérer le POC comme une étape indispensable dans toute réalisation de projet Big Data. Et pour remplacer le POC, rien de mieux que le projet pilote, que nous verrons la semaine prochaine dans le Livre Blanc des Big Data.

Pour la petite histoire…

Hadoop est un framework (structure logicielle) permettant de traiter des volumes de données importantes en un minimum de temps. Il est utilisé par des acteurs majeurs de l’Internet (Amazon, Facebook…), et représente désormais un des symboles des Big Data. Son logo, un petit éléphant, est inspiré du doudou du fils de 5 ans du créateur de Hadoop, Doug Cutting. Nous avons donc choisi ce logo en l’agençant à la façon d’un ying et d’un yangpour montrer les deux facettes du Big Data.

Livre NOIR des Big Data ou comment rater son projet avec un POC was last modified: mars 7th, 2016 by Cédric Jeanblanc

La marelle des Big Data : de la terre au ciel avec Sparklane

Si les Big Data étaient un jeu … ce serait une marelle

Marelle - Sparklane
image libre de droits – Pixia.com

Où l’on saute d’étape en étape, en partant de la terre et en arrivant au ciel. Tel est le thème fondateur du livre blanc que nous avons rédigé pour Sparklane, le nouveau nom de notre client (transparence) Zebaz. Joli nom au passage, qui nous rappelle notre ancienne résidence londonienne. Sous l’effet des Big Data, nous assistons à l’avènement d’un marketing tiré par les données, ou data-driven marketing. Cette mutation est en train de bouleverser les pratiques du marketing B2B. Pour décrire et dédramatiser cette transformation et ses grandes étapes, nous avons donc choisi de recourir à une analogie : le jeu de marelle des Big Data. Comme dans ce jeu, le data-driven marketing part d’une approche très terre-à-terre, concrète, pour s’élever progressivement vers une véritable transformation du marketing B2B (le ciel). L’entreprise y parvient au travers d’un processus en plusieurs étapes symbolisées par les cases de la marelle. Etes-vous prêt à embrasser cette transformation de vos pratiques marketing ? Alors munissez-vous d’une pierre, placez-vous devant la marelle, et jetez la pierre sur la première case… Je présenterai en avant première ce nouveau livre blanc le 18 février à 08:30 lors d’un petit déjeuner organisé par Sparklane, qui profitera de l’occasion pour expliquer ses projets et son changement de marque.

Feb-05-2016_07.53.24-CapturFiles

B2B Morning #12 by Sparklane

Dans le cadre de la sortie prochaine de son nouveau livre blanc « Le Marketing B2B réinventé par les Big Data », SPARKLANE (ex-Zebaz Smart Data) vous invite à participer au B2B Morning #12, un petit déjeuner conférence gratuit, le jeudi 18 février 2016, à 8h30, sur le thème :

« Les bonnes pratiques pour mettre le Big Data au service de votre Marketing B2B »

Ce petit-déjeuner sera animé par l’intervention de M. Yann GOURVENNEC, fondateur de l’agence Visionary Marketing.

Sa présentation sera l’occasion de prolonger les réflexions et les bonnes pratiques de ce livre blanc auquel il a participé. Elle sera suivie d’une séance de questions/réponses lors de laquelle vous pourrez échanger avec lui sur des questions pratiques et concrètes.
La session s’achèvera par une rapide démonstration de la solution de Marketing & Sales Intelligence SPARKLANE, présentée par M. Nicolas MILLET, Product Manager chez SPARKLANE.

Un exemplaire du livre blanc sera remis à chacun des participants à l’issue de l’événement. Rejoignez-nous donc le jeudi 18 février 2016 à 8h30 à l’Aéro-Club de France!

QUAND
Jeudi 18 février 2016 de 08:30 à 10:30 (Heure : France) – Ajouter au calendrier

LIEU

l’Aéro-Club de France – Salon des Membres. 6 Rue Galilée. Paris 75116 FR – Afficher la carte

événement Sparklane - s'inscrire

B2B Morning #12 by Sparklane Billets, jeu le 18 févr. 2016, 08:30 | Eventbrite

La marelle des Big Data : de la terre au ciel avec Sparklane was last modified: février 9th, 2016 by Yann Gourvennec

L’impact des Big Data sur la prise de décision

Comme tous les sujets à la mode, les Big Data suscitent un fort enthousiasme et des attentes parfois démesurées. Il est vrai que ce sujet est passionnant et ses possibilités vertigineuses, nous avons d’ailleurs publié sur ce blog de nombreux posts à ce sujet (ici sur le web to store, là sur la génération de lead avec les Big Data ou encore ici).  Mais les possibilités restent des possibilités, et si les données sont là, juste sous notre nez, il nous faut encore la volonté et la capacité de les déchiffrer, trier, et catégoriser pour en tirer de l’information et au final prendre une décision. Aujourd’hui, cette masse de données est bien souvent inexploitable : on estime en effet que seulement 1% des données sont utiles et disponibles pour l’analyse. Difficile dans ce cas de fonder sa stratégie sur ses donnéesSi le sujet vous intéresse et que vous souhaitez en savoir plus, rendez-vous sur le blog de notre client Zebaz (qui change de nom et s’appelle désormais Sparklane) infos pour lire notre article publié hier.

Une étude réalisée par The Economist pour le compte de Capgemini en 2011, intitulée “le facteur décisionnel : les Big Data et la prise de décision”, est arrivée à la conclusion que les données jouaient un rôle de plus en plus prégnant dans la prise de décision, mais que les paroles devançaient les actes. L’étude, qui portait sur 600 décideurs dans le monde, et de tous les secteurs, visait la mesure de l’usage des Big Data dans le circuit de décision de leurs entreprises.

Ce rapport démontrait aussi que ceux qui jouaient le jeu et qui joignaient l’acte au discours s’en tiraient mieux que les autres. Toutefois, 42% avouaient éprouver des difficultés dans l’interprétation des données non structurées, et 85% montraient du doigt non pas le volume, mais la capacité à analyser et agir sur la donnée.

Cette étude avait pour mérite de mettre l’accent sur un phénomène que beaucoup décrivent intuitivement, sans pouvoir toujours le justifier par des chiffres : la technologie permet la rupture et apporte un plus indéniable ; mais celle-ci n’est rien sans la maîtrise humaine, sans l’analyse, l’interprétation et la nécessaire intelligence émotive, souvent à la source des bonnes décisions.

5 ans plus tard, où en sommes-nous, avons-nous fait des progrès, et quels sont les points de vigilance quant à la prise de décisions sur la base des Big Data ?

De la qualité de la donnée, et de son utilité

A la base, une confusion s’entretient entre donnée, information, connaissance et savoir. Les théories de la connaissance existent pourtant depuis longtemps. Celle de Russell Ackoff est la plus répandue mais elle n’est ni la première, ni la dernière. Scott Carpenter*, dans un article en ligne, en a résumé les principaux avatars ici :

Figure 2: Scott Carpenter sur les hiérarchies de la connaissance *Scott A Carpenter est V.P. / Chief Science & Technology Officer at NuFORENSICS, Inc. il a publié ce papier dans le cadre de son travail de doctorant

Figure 2: Scott Carpenter sur les hiérarchies de la connaissance *Scott A Carpenter est V.P. / Chief Science & Technology Officer at NuFORENSICS, Inc. il a publié ce papier dans le cadre de son travail de doctorant

La donnée, placée comme élément brut, y est toujours placée en bas, quelle que soit la théorie concernée. La connaissance, et le stade ultime, la vision, n’étant que la résultante de ces données au prisme de l’individu (les règles transforment la donnée en information, les modèles en connaissance, les buts en sagesse, et les valeurs en vision).

>Lire la suite sur Zebaz infos

L’impact des Big Data sur la prise de décision was last modified: février 9th, 2016 by Cédric Jeanblanc

Le Big Data au service du Web to store

Le Web to store est un sujet souvent évoqué sur ce blog. Celui-ci se développe à un rythme effréné, grâce notamment à l’émergence des objets connectés et des big data. Le Big Data permet en effet de perfectionner une stratégie de Web to store en identifiant le client et en réutilisant ces informations à bon escient en magasin. J’ai rencontré récemment Vincent Heuschling d’Affini-Tech. Nous avons eu une discussion intéressante durant Vincent nous a parlé des Big Data, et expliqué leur utilisation dans le cadre de Web to store. Il nous a également présenté deux cas concrets menés par son entreprise.

Comment le Big Data aide-t-il à améliorer le web to store ?

Je vais prendre un exemple : un de nos clients nous a sollicité. Celui-ci avait une activité en magasin, et finançait des campagnes publicitaires sur le web. Pourtant, il ne connaissait pas l’impact de ses activités sur les ventes en magasin. Dans quelle mesure, cette activité sur le Web, très couteuse, peut-elle être rentabilisée ? Et comment l’optimiser ? Dans ce cas, nous parlons de « Data science » : c’est-à-dire trouver les meilleurs algorithmes de la donnée, pour saisir les corrélations. Nous avons donc regardé les catégories d’articles les plus appétantes, puis de créer des promotions sur le web pour générer par la suite des visites et des achats en magasin. Il est important de réussir à trouver une liaison entre des activités bien « trackées » (traffic web) et d’autres qui le sont moins facilement (traffic en magasin).

tunnel de conversion
Créer un tunnel de conversion en magasin est moins simple que sur le Web, mais il existe des outils permettant d’unifier les deux parcours, et ainsi mieux servir le client.

Pour créer ce tunnel de conversion, nous avions distribué des cartes de fidélité aux clients qui venaient en magasin. Ceci permettait d’avoir un suivi de l’individu dans sa visite sur le web, de savoir combien de temps après ceci il venait en magasin, et si ce client-là avait fait un achat qu’il avait vu sur le web. Ce système permet donc d’avoir une identification plus précise.

Pour les autres, c’était plutôt de la projection de cette identification sur des grandes masses de population. Dans ce cas, nous n’avons pas un individu, mais une zone géographique qui est la zone d’échelle d’indice d’un magasin. Par exemple : nous avons eu beaucoup de visites sur une catégorie d’article, et quelques jours plus tard, nous avons eu une augmentation de l’achat dans ces catégories d’articles. Il y a toujours dans ces sujets Big Data une certaine marge de manœuvre, mais également une incertitude qui reste malgré tout.

Nous parlons donc de corrélation et non pas de cause à effet ?

Pour les clients qui sont encarté, et qui ont eu des visites identifiées sur le Web et en magasin, puis un achat en magasin, nous parlons d’une vraie causalité. Un vrai impact de la visite et de la promotion sur le web d’un article a eu lieu.

Sur la grande masse effectivement, nous ne pouvons nous dire qu’il y a une probabilité que la projection du comportement de ces clients très fiables qui sont encartés soit valable sur le reste de la population.

Un grand volume de visite est-il donc nécessaire ?

Lire la suite

Le Big Data au service du Web to store was last modified: décembre 1st, 2015 by Yann Gourvennec