Livre NOIR des Big Data ou comment rater son projet avec un POC

le livre noir des big data
en attendant le livre blanc, voici le livre noir !

Les Big Data sont très récents et ont  en peu de temps généré un fort enthousiasme dans les mondes de l’IT et du marketing. Les attentes sont démesurées et nous ne sommes qu’au début de l’exploitation de cette technologie : c’est donc naturellement que les entreprises se mettent à investir dans les Big Data. Mais il faut bien garder à l’esprit que les Big Data sont avant tout une énorme masse de données hétérogènes difficiles à assembler et à exploiter. C’est pourquoi, le passage entre l’idée et le projet est souvent périlleux, et le retour à la réalité peut être amer pour toute entreprise qui voit son projet Big Data s’enfoncer doucement dans le gouffre des désillusions. Comme dans tout projet, il y a des bonnes pratiques et des choses à ne pas faire : c’est ce que nous avons choisi de résumer en deux temps, dans un livre blanc et un livre noir des Big Data JEMS datafactory (transparence, JEMS Group est notre client). Ce format noir/blanc permet de souligner que d’un côté (lumineux), les Big Data sont une chance pour l’entreprise, à condition d’utiliser la bonne méthode, mais à l’inverse, elles peuvent se transformer en un véritable piège coûteux pour l’entreprise (côté sombre).

Livre Noir des Big Data : le mauvais réflexe des POC

Le POC est l’acronyme de Proof Of Concept, terme inventé par Bruce Carsten au milieu des années 80. On peut traduire ce terme en « preuve de faisabilité » : le but est donc de savoir, via une réalisation dans une simulation, si le projet va pouvoir être appliqué à plus grande échelle et en situation réelle. A première vue, cette approche est bonne : elle est d’ailleurs encore beaucoup utilisée en France. Mais en regardant de plus près, le POC est une approché viciée pour plusieurs raisons : elle nécessite une réplication parfaite des conditions réelles, elle est établie sur un périmètre limité, n’apporte aucune garantie de montée en charge… Faire un POC avant de lancer un projet est donc un mauvais réflexe. Dans le livre noir des Big Data, vous verrez en détail pourquoi le POC n’est pas une solution parfaite.

Retrouvez ci-dessous le livre noir des Big Data en version intégrale. Rendez-vous lundi prochain pour le livre blanc des Big Data, qui vous guidera au travers de la réussite d’un projet de Big Data, d’un facteur clé de succès à un autre.


Le livre noir des Big Data sur le slideshare de Visionary Marketing

 

Envie de conserver ou/et d’imprimer le Livre Noir des Big Data ? Cliquez sur le bouton de téléchargement ci-dessous

le livre noir des big data

En attendant le livre BLANC, ce qu’il faut retenir du Livre NOIR des Big Data

Les POC, vous l’aurez compris, ne jouent pas le beau rôle dans ce livre noir. Il est toutefois nécessaire de nuancer cette sombre vision sur les POC : ils trouvent par exemple encore une utilité dans la phase de R&D pour explorer de nouvelles possibilités. Mais dans le monde des Big Data, la marge entre expérimentation et exploitation est bien trop haute pour considérer le POC comme une étape indispensable dans toute réalisation de projet Big Data. Et pour remplacer le POC, rien de mieux que le projet pilote, que nous verrons la semaine prochaine dans le Livre Blanc des Big Data.

Pour la petite histoire…

Hadoop est un framework (structure logicielle) permettant de traiter des volumes de données importantes en un minimum de temps. Il est utilisé par des acteurs majeurs de l’Internet (Amazon, Facebook…), et représente désormais un des symboles des Big Data. Son logo, un petit éléphant, est inspiré du doudou du fils de 5 ans du créateur de Hadoop, Doug Cutting. Nous avons donc choisi ce logo en l’agençant à la façon d’un ying et d’un yangpour montrer les deux facettes du Big Data.

Livre NOIR des Big Data ou comment rater son projet avec un POC was last modified: mars 7th, 2016 by Cédric Jeanblanc

Les 5 enjeux du content marketing (exclu @FlashTweet)

Le mercredi 2 mars s’est tenu un Webinaire organisé par Visionary Marketing, ayant pour sujet « les 5 enjeux du content marketing ». Il s’agit d’un petit résumé de cette session très enrichissante, de par les échanges avec les participants et de leur intérêt pour ce sujet (nous avons même dépassé de 45 minutes la durée du Webinaire en raison de nombreuses questions très intéressantes). Voici, pour les personnes n’ayant pas pu participer, une séance de rattrapage sur les 5 enjeux du content marketing, expliqué par Yann Gourvennec : 

Content marketing : comment sortir du lot ?

« Ces 5 enjeux ne sont pas issus d’enquêtes, d’études ou de statistiques, mais de mon expérience du terrain. L’effet de maturation du content marketing est assez net, et de moins en moins de clients me posent la question « pourquoi faire du content marketing ? » : leurs questions sont désormais davantage portées sur le « comment ».

1er enjeu : du content shock au content chance

Pour cibler correctement les attentes des participants au webinaire, j’ai réalisé un petit sondage dont les résultats ont conforté l’intuition que j’avais : la question qui angoisse le plus les clients est « comment sortir du lot? ».

Le blogueur américain Marc Schaeffer a appelé cela le « content shock ». Cela signifie que la capacité à créer du contenu sur internet est infinie. Mais celle des internautes à lire du contenu ne l’est pas : au bout d’un moment, il y a une saturation de contenus qui fait que l’on produit du contenu, mais le rapport coût/bénéfice disparaît, comme le montre ce schéma ci-dessous.

La production de contenu évoluant plus vite que le lectorat, il y a un point de saturation au-delà duquel le contenu n'est plus aussi rentable qu'auparavant. Schéma réalisé à partir de http://www.christopherspenn.com/2015/05/2015-kpcb-internet-trends-suggests-content-shock-is-here/
La production de contenu évoluant plus vite que le lectorat, il y a un point de saturation au-delà duquel le contenu n’est plus aussi rentable qu’auparavant. Schéma adapté de :   http://www.christopherspenn.com/2015/05/2015-kpcb-internet-trends-suggests-content-shock-is-here/

La question de la pléthore de contenu s’est posée il y a fort longtemps, dès l’arrivée de l’imprimerie. Les lettrés se sont émus que la culture devenant accessible au vulgum pecus allait se niveler par le bas et devenir quelque chose d’anti-culturel. En réalité, tous les contenus ne sont pas destinés à tout le monde : plus il y a une pléthore de contenus de bas niveau, plus il y a une chance de trouver un lectorat haut de gamme se retrouvant en manque de contenu qui lui correspond. C’est ce que j’appelle le content chance. Cela a été démontré plusieurs fois, notamment en B2B. Lire la suite

Les 5 enjeux du content marketing (exclu @FlashTweet) was last modified: avril 30th, 2016 by Cédric Jeanblanc

L’obsolescence programmée est-elle obsolète ?

L’obsolescence programmée est un concept un peu fourre-tout où se retrouvent côte à côte des notions diverses, telles la créativité, l’ingénierie, le design, et bien sûr l’éthique. L’absence de cadre légal clairement défini a longtemps encouragé nombre d’entreprises, parfois réunies en cartel (terme pouvant sembler réprobateur, mais utilisé par ces dernières), à dériver de la volonté de vendre davantage vers la mise en place de pratiques commerciales à l’éthique parfois douteuse. Car la frontière entre coup de génie commercial et escroquerie à grande échelle est parfois poreuse, comme nous allons le voir dans cet article. Mon objectif n’est pas de vous apporter mon avis sur une problématique vaste au nombre de facettes infini, mais de vous présenter un état des lieux de l’obsolescence programmée d’hier à aujourd’hui.

Obsolescence programmée : pourquoi nos ampoules ne durent-elles pas 100 ans ?

Livermore_Centennial_Light_Bulb
Installée à l’aube du 20e siècle, l’ampoule de Livermore brille encore et toujours. (droits : cc wikimedia)

Pour commencer, connaissez-vous l’ampoule de Livermore ? Cette ampoule éclairant l’entrée d’une caserne Californienne a la particularité de n’avoir jamais été éteinte depuis… 1901, soit près de 115 ans d’éclairage continu. Il est d’ailleurs possible de vérifier par vous même son éclat (il est vrai un peu faiblard désormais) sur son site officiel. L’ampoule est devenue une véritable célébrité dans la région et a même le droit à sa fête annuelle. La retransmission live a d’ailleurs coûté la vie à de multiples webcam qui n’ont pas su égaler sa longévité… Pourquoi une lampe du siècle passé a t-elle survécu si longtemps, quand nous, dans nos années 2000, devons changer nos ampoules pratiquement chaque année ? C’est là qu’intervient la notion d’obsolescence programmée.

Celle-ci est difficile à cerner car elle apparaît sous différentes formes, certaines jugées moins « éthiques » que d’autres, et certains cas seulement ont pu être prouvés. On peut néanmoins s’accorder sur la définition d’obsolescence donnée par le Larousse : « dépréciation d’un matériel ou d’un équipement avant son usure matérielle ». On peut donner à cette dépréciation diverses raisons. L’ADEME (auteur de ce rapport de 2012 sur l’obsolescence des équipements électriques et électroniques) a d’ailleurs séparé le terme d’obsolescence en deux :

  • L’obsolescence fonctionnelle : le produit ne répond plus aux nouveaux usages attendus, pour des raisons techniques (exemple incompatibilité avec de nouveaux équipements), règlementaires et/ou économiques ;
  • L’obsolescence d’évolution : le produit ne répond plus aux envies des utilisateurs qui souhaitent acquérir un nouveau modèle du fait d’une évolution de fonctionnalité ou de design.

L’obsolescence comme solution à la crise ?

Lire la suite

L’obsolescence programmée est-elle obsolète ? was last modified: février 11th, 2016 by Cédric Jeanblanc

L’impact des Big Data sur la prise de décision

Comme tous les sujets à la mode, les Big Data suscitent un fort enthousiasme et des attentes parfois démesurées. Il est vrai que ce sujet est passionnant et ses possibilités vertigineuses, nous avons d’ailleurs publié sur ce blog de nombreux posts à ce sujet (ici sur le web to store, là sur la génération de lead avec les Big Data ou encore ici).  Mais les possibilités restent des possibilités, et si les données sont là, juste sous notre nez, il nous faut encore la volonté et la capacité de les déchiffrer, trier, et catégoriser pour en tirer de l’information et au final prendre une décision. Aujourd’hui, cette masse de données est bien souvent inexploitable : on estime en effet que seulement 1% des données sont utiles et disponibles pour l’analyse. Difficile dans ce cas de fonder sa stratégie sur ses donnéesSi le sujet vous intéresse et que vous souhaitez en savoir plus, rendez-vous sur le blog de notre client Zebaz (qui change de nom et s’appelle désormais Sparklane) infos pour lire notre article publié hier.

Une étude réalisée par The Economist pour le compte de Capgemini en 2011, intitulée “le facteur décisionnel : les Big Data et la prise de décision”, est arrivée à la conclusion que les données jouaient un rôle de plus en plus prégnant dans la prise de décision, mais que les paroles devançaient les actes. L’étude, qui portait sur 600 décideurs dans le monde, et de tous les secteurs, visait la mesure de l’usage des Big Data dans le circuit de décision de leurs entreprises.

Ce rapport démontrait aussi que ceux qui jouaient le jeu et qui joignaient l’acte au discours s’en tiraient mieux que les autres. Toutefois, 42% avouaient éprouver des difficultés dans l’interprétation des données non structurées, et 85% montraient du doigt non pas le volume, mais la capacité à analyser et agir sur la donnée.

Cette étude avait pour mérite de mettre l’accent sur un phénomène que beaucoup décrivent intuitivement, sans pouvoir toujours le justifier par des chiffres : la technologie permet la rupture et apporte un plus indéniable ; mais celle-ci n’est rien sans la maîtrise humaine, sans l’analyse, l’interprétation et la nécessaire intelligence émotive, souvent à la source des bonnes décisions.

5 ans plus tard, où en sommes-nous, avons-nous fait des progrès, et quels sont les points de vigilance quant à la prise de décisions sur la base des Big Data ?

De la qualité de la donnée, et de son utilité

A la base, une confusion s’entretient entre donnée, information, connaissance et savoir. Les théories de la connaissance existent pourtant depuis longtemps. Celle de Russell Ackoff est la plus répandue mais elle n’est ni la première, ni la dernière. Scott Carpenter*, dans un article en ligne, en a résumé les principaux avatars ici :

Figure 2: Scott Carpenter sur les hiérarchies de la connaissance *Scott A Carpenter est V.P. / Chief Science & Technology Officer at NuFORENSICS, Inc. il a publié ce papier dans le cadre de son travail de doctorant

Figure 2: Scott Carpenter sur les hiérarchies de la connaissance *Scott A Carpenter est V.P. / Chief Science & Technology Officer at NuFORENSICS, Inc. il a publié ce papier dans le cadre de son travail de doctorant

La donnée, placée comme élément brut, y est toujours placée en bas, quelle que soit la théorie concernée. La connaissance, et le stade ultime, la vision, n’étant que la résultante de ces données au prisme de l’individu (les règles transforment la donnée en information, les modèles en connaissance, les buts en sagesse, et les valeurs en vision).

>Lire la suite sur Zebaz infos

L’impact des Big Data sur la prise de décision was last modified: février 9th, 2016 by Cédric Jeanblanc

RSE : où en sont les entreprises françaises ? Principaux enseignements de l’étude Lecko (2016)

Visionary Marketing était, le jeudi 28 janvier, à la présentation de l’étude annuelle sur les réseaux sociaux d’entreprise (RSE) réalisée par Lecko depuis maintenant 8 ans. Cette étude est un excellent moyen d’observer le niveau de transformation digitale dans les entreprises françaises : si tous les outils sont à disposition pour apporter de la transversalité et de la collaboration aux entreprises, il y a souvent une opposition au changement au sein de l’entreprise, et l’outil en reste finalement au stade d’expérimentation. Nous avons pu parler de ces problèmes de transformation culturelle avec Arnaud Rayrole, CEO de Lecko, dans une interview que vous pourrez lire après les principaux points que nous avons retenu de cette étude. Cette étude sur les RSE est téléchargeable en cliquant sur ce lien : http://referentiel.lecko.fr/publications/rset8/

1 – Les managers perçoivent l’apport des RSE…

Cette étude a été réalisée avec OpinionWay auprès de 850 managers dans des entreprises de plus de 5 000 salariés. Le premier enseignement de cet étude est encourageant : sur ces 850 managers, 88%, soit près de 9 managers sur 10, disent comprendre la stratégie numérique de leur entreprise. Mieux encore, 93% des managers imposent aux collaborateurs de progresser en permanence pour s’adapter à l’évolution des contextes opérationnels ! Qu’en est-il alors du RSE ? Comme vous pouvez le voir ci-dessous, plus de 7 managers sur 10 sont d’accord avec des affirmations telles que « les RSE facilitent la circulation de l’information dans l’entreprise », « les RSE facilitent l’entraide » et « l’émergence d’idées originales », et environ 6 manager sur 10 perçoivent l’intérêt du RSE dans la recherche de coordination, la détection des problèmes et la montée en compétence des équipes. Ces pourcentages sont certes moins alléchants que ceux vus précédemment, mais signifient tout de même qu’une majorité de managers voient dans le RSE un moyen de gagner en productivité. Qu’en est-il de l’adoption concrète du RSE ?

2 – …Mais ne poussent pas l’utilisation du RSE dans l’entreprise

Cette statistique est un retour à la réalité un peu brutal et marque la différence entre la volonté apparente et la mise en oeuvre concrète : seulement 25% des managers utilisent leur RSE tous les jours. Alors que 58% des grandes entreprises utilisent un RSE, c’est une large moitié des managers qui n’utilisent pas ou sous-exploitent un outil de transformation digitale pourtant mis à leur disposition. Cela traduit donc une problématique régulièrement évoquée au cours de cette présentation (et souvent répétée sur notre blog et auprès de nos clients) : avant de passer par l’outil, la transformation digitale passe tout d’abord par un changement culturel au sein de l’entreprise.

Enjeux, solution et mise en oeuvre du RSE selon Lecko : dire n’est pas faire, et de nombreux managers, s’ils ont compris l’urgence du changement, n’osent franchir le pas (source : étude de l’art des réseaux sociaux d’entreprise – Tome 8, slide 25  – Lecko 2016)

3 – Malgré tout, l’utilisation du RSE continue à progresser

Il serait dommage de rester sur une note négative, car il y a toutes les raisons de penser que l’utilisation active et régulière des RSE va se généraliser : on constate une augmentation du nombre d’utilisateurs de RSE de 15%, mais également un taux d’engagement en augmentation (+15%). De plus, les managers utilisant un RSE sont relativement jeunes (35-40 ans), ce qui laisse présager une généralisation de cet usage au fur et à mesure des années.

Pour aller plus loin…

Nous avons interrogé Arnaud Rayrole, afin de répondre à certaines questions suscitées par les résultats de l’étude. Le patron de Lecko nous a notamment éclairé sur les raisons pour lesquelles les managers peinent à imposer le changement au sein de l’entreprise.

Quelle est l’évolution du marché ?

Nous n’avons pas mesuré le chiffre d’affaires du marché dans cette étude car nous considérons qu’aujourd’hui le social est tellement présent dans le marché du software que les mesures que l’on avait sur les études précédentes n’étaient pas représentatives. Ce que l’on constate néanmoins, c’est que les usages progressent dans les entreprises, d’environ 15%. On observe également un grand dynamisme des acteurs du marché qui continuent à innover. Ce marché du social software était une niche, mais désormais se dilue dans celui de la collaboration.

Ce marché n’est donc toujours pas prêt de se consolider…

Je ne pense pas qu’il se consolidera. Si les briques d’infrastructures deviennent interopérables, il peut y avoir une consolidation à ce niveau. Mais on gardera cet émiettement des solutions, dans un modèle ressemblant plus aux apps qu’aux logiciels. Il n’y a pas vraiment de pression économique dans ce marché. Une solution peut être tenue par uniquement deux personnes, car il ne s’agit pas encore d’une haute technologie. En revanche, le niveau technologique augmentera quand des modules d’analyse de données seront intégrés à ces logiciels. IBM, Oracle et Microsoft vont très certainement investir massivement dans ces outils d’analyse.

Cette étude avance que la culture est plus importante que le RSE lui-même. On peut donc prendre n’importe quel RSE ?

Nous le disons dans un contexte donné : actuellement, les entreprises sont largement en mesure de s’outiller, mais ont une véritable difficulté à se mobiliser autour du changement culturel. Le problème, ce qui ralentit les entreprises et les empêchent d’aller au delà de l’expérimentation, c’est le changement comportemental : les managers doivent appréhender différemment l’information, prendre des décisions, gérer les compétences de leurs collaborateurs.

Les managers ont-ils peur du changement ?

Les managers ont été façonnés dans un monde et une culture donnés et ont adopté ces codes. Ils ont réussi à être performant et ont été promus grâce à l’adoption des bons codes. Aujourd’hui, on leur demande de revoir tout cela, et de changer ces codes. Cela est donc compliqué pour eux car c’est un déracinement : l’humain n’est pas à l’aise quand on lui change son environnement. Il y a malgré tout une partie des managers qui comprennent ces changements et les voient comme une opportunité de développer leur carrière et se lancer sur des projets intéressants.

Bientôt, toutes les entreprises auront un RSE… Le mail va t-il mourir ?

Non, il a encore un atout que sont très loin d’avoir les RSE, c’est qu’il est universel. Un mail peut être échangé avec n’importe qui, quelles que soient les technologies. De plus, la notion de message d’une personne à une autre n’a aucune raison d’être remise en question. En revanche, l’outil de gestion central qui sert à la fois à coordonner les activités, partager les documents, recevoir de l’information est dépassé, car nous sommes dans une logique de pile. Imaginez que le matin vous ouvrez votre boîte aux lettres et vous sortez 200 lettres : vous ne les lisez plus. C’est ce qui se passe avec le mail qui est adapté à la base pour lire quelques éléments, et qui se retrouve maintenant l’outil d’une logique de flux. L’email est donc amené à se repositionner.

Dans cette étude, la notion de leader fait son apparition. Combien de messages dois-je envoyer par jour pour être un leader ?

Ce n’est pas notre indicateur : un leader est une personne qui va utiliser les outils de RSE de manière équilibrée. N’est pas un leader quelqu’un qui va poster beaucoup d’informations, régulièrement sans créer de conversation ou d’engagement. Un leader est dans l’échange, consomme l’information de manière active, en « likant », en partageant, la commentant, ne serait-ce que pour accuser réception, pour remercier la personne qui a publié. Ces personnes le font avec une régularité dans le temps : nous mesurons cela sur 3 mois.

Pour plus d’informations téléchargez le rapport lecko en cliquant sur ce lien : http://referentiel.lecko.fr/publications/rset8/

RSE : où en sont les entreprises françaises ? Principaux enseignements de l’étude Lecko (2016) was last modified: février 9th, 2016 by Cédric Jeanblanc