Banque et Big Data : une révolution à l’horizon

Nous avons régulièrement abordé sur ce blog le thème de la transformation digitale des banques. Mais nous n’avons toutefois pas encore abordé le lien entre la banque et les Big Data. Le 16 mars dernier se tenait une conférence CCM Benchmark sur les Big Data et la valorisation des données bancaires. Les Big Data ont fait couler beaucoup d’encre, mais il est encore tôt pour les voir révolutionner les usages des entreprises. Gartner les avait d’ailleurs placés il y a quelques années au stade du « gouffre des désillusions » dans son « Hype Cycle ». Toutefois, cela n’empêche pas les banques de s’intéresser à l’exploitation de la masse de données bancaires qu’elles possèdent, avec évidemment beaucoup de précaution concernant la sécurité et l’ « anonymisation » de ces données, réflexe ultra important dans un secteur aussi sensible. En effet, les amateurs d’innovation que nous sommes verront malheureusement les nombreuses possibilités offertes par les Big Data se heurter aux réalités du terrain. Légalement contraintes, la prudence fait partie de l’ADN des banques et il est souvent difficiles pour elles d’innover sans la crainte de sortir du cadre légal, contrairement aux géants du Web s’approchant de ce domaine avec beaucoup moins de frilosité (et de préoccupations concernant cadre légal). Voici une approche sur la problématique avec nos trois intervenants, Bruno Van Haetsdaele, Gilles Nectoux et Benoit Gruet.

Banque et Big Data : des données internes et externes

Pour commencer, il est important de savoir de quelles données nous parlons et de connaître leur provenance. Selon Bruno Van Haetsdaele, CEO de Linxo, les données dont disposent les banques proviennent de deux types de sources :

  • Les données internes, qui sont les données classiques possédées par la banque: dès la transaction, la banque collecte le montant, la date, l’heure, et le point de vente. Cela permet par exemple de mieux connaître une zone de chalandise. La banque possède en outre les données de transactions du client, son solde, l’évolution de son compte, son épargne… Ces données internes sont selon Gilles Nectoux, CEO de Plebicom, à la fois riches et pauvres :
  •  Riches, car il s’agit de données dont personne d’autre que la banque ne dispose
  • Pauvres, car elles ne sont pas détaillées : on ne peut par exemple pas connaître le contenu d’un panier acheté par un client.
  • Les données externes, provenant de prestataires : on raccroche par exemple les transactions à un commerçant physique via un croisement de données (SIRET, objet social, etc.). L’intérêt de ces données est ainsi de les recroiser avec les données internes pour mieux « coller au monde physique ».
Banque et Big data : Un passage dangereux sur une falaise
Le chemin reliant la banque et les Big Data est difficile à prendre et demande beaucoup de précaution.

A quoi servent ces données ?

A cette question, les intervenants de la table ronde expriment la même idée : le but est avant tout d’offrir un service utile au client.

Selon Bruno Van Haesdaele, « les données permettent à l’utilisateur de mieux comprendre ce qui se passe sur son compte ».  Les dépenses sont catégorisées (supermarché, loyer…) et des algorithmes prédictifs sont mis en place pour anticiper l’évolution du solde : un client recevra ainsi un message du type « vous avez 800 euros sur le compte, mais il y a un risque de découvert dans 5 mois ».

Grâce à ces algorithmes, la banque peut voir là où l’utilisateur dépense le plus et ainsi proposer des offres pertinentes qui se déclinent en deux catégories :

  • Les offres de fidélisation : Par exemple un client de Castorama se voit offrir via son compte un coupon de réduction ;
  • Les offres de conquête : Ici, le but est de faire changer le client de fournisseur. Par exemple, Leroy Merlin offre un coupon à un client de Castorama.

Selon Benoît Gruet, CEO de CDLK, ces données permettent d’accomplir le rêve de tout marketeur : analyser le comportement du client par rapport à ses attentes. Ce comportement est généralement fondé sur du déclaratif (sondages, questionnaires…) : ici, on peut le vérifier par les transactions.

Ces données ont donc une valeur exceptionnelle par rapport aux autres car elles offrent une vue objective. Lire la suite

Banque et Big Data : une révolution à l’horizon was last modified: avril 11th, 2016 by Cédric Jeanblanc

[Infographie] La transformation digitale des DSI (with @flashtweet)

sondage-dsi-bmc.pngLes avancées du cloud computing et les nouveaux services proposés en SaaS à moindre coût redistribuent les cartes au sein de l’entreprise, et la DSI, qui autrefois était au coeur des décisions et des besoins informatique devient de moins en moins nécessaire aux métiers qui trouvent désormais des solutions par eux-mêmes. Certains diront que cela est dû à l’arrivée de la génération Y dans l’entreprise, mais la raison est certainement plus simple : les solutions grand public proposés dans le Cloud sont à la fois moins chères, plus flexibles, régulièrement mises à jour, facilement interchangeables… Ces nouvelles habitudes mettent les DSI dans une position inconfortable, et l’on peut légitimement se demander quel sera l’avenir des informaticiens dans l’entreprise.

L’occasion de notre présence au BMC Exchange était trop belle pour ne pas passer à côté d’un sondage en temps réel auprès d’une centaine de DSI et métiers de l’informatique, afin de connaître leur ressenti sur la situation actuelle et celle des années à venir. Nous avons donc posé 9 questions que nous présentons ici dans une infographie, diffusée en avant première auprès du club utilisateurs France dans cet article. Si vous êtes informaticien et que vous souhaitez nous livrer votre opinion, vous pouvez dès maintenant répondre à ces 9 questions dans le sondage en ligne : http://bit.ly/sondage-dsi

Le bilan de ce sondage

Ce qui m’a le plus marqué, c’est que la majorité des DSI que l’on a interrogés a intégré l’importance de la transformation digitale. La nécessité de travailler avec le CDO semble également bien être intégrée. En revanche, 80% des DSI estiment qu’ils ne sont pas prêts pour les Big Data, alors que l’intégration des données, leur analyse,et leur mise à disposition aux marketeurs et aux métiers est désormais un enjeu crucial.
Cependant, concernant le cloud computing, il semble y avoir confirmation que quelque chose est en train d’évoluer. On suit à distance la transformation en cours depuis quelques années aux Etats-Unis.
Une autre surprise, agréable cette fois-ci, est à constater du côté des RSE, dont les DSI semblent reconnaître l’impact dans l’entreprise. Cet entrain de la DSI est à relativiser avec les difficultés de mise en place d’un RSE, qui sont à chercher davantage du côté de la mauvaise utilisation qui en est faite, plutôt que de l’outil en lui-même.

Quel avenir pour la DSI ?

L’avenir de la DSI est multiple :
  • d’une part une diminution forte, voire une suppression de la partie infrastructure qui va progressivement se transférer dans le cloud computing avec la généralisation des infrastructures dans le cloud (IaaS) et une généralisation du PaaS (Platform as a service) avec par exemple Hadoop as a Service.
  • la partie infrastructure diminuant, les DSI vont se repositionner autour des métiers du logiciel et du développement, et vont petit à petit se rapprocher des métiers.
Il y a encore du travail à effectuer pour transformer la DSI en fournisseur de services. La DSI devra ainsi accepter de mettre de l’eau dans son vin : pour répondre aux exigences de réactivité imposées par les métiers, elle devra par exemple parfois recourir aux logiciels en SaaS.
Ce changement ne doit pas susciter l’inquiétude. Le métier va évoluer mais devenir plus intéressant et plus innovant. La partie métier liée au processus de l’entreprise ne disparaîtra pas.

Et vous, qu’en pensez-vous ? N’hésitez pas à commenter cette infographie et à participer au sondage en cliquant sur le lien suivant.

[Infographie] La transformation digitale des DSI (with @flashtweet) was last modified: avril 13th, 2016 by Yann Gourvennec

Livre Blanc des Big Data : comment réussir son projet ? (exclu @flashtweet)

La semaine dernière, nous vous avons présenté le Livre Noir des Big Data publié par JEMS datafactory. (Note : JEMS Groupe est client de Visionary Marketing). Normalement, vous savez désormais comment rater votre projet Big Data en vous reposant sur l’utilisation de POC (preuves de faisabilité).
Si toutefois vous avez l’ambition de réussir votre projet Big Data, réjouissez-vous : le Livre Blanc des Big Data, publié lui aussi par JEMS datafactory, vous donne toutes les clés pour y parvenir.
Ainsi, après avoir vu le côté sombre des Big Data, nous allons aborder cette technologie sous son meilleur angle, en vous livrant quelques conseils pour réussir. Et le premier conseil, c’est de renoncer aux POC et de mettre en place un véritable projet pilote.

Qu’est-ce qu’un projet pilote ?

Contrairement à un POC, qui est déployé dans un environnement à part, un projet pilote utilise de vraies données, en situation réelle. Le projet pilote peut être imparfait et voué à évoluer, mais il rend déjà un service fonctionnel. Alors que le POC valide un concept, le projet pilote valide une solution qui sera ensuite étendue et généralisée. Tout ceci est exposé en détail dans le Livre Blanc des Big Data, qui livre également de précieux conseils sur la manière de réussir son projet pilote.

Voici les premières pages du livre blanc des Big Data :

Pour en savoir plus, téléchargez la version complète du livre blanc des Big Data en cliquant sur le lien ou le bouton ci-dessous :

bouton-lb-jems

Quelques facteurs clés de succès d’un projet pilote Big Data

Lire la suite

Livre Blanc des Big Data : comment réussir son projet ? (exclu @flashtweet) was last modified: mars 14th, 2016 by Jérôme Delacroix

Livre NOIR des Big Data ou comment rater son projet avec un POC

le livre noir des big data
en attendant le livre blanc, voici le livre noir !

Les Big Data sont très récents et ont  en peu de temps généré un fort enthousiasme dans les mondes de l’IT et du marketing. Les attentes sont démesurées et nous ne sommes qu’au début de l’exploitation de cette technologie : c’est donc naturellement que les entreprises se mettent à investir dans les Big Data. Mais il faut bien garder à l’esprit que les Big Data sont avant tout une énorme masse de données hétérogènes difficiles à assembler et à exploiter. C’est pourquoi, le passage entre l’idée et le projet est souvent périlleux, et le retour à la réalité peut être amer pour toute entreprise qui voit son projet Big Data s’enfoncer doucement dans le gouffre des désillusions. Comme dans tout projet, il y a des bonnes pratiques et des choses à ne pas faire : c’est ce que nous avons choisi de résumer en deux temps, dans un livre blanc et un livre noir des Big Data JEMS datafactory (transparence, JEMS Group est notre client). Ce format noir/blanc permet de souligner que d’un côté (lumineux), les Big Data sont une chance pour l’entreprise, à condition d’utiliser la bonne méthode, mais à l’inverse, elles peuvent se transformer en un véritable piège coûteux pour l’entreprise (côté sombre).

Livre Noir des Big Data : le mauvais réflexe des POC

Le POC est l’acronyme de Proof Of Concept, terme inventé par Bruce Carsten au milieu des années 80. On peut traduire ce terme en « preuve de faisabilité » : le but est donc de savoir, via une réalisation dans une simulation, si le projet va pouvoir être appliqué à plus grande échelle et en situation réelle. A première vue, cette approche est bonne : elle est d’ailleurs encore beaucoup utilisée en France. Mais en regardant de plus près, le POC est une approché viciée pour plusieurs raisons : elle nécessite une réplication parfaite des conditions réelles, elle est établie sur un périmètre limité, n’apporte aucune garantie de montée en charge… Faire un POC avant de lancer un projet est donc un mauvais réflexe. Dans le livre noir des Big Data, vous verrez en détail pourquoi le POC n’est pas une solution parfaite.

Retrouvez ci-dessous le livre noir des Big Data en version intégrale. Rendez-vous lundi prochain pour le livre blanc des Big Data, qui vous guidera au travers de la réussite d’un projet de Big Data, d’un facteur clé de succès à un autre.


Le livre noir des Big Data sur le slideshare de Visionary Marketing

 

Envie de conserver ou/et d’imprimer le Livre Noir des Big Data ? Cliquez sur le bouton de téléchargement ci-dessous

le livre noir des big data

En attendant le livre BLANC, ce qu’il faut retenir du Livre NOIR des Big Data

Les POC, vous l’aurez compris, ne jouent pas le beau rôle dans ce livre noir. Il est toutefois nécessaire de nuancer cette sombre vision sur les POC : ils trouvent par exemple encore une utilité dans la phase de R&D pour explorer de nouvelles possibilités. Mais dans le monde des Big Data, la marge entre expérimentation et exploitation est bien trop haute pour considérer le POC comme une étape indispensable dans toute réalisation de projet Big Data. Et pour remplacer le POC, rien de mieux que le projet pilote, que nous verrons la semaine prochaine dans le Livre Blanc des Big Data.

Pour la petite histoire…

Hadoop est un framework (structure logicielle) permettant de traiter des volumes de données importantes en un minimum de temps. Il est utilisé par des acteurs majeurs de l’Internet (Amazon, Facebook…), et représente désormais un des symboles des Big Data. Son logo, un petit éléphant, est inspiré du doudou du fils de 5 ans du créateur de Hadoop, Doug Cutting. Nous avons donc choisi ce logo en l’agençant à la façon d’un ying et d’un yangpour montrer les deux facettes du Big Data.

Livre NOIR des Big Data ou comment rater son projet avec un POC was last modified: mars 7th, 2016 by Cédric Jeanblanc

Comment combattre la fraude bancaire avec les Big Data

[NDLR] Nous avons eu la chance de rencontrer Thomas Gerbaud l’année dernière lors d’une réunion sur les Big Data. Nous en avions d’ailleurs profité pour l’interviewer sur son métier de data scientist. Il nous arrive souvent de décrire les data sous un angle marketing dans ce blog, et celui de nos clients et partenaires. Il serait faux cependant de croire que seul le marketing est concerné par cette révolution de la donnée. On peut bien entendu et surtout les utiliser aussi à titre préventif dans le cadre de la détection de la fraude bancaire par exemple. Dans la mesure où cet aspect de la détection des fraudes, dans le domaine bancaire et dans le ecommerce, peut également être vu comme un avantage concurrentiel ou une constituante du service : nous avons donc demandé à Thomas de traiter ce sujet. Nous vous livrons donc ses réflexions sur ce sujet dans le billet suivant.

Comment combattre la fraude bancaire avec les Big Data

Par Thomas Gerbaud, CEO Ocean Data, Fondateur de Mantiq et Data Scientist

Exemple basé sur une situation réelle – bien évidemment. Je me garderai donc bien de donner toute formation d’indication chiffrée.

La banque X travaille avec Tracfin (Traitement du renseignement et action contre les circuits financiers clandestins), comme toutes les autres. En tant qu’organisme financier, elle a l’obligation légale de participer activement à la lutte contre le blanchiment d’argent. Toute entrée d’argent suspecte doit donc être notifiée au régulateur. Cela représente un coût certain, essentiellement humain et en temps. Une perte sèche, au mieux compressible. Des outils de détection existent, bien sur, souvent basés sur des filtres ad-hoc. Le souci, c’est que ces outils sont fondamentalement idiots.

A l’heure où l’intelligence artificielle titille les experts du Go, et alors qu’aucun être humain n’a battu un supercalculateur aux échecs depuis 2006 (voir ce très bon article du Monde), est-il encore nécessaire de fixer les seuils de déclenchement d’alertes à la main ? Ne pourrait-on pas injecter un peu d’intelligence dans les routines de détection de fraude ? Questions légitimes. Réponse affirmative.

fraude bancaire
les big data arriveront-ils à allumer la petite lumière de l’intelligence des outils de détection la fraude bancaire ?

Détection de fraude : pour une approche plus futée… et plus efficace

Je me propose d’illustrer, dans ce billet, les limites de la détection par filtres, et de présenter une approche plus futée. Et plus efficace !

La détection par filtre consiste à modéliser un comportement suspect, puis à le détecter ; c’est-à-dire décrire le comportement en terme d’observables (par exemple, un virement rond supérieur a 5000e, ou un dépôt de liquide atypique), et placer des filtres sur les opérations. Cette approche est efficace si le nombre de règles est suffisant, et si tous les cas sont couverts. L’intelligence réside donc dans la conception et l’ordonnancement des filtres, qui sont voués à se multiplier pour embrasser la multiplicité des situations qui seront, selon le contexte, suspectes ou non. Trop larges, ces filtres provoquent des avalanches de faux-positifs; trop restrictifs, ils ne détectent rien. Si, pratiquement parlant, cela fonctionne quand même, au prix d’une certaine complexité, cette approche n’est intellectuellement pas satisfaisante. Puisque l’approche descriptive suppose une certaine ressemblance dans les comportements suspects, ressemblance que l’on traduit par des règles simples, pourquoi ne pas pousser la démarche et laisser l’ordinateur détecter ces motifs tout seul ? Lire la suite

Comment combattre la fraude bancaire avec les Big Data was last modified: février 18th, 2016 by Thomas Gerbaud