Big data : pourquoi l’abondance des données n’a aucune importance #scmw2013

imageLa sélection du jour …

Est cet article fondamental de Chad Wellmon[1] dans The Hedgehog Review (Printemps 2012) qui traite de l’infobésité et dont je pense qu’il est une bonne introduction à mon discours de ce soir) la conférence Scoop.it! qui aura lieu à Paris, dans les locaux de Telecom Paristech à partir de 18:00. Le sujet en sera « La stratégie de contenus marketing Web », avec un focus particulier sur la curation, ce qui se comprend puisque la conférence est menée à l’initiative de Marc Rougier et de son équipe. J’ai déjà annoncé cette conférence la semaine dernière. Cet article sera mis à jour juste avant la conférence afin de permettre aux auditeurs – et aux internautes – de consulter ma présentation.

header_SCMW2013

J’interviendrai vers 19h30, sur le thème de : « veille, outils et astuces. Comment survivre à l’infobésité ? ». Le sujet central en est les quelques outils que j’utilise pour la veille, mais j’en ai profité pour élargir plus largement le sujet à une réflexion autour du contenu, la façon dont les utilisent dans les entreprises, et en conséquence, ce phénomène auquel nous sommes tous confrontés, qui est l’infobésité. L’infobésité, ou « information overload » en Anglais, c’est-à-dire « surcharge d’information », ne date pas d’aujourd’hui. En ces temps de « big data », où on se glorifie d’accumuler des milliards “d’informations” avec des termes de plus en plus emphatiques (mégaoctets, téraoctets, pétaoctets, exaoctets, zettaoctets et ainsi de suite… n’en jetez plus !) il est urgent de se reposer la question de savoir ce qu’est l’information, et surtout, de ce qu’elle n’est pas, à savoir de la donnée … donc des pétaoctets (ou zettaoctets ou trucmachinoctets).

image

note : illustrations antimuseum.com

Étrangement, en me penchant sur ce terme d’infobésité et en en cherchant l’historique, je suis aperçu que cette question n’était pas, loin s’en faut, une question contemporaine, mais qu’elle a toujours été posée, depuis le début de l’invention du livre, même manuscrit, car le livre est aussi, on l’oublie souvent, une invention technologique (a fortiori, lorsque nous nous sommes mis à les imprimer).

Cette question se repose en fait à chaque fois qu’une technologie arrive, et qu’elle contribue à multiplier les signes. Le terme de surcharge d’information a été popularisé par Alvin Toffler en 1970 dans son livre « future shock » mais il a déjà été mentionné par Betram Gross dans son ouvrage « le management des organisations  en 1964. Mais en fait, le problème de l’infobésité est antérieur à cette période moderne et intervient à chaque fois que notre capacité à produire de l’information surpasse notre potentiel à la décrypter et la digérer. D’où la nécessité de développer des tactiques de plus en plus sophistiquées pour filtrer, éliminer, scanner et choisir l’information en faisant bien attention à ne pas prendre le contenant pour le contenu…

Ni les pétabytes ni ses superlatifs n’ont, en l’espèce, aucune importance, car ils sont probablement redondants, inintéressants, dupliqués, parfois mêmes « gonflés » par des logiciels qu’on a oublié d’optimiser et qui génèrent des fichiers de plus en plus lourds mais pas plus signifiants que par le passé. En d’autres termes, ils ne sont pas le signe qu’il y a plus d’information que par le passé, mais simplement celui qu’on a généré plus de bruit (j’ai souvent, dans un passé récent, utilisé la métaphore du signal/bruit pour relativiser l’importance de la veille sur les médias sociaux par exemple).

Voici donc quelques extraits tirés du texte de Chad Wellmon, que je vous invite à lire en version intégrale sur Internet.

[…]

La tâche la plus complexe, et la plus pressante de notre ère digitale, en conséquence, consiste non pas à se demander ce qui vient après le yottaoctet, mais dans notre acclimatation culturelle croissante avec un monde de plus en plus digital. De façon à comprendre comment nos vies sont déjà profondément influencées par la technologie, nous avons besoin de considérer l’information non pas dans les termes abstraits des terraoctets et zettaoctets, mais d’une façon plus culturelle. Comment ces technologies que les humains ont façonnées afin d’interagir avec le monde, viennent-elles nous façonner également à leur tour ? Quel impact a sur nous l’interaction de ces technologies, fabriquées par nous-même, et les éléments irréductibles de nos vies ? La tâche d’analyse consiste essentiellement à identifier et à comprendre les formes d’agencement humain particulières à notre ère numérique, sans réduire la technologie à une extension mécanique des humains, à un simple outil. En raccourci, se demander si Google nous rend plus bête, comme certains critiques culturels l’ont fait remarquer, est une mauvaise question. Elle part de l’hypothèse de la distanciation entre les hommes et de la technologie qui n’est plus, si elle l’a jamais été, tenable.

2 récits opposés

L’histoire de cette influence mutuelle entre humains et technologie a été obscurcie récemment par la cristallisation de 2 récits concurrents quant à la façon dont nous vivons cette information. D’une part, il y a ceux qui prétendent que les efforts de numérisation de Google, la puissance du réseau social de Facebook, et l’ère des big data en général permettent de réaliser le rêve antique de l’universalité de toute connaissance. Le monde numérique deviendrait ainsi un « réseau sans frontières et unique de mondes interconnectés et d’idées », une sorte de connaissance sans distinctions ni différences. À la différence d’autres innovations technologiques plus anciennes, comme l’imprimerie, qui était limitée à une élite éduquée, l’Internet est un réseau de « pages Web, blogs, articles d’information et de tweets fortement inter reliés, visible de tous et de n’importe qui ». Notre ère de l’information est unique non seulement par son échelle, mais par son agencement ouvert et démocratique. L’information a été finalement libérée. Les technologies numériques, prétendent les plus optimistes d’entre nous, nous donneraient accès à une connaissance universelle qui nous rendrait plus intelligents et qui finalement nous libéreraient. Ces prétentions utopiques sont liées à des visions similaires à propos d’un futur trans-humaniste dans lequel la technologie nous supplanterait et nous permettrait de dépasser ce qui étaient autrefois les limites historiques de l’humanité : physiques, intellectuelles et psychologiques. Le rêve d’une humanité post-humaine en somme.

À l’opposé, des observateurs moins emphatiques interprètent la montée en puissance de la numérisation et des big data comme l’annonce d’une surcharge d’information. Nous souffririons d’un déluge de données. Beaucoup s’inquiètent que les hyperliens du Web nous envoient d’une page à une autre, que les blogs réduisent de longs articles en résumés d’1 ou 2 lignes, et que les tweets réduisent les pensées à 140 caractères, créant ainsi une culture de la distraction. Les technologies mêmes qui nous aident à gérer toute cette information minent notre capacité à lire en profondeur et avec attention. Le Web, selon certains, est un média fortement lacunaire qui favoriserait une forme moins intense et plus superficielle de lecture

[…]

Les inventions technologique, qu’il s’agisse de l’encyclopédie imprimée à l’heure où elle fut inventée ou de Wikipédia, ne sont pas des machines abstraites qui, indépendamment de nous, nous rendent bêtes ou intelligents. Comme nous l’avons vu avec les technologies de la lecture amenées par les lumières, la connaissance émerge de processus complexes de sélection, distinction et de jugement, du fait de l’incontournable interaction entre les humains et la technologie. Nous devrions résister ainsi à la fausse promesse représentée aujourd’hui par le champ de sélection situé en-dessous du logo de Google : soit vous accédez immédiatement et sans médiation à la connaissance pure, soit vous vous livrez à une vie de distraction et d’information superficielle. Cette alternative est un piège. La connaissance s’acquiert à force de travail ; elle est façonnée, créée et organisée par les humains et leurs technologies. Le moteur de recherche de Google et ses algorithmes sont uniquement le dernier avatar d’une longue histoire des technologies que les humains ont développées pour organiser, évaluer et interagir avec le monde qui les entoure.

clip_image006Poursuivre cette lecture sur le Web avec l’article en version intégrale : Pourquoi Google ne nous abêtit pas … ni ne nour rend plus intelligent par Chad Wellmon


[1] Chad Wellmon est professeur à l’Université de Virginie aux Etats-Unis. Il est l’auteur de « devenir humain : anthropologie romantique et personnalisation de la liberté » (2010)

0 thoughts on “Big data : pourquoi l’abondance des données n’a aucune importance #scmw2013

  1. Pingback: Big data : pourquoi l'abondance des donn&eacute...

  2. Pingback: Big data : pourquoi l'abondance des donn&eacute...

  3. Pingback: Big data : pourquoi l'abondance des donn&eacute...

  4. Pingback: Big data : pourquoi l'abondance des donn&eacute...

  5. Pingback: Big data : pourquoi l'abondance des donn&eacute...

  6. Pingback: Big data | Pearltrees

  7. Effectivement, la croissance des données ne correspond pas du tout à une croissance de la connaissance ou de l’intelligence. Effectivement, il y a de plus en plus de bruit et il devient délicat de le filtrer.
    Une fois ce bruit filtré, une fois les données pertinentes extraites, il nous reste à en faire la lecture, l’analyse et ce problème existe depuis des siècles (même avant le XVème siècle). Ce qui a changé c’est qu’au contraire aujourd’hui on a des outils qui nous aident dans ce travail.
    Nous avons donc avancé plus vite que les données elles mêmes.

  8. Pingback: Entreprise-Marketing.fr » Blog Archive » Curation et infobésité, trucs, astuces et outils

  9. Pingback: Ce qu’il ne fallait pas rater : Conférence Stratégies de Contenu Marketing Web par Neocamino Tout sur le Webmarketing pour PME et TPE

Votre avis nous intéresse :