Les navigateurs à l’assaut du temps

Les mutations de l’Internet nous donnent de la peine, à nous, humains. Sitôt adoptés, les usages sont supplantés par de nouveaux algorithmes et innovations marketing et nous envoient subordonner d’illusoires répits à de nouvelles habitudes reléguées à jamais. On a beaucoup parlé de flow, de mouvement aquatique ou meme de surf…sans bien approfondir les conséquences induites par ces condamnations répétées au mouvement à perpétuité.

La fin du Search

La recherche classique via mots-clé est en train de mourir.
Les navigateurs web nous ont longtemps permis d’arpenter les couloirs d’une bibliothèque dont les murs s’éloignaient chaque jour, repoussés par de nouvelles indexations et découvertes. Mais ça, c’était avant. Avant que la quête du temps ne supplante celle de l’espace.

L’introduction des Time Graph et autres possibilites de visualiser en temps réel une quantité spectaculaire de flux d’informations a formé de nouvelles intelligences et donné naissance à une quantite de nouvelles activités. Le web est devenu un livre d’histoire à feuilleter, parcouru  de progressions et conquêtes graduelles d’expériences et de territoires. En passant de la photographie au cinéma, Internet permet depuis peu une clarté d’explication encore jamais connue.

Ce renversement aura duré 20 ans et c’est , disons le, une bonne nouvelle. Dans le nouvel environnement offert par une toile constellée de datas, on assiste au passage d’une économie fondée sur une préservation géree et raisonnée de la rareté (dûe en partie à des contraintes externes, faible débit de transmissions, chereté des acquisitions numériques, difficulté d’accès et de stockage,…) à une utilisation extensive et créative de flux aux possibilités interminables.

De nouvelles applications voient le jour et permettent d’accéder à l’information sous un angle nouveau, désertant les définitions statiques nées de la civilisation de l’imprimé pour aborder les rivages plus modernes du dynamisme et de l’interactivité.

Le Web et les navigateurs sont morts

Les systèmes d’exploitation et les moteurs de recherche actuels vont s’écrouler sous leur obsolescence fonctionnelle, désertés par des individus qui n’ont jamais tenu particulièrement à être amenés vers des sites ou des sources d’information parmi d’autres mais qui sont toujours partis à la recherche de ce qui se fait de meilleur pour trouver « la » bonne réponse, c’est à dire la réponse la plus personnalisée, la mieux contextualisée aux besoins exprimés.

Les « Stream Browsers » arrivent. Et ils sont décidés à aller loin, très loin dans les déluges de données. Bienvenue dans la Cyber sphère.

Google pourrit-il le cerveau ?

Google pourrit-il le cerveau ?

Le moteur de recherche californien s’est imposé en l’espace de quelques années comme une des marques les plus connues dans le monde, si ce n’est la plus connue. Pour le meilleur ou pour le pire ?
Le réponse n’est pas si évidente que cela. Eléments d’efficacité immédiate, les moteurs de recherche permettent en effet par la magie d’une hypertextualité algorithmique d’aller plus rapidement d’un point A à un point B, de repérer sans trop de délais une information nécessaire à l’élaboration d’une autre information, connexe, plus particulière ou plus générale. Ce n’est d’ailleurs pas si l’argument premier de Google, celui qui l’a vu triompher commercialement des ancêtres Yahoo! ou Altavista, est celui de la rapidité.

Pourtant, un peu comme Socrate qui s’en prenait à l’écriture pour en dénoncer une toxicité évidente à ses yeux si elle était mal employée, de plus en plus de voix s’élèvent pour dénoncer l’absence de profondeur et d’argumentation que causerait la substitution d’un Google toujours à portée de mains aux recherches d’un temps jadis, plus ardues, mieux organisées ou plus accidentelles. L’apprentissage serait en danger pour cause de facilité et de dépossession du savoir.

Car si l’intelligence a en effet été  longtemps définie en partie (ou surtout ?) par la détention du savoir et des connaissances, elle est aujourd’hui avant tout appréhendée pour sa capacité à identifier, retrouver et manipuler des stocks d’informations périphérisés, c’est à dire stockés dans des clouds installés quelque part sur des plateformes offshore.

« L’opérateur du savoir a remplacé son détenteur » dit Marcel Gauchet.
Pour quel progrès ?
Selon Nicholas Carr, notre intelligence sans cesse distraite par des éléments extérieurs et toujours différents, fonctionne désormais en discontinuité permanente et ne réagit plus de la même façon qu’avant. Nous lisons beaucoup plus mais beaucoup moins bien ; L’efficacité et l’immédiateté prennent la pas sur la profondeur, l’expérience et la fabrication du souvenir. Google a fait de l’information un produit consommable, un produit comme un autre qui peut être exploité et traité avec une efficacité industrielle. « Plus le nombre de morceaux d’information auxquels nous pouvons “accéder” est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs« , constate ainsi Carr qui rappelle une citation plutôt troublante de Sergey Brin parue dans un entretien de 2004 pour Newsweek “Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux.”

D’autres voix comme celle de Michel Serres sont franchement plus optimistes. Dans La petite Poucette, le philosophe s’émerveille des nouvelles aptitudes nées de l’utilisation des smartphones et tablettes et du nombre impressionnant des possibilités de connexions permises par chaque action du pouce. La libération de certaines zones du cerveau réservées à l’accumulation d’informations plus ou moins utiles permettrait une amélioration décisive de nos capacités cognitives.

Et enfin, que peuvent nos cerveaux humains face au déluge d’informations créées chaque jour ? En 2008, l’humanité a déversé 480 milliards de Gigabytes sur Internet. En 2010, c’est 800 milliards de Gygabytes qui ont été déversés sur le Net, soit, comme l’a remarqué Eric Schmidt, plus que la totalité de ce que l’humanité a produit ou enregistré depuis sa naissance jusqu’en 2003. En permettant de créer autant d’informations, l’intelligence humaine n’a pas prévu qu’elle serait seule capable de les contrôler et de les gérer directement.
Pas sous sa forme actuelle du moins.

L’article de Nicolas Carr : Is Google Making Us Stupid?
Le discours de Michel Serres à l’Académie Française

L’Open Data en 2011

Alors que l’impression que les événements et les publications autour de l’Open Data sont devenues pléthoriques vient se renforcer presque chaque jour, une récente communication de David Eaves à l’Open Data Camp de Varsovie a le mérite de synthétiser une partie des débats en cours.

Où en sommes-nous

L’intervention de David Eaves date du 20 octobre et commence par dresser un état des lieux des politiques d’Open Data. L’auteur recense ainsi plus de 50 portails Open Data à travers le monde, dont ceux du Kenya ou de l’Albanie et évoque une « véritable explosion » du phénomène Open Data en 2011, dont il relie l’origine à la curiosité croissante de certaines personnalités du monde politique, tout en faisant le distinguo entre curiosité et connaissance.
C’est un fait cependant que l’Open Data est désormais une notion admise dans les débats politiques et que la diversité des acteurs engagés et des projets actuellement développés – de nombreux exemples sont cités au cours de l’intervention, sont d’excellentes augures pour l’avenir.

Prenant acte de l’échec des démocraties classiques à anticiper et résoudre des situations de plus en plus complexes et citant l’exemple des mouvements contestataires du Tea Party ou des indignés comme révélateurs d’un échec des institutions à s’adapter à une nouvelle donne, David Eaves parle au nom des activistes de l’Open Data pour tenter de réaffirmer une nécessaire indépendance vis à vis des politiques et gouvernements tout en appelant à une collaboration lucide, consciente de nombreuses et inévitables tentatives de manipulation.

Ce qui reviendrait selon lui à répondre aux 3 principaux défis suivants :

  1. L’Open Data ne doit pas se cantonner à donner des objectifs de transparence dans la manipulation de données publiques mais bel et bien à servir à l’instauration d’une nouvelle gouvernance qui gèrerait le patrimoine « Data » avec la même rigueur que les autres infrastructures dont il a la responsabilité, routes, équipements, etc.
  2. A arrêter de comptabiliser avec satisfaction les nouveaux portails d’Open Data qui s’ouvrent chaque jour à travers le monde et à établir des standards, des structures de données permettant de fonctionner transversalement aux juridictions. C’est là le principal défi, qui permettra ou non à l’Open Data de se généraliser avant de s’imposer définitivement.
  3. A sensibiliser davantage les multinationales aux enjeux de l’Open Data et à les impliquer dans une dynamique win-win. Intégrer des grands groupes tels que Microsoft, Google et des ONG comme Oxfam ou l’Unesco donnerait au mouvement une taille critique qu’il n’a pas encore.

Je pense que l’Open Data est lancé et suis naturellement convaincu des bienfaits de la nécessaire alliance du public et du privé pour répondre à une multitude de besoins, et que cette alliance en plus d’être une mine d’or pour les entreprises qui sauront innover et se révéler d’une utilité inattendue pour les citoyens, peut valablement proposer des solutions évoluées à des systèmes de représentation et à des responsables politiques qui ne peuvent plus comprendre et répondre à eux seuls aux légitimes aspirations de leurs administrés.
Tout l’intérêt de l’article de David Eaves est de venir rappeler fort opportunément que nous en sommes à peine au point d’inflexion, c’est à-dire le point plus fragile, dans la construction d’un nouvel équilibre, et que le mouvement a tout intérêt à compter, rassembler et organiser ses forces pour vraiment exister.
Le mouvement de l’Open Data commence à rallier les suffrages de nombreuses personnes à travers le monde mais il est encore loin d’avoir gagné les batailles décisives capables d’en faire une réalité pour tous.
C’est une idée en marche qu’il faut standardiser et structurer sans cesser de la partager à tous les niveaux, dans tous les blogs, clubs, cénacles et rencontres, partout, tout le temps.

L’article paru sur le Blog de David Eaves et repris et traduit sur Owni.

www.datacatalogs.org

www.data-publica.com

L’infobésité : Fantasmes et réalités

Migraines de fin de journée, invasions quotidiennes de spams et longues errances sur la toile ont vite fait d’accuser l’information d’être disponible en trop grande quantité : L’infobésité (pas encore dans le Robert) est mère de tous les maux et première responsable de pertes d’attention ou d’incapacité à rester concentré suffisamment longtemps pour permettre la réflexion. La certitude d’être au contact d’informations capitales au prochain clic provoquerait même le délaissement des dîners de famille en face de la télévision ou d’assommantes lectures nocturnes destinées à écraser les insomnies.

 

 

 

 

 

 

 

 

 

 

Ces impressions sont régulièrement renforcées par des panoplies de chiffres très explicites quant à une overdose d’information disponible au risque d’engendrer une confusion non seulement fausse mais également dangereuse.

En effet, si tout le monde est d’accord pour dire que l’information n’a jamais été aussi abondante, rien ne permet d’affirmer qu’il y en ait trop.

En se focalisant sur l’objectivité des chiffres relatifs à l’explosion des informations disponibles – c’est-à-dire stockées quelque part sur des serveurs, les experts commettent plusieurs imprudences dont celles-ci :

  • Pour être réelle, l’ampleur de la progression de la quantité d’information disponible n’en est pas moins contestable. Les millions et zillions de bytes annoncés sont spectaculaires mais veulent dire un peu tout et n’importe quoi. Ainsi, une très grande part de l’explosion des chiffres s’explique par la simple conversion des fichiers Vidéo et Photo au format HD, multipliant d’un coup et artificiellement les chiffres par plusieurs dizaines.
  • Nombre d’informations sont relayées à l’identique ou à peine modifiées, des milliers de fois, et sont néanmoins comptabilisées à chaque fois comme si elles étaient uniques. La redondance est difficilement identifiable et les indicateurs actuels n’en tiennent aucunement compte.
  • D’autres études spécifiques loin de laisser penser que l’homme moderne subirait une indigestion d’informations, démontrent qu’au contraire, chaque information unique est lue ou visualisée par un nombre moins important de personnes qu’auparavant.
  • L’essentiel de la production et de la consommation d’informations regarde une ultra minorité de personnes sur le Web. Ce n’est absolument pas tout le monde qui avale l’équivalent de 6 quotidiens par jour.

 

En résumé, l’omniprésence d’un seul indicateur imparfait, le byte de données, devrait inciter à plus de prudence et empêcher de livrer des conclusions trop hâtives sur le bombardement supposé de nos esprits. En n’acceptant pas la nuance, en mettant par exemple sur le même plan l’utilité de l’information pouvant être contenue dans 1 demi-méga de fichier texte et celle contenue dans un demi-Giga de video-clip, l’essentiel des études ne démontre qu’une seule chose : Le commerce des serveurs de données se porte très bien et cela devrait continuer un bon moment, pour s’envoler au-delà même des 5% d’éléctricité actuellement consommés dans les seuls Etats-Unis.

Ma conviction est que les discours sur un excès de l’offre ne doivent pas se développer car ils sont loin d’être innocents et peuvent même être considérés comme dangereux. Le sentiment d’impuissance manifesté parfois face au « déluge de données » s’explique plus par le manque d’aptitude et l’impréparation de nos cerveaux à recevoir et à gérer des informations transitées par de nouveaux médias que par un excès de l’offre. Cet excès supposé est d’ailleurs une antienne aussi vieille que le concept même d’information, et elle est par exemple très bien analysée par Eco dans Le Nom de la Rose, génial roman mettant en scène des moines obscurantistes qui voient la connaissance comme un péril et la bibliothèque comme un terrain de conflit.

Aujourd’hui plus que jamais, notre effort doit se porter sur la connaissance des médias et sur le développement des nouvelles formes d’apprentissage pour les enfants et pour l’ensemble des générations, qui ont toutes soif d’aborder le maximum d’informations avec le maximum d’utilité.
Il est en effet temps de s’éloigner de l’origine latine d’informer, informare, donner forme : tout le défi de la société de l’information réside dans le fait de savoir utiliser l’information et non plus d’être utilisé par elle.