OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les algorithmes prédictifs sont-ils un risque pour notre libre-arbitre? http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/ http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/#comments Wed, 01 Dec 2010 15:00:29 +0000 Hubert Guillaud http://owni.fr/?p=37595

Nous sommes apparemment aujourd’hui dans une situation où la technologie moderne change la façon dont les gens se comportent, parlent, réagissent, pensent et se souviennent.

Nous dépendons de plus en plus de nos gadgets pour nous souvenirs des choses : comme le disait Daniel Dennet, nous connaissons une explosion démographique des idées que le cerveau n’arrive pas à couvrir.

L’information est alimentée par l’attention : si nous n’avons pas assez d’attention, nous n’avons pas assez de nourriture pour retenir tout ces renseignements.

Or, à l’âge de l’explosion de l’information que faut-il retenir ? Que faut-il oublier ? Pendant des siècles, explique Frank Shirrmacher, ce qui était important pour nous était décidé par notre cerveau : désormais, il sera décidé ailleurs, par nos objets, par le réseau, par le nuage d’information dont nous dépendons. “Ce n’est pas un hasard si nous connaissons une crise de tous les systèmes qui sont liés soit à la pensée soit à la connaissance” : édition, journaux, médias, télévision, mais également université comme tout le système scolaire. Ce n’est pas une crise de croissance, mais bien une crise de sens :

la question est de savoir ce qu’il faut enseigner, ce qu’il faut apprendre et comment. Même les universités et les écoles sont tout à coup confrontées à la question de savoir comment enseigner.

Quelles informations retenir ? Qui va les retenir pour nous ?

À la fin du XIXe siècle, rappelle l’essayiste, “à la rubrique nouvelles technologies, les discussions étaient vives autour du moteur humain. Les nouvelles machines de la fin du XIXe siècle exigeaient que les muscles de l’être humain s’y adaptent. En Autriche et en Allemagne notamment, un courant philosophique réfléchissait à comment changer la musculature ! Le concept de calories a été inventé à cette époque afin d’optimiser la force de travail humain. Au XXIe siècle, on retrouve le même type de question avec le cerveau. Le muscle que nous avons dans la tête, le cerveau, doit s’adapter. Or, ce que nous savons des études récentes montre qu’il est difficile pour le cerveau de s’adapter au multitâche.”

Nous passons de l’adaptation des muscles aux machines à celui de l’adaptation du cerveau aux machines à travers les questions du multitâche ou de l’infobésité qu’adressent à nous les technologies de l’information et de la communication. “Le concept d’informavore qui conçoit l’être humain comme un dévoreur d’information a beaucoup à voir avec nos anciennes chaines alimentaires”, avec la nourriture que vous prenez ou pas, avec les calories qui sont bonnes ou mauvaises pour vous ou votre santé.

L’outil n’est pas seulement un outil, il façonne l’humain qui l’utilise. Du moment que les neuroscientifiques et d’autres se sont mis à utiliser l’ordinateur pour analyser la façon de penser des hommes, quelque chose de nouveau à commencé. Quelque chose qui pose la question du libre arbitre, comme le disait déjà Jaron Lanier, le gourou de la réalité virtuelle. “À l’heure de l’internet en temps réel, la question de la recherche prédictive et du déterminisme devient plus importante.”

Les algorithmes prédictifs vont-ils décider pour nous ?

Frank Schirrmacher imagine que la question de la prédiction – comme la prévisibilité des tendances de recherches que réalise déjà les outils de Google sur la grippe et dans bien d’autres domaines – va avoir un impact important sur la notion de libre arbitre. Google saura avant nous si le concert que nous nous apprêtons à regarder ce soir va nous intéresser, parce qu’il sait comment les gens en parlent, qu’il calcule et analyse non seulement les comportements de la société, mais aussi les nôtres permettant de situer nos comportements dans l’univers social, explique Schirrmacher.

En recueillant de plus en plus de données comportementales et en y appliquant des algorithmes prédictifs de plus ne plus sophistiqués, notre perception de nous-même va se modifier. Alors que pour certains psychologues – comme John Bargh – clament que rien n’est plus important que le libre arbitre, nous sommes confrontés à un avenir où tout va être prévisible par les autres, via le nuage informatique et la façon dont nous sommes liés via l’internet. Les nouvelles technologies, qui sont en fait des technologies cognitives, s’adressent à notre intelligence, à notre pensée et s’opposent désormais à nos façons de penser traditionnelles.

Et Schirrmacher d’en appeler à mieux comprendre les transformations qui se font jours :

Qu’est-ce que Shakespeare et Kafka, et tous ces grands écrivains, ont réellement faits ? Ils ont traduit la société dans la littérature. Ils ont traduit la modernisation dans la littérature… Maintenant, nous devons trouver des personnes qui traduisent ce qui se passe dans la société au niveau des logiciels. Les textes vraiment importants, qui écrivent notre vie aujourd’hui et qui sont, en quelque sorte, les histoires de notre vie sont désormais les logiciels – or ces textes ne sont pas examinés. Nous devrions avoir trouvé les moyens de transcrire ce qui se passe au niveau des logiciels depuis longtemps – comme Patty Maes ou d’autres l’ont fait : juste l’écrire et le réécrire de manière à ce que les gens comprennent ce que cela signifie réellement. Je pense que c’est aujourd’hui une grande lacune. Vous ne pourrez jamais vraiment comprendre en détail comment Google fonctionne, car vous n’avez pas accès au code. On ne nous donne pas l’information pour comprendre.

Notre fonctionnement personnel est-il tant dépendant de notre environnement social?

Parmi les nombreuses réponses que cet article a suscité, signalons, celle de John Bargh, psychologue et directeur du Laboratoire de l’automatisme pour la cognition, la motivation et l’évaluation à l’université de Yale, qui abonde dans le sens de Schirrmacher.

J’ai tendance à moins m’inquiéter de la surcharge d’information sur le plan personnel et individuel qu’au niveau sociétal et gouvernemental. Voilà longtemps que le cerveau humain a l’habitude d’être surchargé d’informations sensorielles (…). Le cerveau est habitué à traiter avec des messages contradictoires aussi, ainsi qu’à gérer et intégrer l’activité de nombreux sous-systèmes tant physiologiques que nerveux – mais comme le montre les travaux de Ezequiel Morsella, cela tout en conservant cette gestion hors de notre vue de manière qu’il nous semble ne pas en faire l’expérience.

Nous sommes déjà et depuis longtemps multitâches. Mais nous le faisons (plutôt bien) inconsciemment, non consciemment. Nous sommes moins doués pour le multitâche conscient (comme parler au téléphone quand nous conduisons) en raison des limites de l’attention consciente. À mesure que nous acquérons des compétences, ces compétences requièrent de moins en moins d’attention consciente (…). Conduire un véhicule nécessite de fortes capacités à être multitâche de prime abord, mais cela devient beaucoup moins difficile parce que notre capacité à être multitâche se déplace avec le temps.

Mais Schirrmacher a bien raison de s’inquiéter des conséquences d’une base de connaissances numérisées universellement disponibles, surtout si elle concerne les prévisions de ce que les gens vont faire. (…) La découverte de l’omniprésence des influences situationnelles pour tous les principaux processus mentaux de l’homme nous dit quelque chose de fondamentalement nouveau sur la nature humaine (par exemple comment notre fonctionnement est étroitement lié et adapté à notre environnement physique et social notamment). Il supprime le libre arbitre qui génère les choix et les pulsions comportementales, les replaçant dans le monde physique et social, sources de ces impulsions.

La découverte qu’il est facile d’influencer et de prédire le comportement des gens est désormais exploité comme un outil de recherche parce que nous savons que nous pouvons activer et étudier des systèmes psychologiques humains complexes avec des manipulations très simples. (…) C’est parce que ces études sont relativement faciles à réaliser que cette méthode a ouvert la recherche sur la prédiction et le contrôle du jugement et du comportement humain, et l’a démocratisé (…). Cela a produit une explosion de la connaissance des contingences des réponses humaines à l’environnement physique et social. Et je m’inquiète comme Schirrmacher, parce que nous construisons si rapidement un atlas de nos influences inconscientes que nous pourrons bien les exploiter via des dispositifs de calculs toujours plus rapides alors que les connaissances s’accumulent à un rythme exponentiel.

Je me connais donc je suis… et c’est tout !

Plus le Web – cette vaste “base de données des intentions”, comme l’a brillamment appelé John Battelle – croît, plus il est difficile de discerner si ces intentions sont les nôtres ou pas, conclut avec raison Nicholas Carr.

Heureusement, tout le monde ne partage pas ce pessimisme. Nick Bilton, professeur à l’université de New York, designer pour le New York Times, répond :

Je suis profondément perplexe devant les penseurs intelligents et novateurs qui pensent qu’un monde connecté est nécessairement un monde négatif. (…) Ce n’est pas notre peur de la surcharge d’informations que fait tergiverser nos égos, mais la crainte que nous soyons en train de manquer quelque chose.

Qu’est-il important ou pas de savoir demande Frank Schirrmacher ?

La réponse est claire et pour la première fois dans nos existences, l’internet et la technologie la rendent possible, estime Bilton : c’est l’importance de l’individualisme. Ce qui est important pour moi ne l’est pas pour vous, et vice-versa. Et l’individualisme est l’incarnation du libre arbitre. Le libre arbitre n’est pas un moteur de recommandation, n’est pas un algorithme de Google ou d’Amazon : c’est la capacité de partager nos pensées et nos histoires avec qui souhaite les utiliser pour que nous puissions en retour utiliser les leurs. Ce qui importe c’est notre capacité à discuter et présenter nos points et de vue et écouter les pensées des autres.

La réponse est forte… mais peut-être un peu courte. En enregistrant toujours plus nos données, en nous permettant de nous documenter plus avant, ces systèmes renforcent certes notre individualisme, mais ils nous rendent aussi plus perméables aux autres, plus conscients de nos influences. Peut-être que cela permettra à certains de mieux y réagir… Mais est-ce que ce sera le cas de tous ?

Crédits photos cc FlickR : splorp, opensourceway, *n3wjack’s world in pixels.

Article initialement publié sur InternetActu sous le titre : “La capacité prédictive de nos systèmes socio-techniques va-t-elle tuer notre libre arbitre ?

]]>
http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/feed/ 17
Twitter, réseau social élitiste? http://owni.fr/2010/08/16/twitter-reseau-social-elitiste/ http://owni.fr/2010/08/16/twitter-reseau-social-elitiste/#comments Mon, 16 Aug 2010 10:24:48 +0000 Cyrille Frank http://owni.fr/?p=24862 La simplicité du principe et son extrême modularité font de Twitter l’outil de communication le plus personnalisable et le réseau social le plus puissant qui soit. C’est précisément pour cela qu’il ne séduira jamais les masses.

Une nouvelle étude d’Exact Target parue le 9 août 2010 montre que les utilisateurs quotidiens de Twitter sont aussi les plus actifs sur Internet.

• 72% publient sur leur blog au moins une fois par mois
• 70% commentent sur d’autres blogs
• 61% écrivent au moins une note produit par mois
• 61% commentent sur des sites d’info
• 56% écrivent des articles pour des sites tiers
• 53% postent des vidéos
• 50% contribuent aux wikis

Ces hyper-actifs ont trois fois plus de chances de charger des photos, quatre fois plus de chances de tenir un blog, et trois fois plus de chances de partager des notes et des critiques que l’utilisateur moyen d’Internet .

Or ces utilisateurs quotidiens sont une minorité, environ 15% si l’on en croît l’étude publiée par la société de conseil Sysomos début 2009. L’analyse qui portait sur l’activité de 11,5 millions de comptes Twitter sur les cinq premiers mois de l’année concluait que :

90% des messages sont produits par 10% des utilisateurs
93% ont moins de 100 abonnés
85% twittent moins de une fois par jour
50% n’a pas twitté dans les 7 jours

Donc, si Twitter a dépassé il y a déjà quelques mois les 100 millions d’inscrits, le site de micro-blogging est préempté par une élite sociale, en majorité professionnelle. Cela vaut aussi pour les célébrités qui se servent de l’outil servent à la manière des médias, pour gérer leur popularité et leur capital-image.

Twitter : le lego de l’égo

Twitter est l’Ikea informationnel, le site à monter soi-même, le légo de l’égo. A la base, ce n’est qu’une coquille vide, un réceptacle de flux qu’il faut construire patiemment, abonnement après abonnement, jusqu’à ce que sa time-line soit pleine d’infos pertinentes par rapport à ses goûts et curiosités propres.

Cette ultra-personnalisation de l’outil en fait tout l’intérêt mais également toute la difficulté car le processus de paramétrage de son flux est long et laborieux. Et c’est là que le bât blesse.

La masse des gens n’a ni le temps ni l’envie de se fader un puzzle de 1000 pièces en revenant du boulot.

D’autant que si l’oiseau bleu semble simplissime dans son principe, il est particulièrement inaccessible dans ses usages pour l’internaute lambda. Interface alambiquée, langage ésotérique (RT, hashtags, @, DM, FF), étiquette précise, besoin d’applications tierces (racourcisseurs d’url, clients…).

Le mythe de la personnalisation de l’info

Twitter témoigne du décalage entre le discours positiviste sur les technologies de l’info et la réalité des usages. On nous promettait grâce à Internet l’émergence des fameux contenus « à la carte », des informations sur mesure qui s’adapteraient à la personnalité de chacun. Puisque les outils le permettaient, la tendance suivrait.

Même illusion lors du déploiement du plan « informatique pour tous » de 1985 par le Premier ministre de l’époque, Laurent Fabius. Souvenez-vous de ces dizaines de milliers d’ordinateurs restés dans leurs cartons ou mal utilisés, faute d’avoir pris le temps de former les enseignants.

Même utopie lors de l’émergence des blogs et du web 2.0, dont certains voyaient le signe d’une nouvelle démocratie participative numérique.

Même égarement qu’à l’époque des promesses de démocratisation culturelle via les formidables bibliothèques du savoir en ligne.

Les technologies ne corrigent pas les inégalités


Toutes ces prédictions optimistes, portées par des geeks et une élite sociale auto-centrée, se sont brisées sur le réalisme des différences socio-culturelles. Pour bénéficier culturellement des innovations technologiques, il faut en avoir envie et il faut en avoir les moyens économiques (l’argent pour s’équiper), sociaux (l’entourage pour se faire aider) et intellectuels (la formation et l’éducation pour comprendre).

S’agissant de l’envie, l’appétence pour les nouvelles technologies est très dépendante du milieu socio-culturel d’appartenance. Le goût pour la connaissance s’apprend, la curiosité s’éduque que ce soit en matière alimentaire, en art ou en culture.

Ceci est très bien résumé par Eric Guichard docteur en sciences de l’information à l’Ecole des hautes études en sciences sociales (EHESS) :

« Mais entre ces possibles et la réalité, il y a une marge, voire un fossé. Et c’est là que la notion de literacy, ce mélange de culture et d’alphabétisme, prend son sens. L’activité intellectuelle s’acquiert souvent par apprentissage. Il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle. On voit mal comment la diffusion d’objets matériels permettrait de raccourcir ce délai d’apprentissage, si ces objets sont – comme il semblent l’être – plus des objets de consommation pure que des outils qui prolongent effectivement les processus d’écriture : on imagine difficilement savoir chercher un livre dans une bibliothèque si on ne sait pas lire, ou devenir mathématicien du simple fait qu’on s’est fait offrir une télévision numérique. »

Lire l’article entier ainsi que sa thèse

Facebook: l’anti-personnalisation


Le succès croissant de Facebook auprès du grand public témoigne du succès de la logique inverse : la fourniture d’un service « clé en mains ». C’est la logique du “push” qui prédomine. On reçoit des informations et sollicitations diverses plus qu’on ne va les chercher.

Ceci est cohérent avec l’usage récréatif de Facebook. Il s’agit de s’amuser entre amis et non de « se prendre la tête » avec un outil qu’il faut construire soi-même.

Cette anti-personnalisation est également en adéquation avec la fonction première de Facebook : renforcer la socialisation de ses membres. Pour se faire, l’outil valorise les comportements et opinions communes et pas celles qui se distinguent. D’où notamment l’apparition du bouton « j’aime » qui va dans le sens de cette cohésion pour ne pas dire uniformité sociale. En ce sens Facebook favorise davantage le collectif que l’individu, et pour caricaturer un brin, serait davantage de gauche quand Twitter serait de droite.

Twitter ne percera jamais auprès du grand public

Voilà pourquoi l’oiseau bleu est condamné à rester dans la sphère du BtoB ou à toucher une cible retreinte ultra-éduquée. Sauf à changer tellement son principe qu’il y perdrait son âme. Comme par exemple intégrer des éléments multimédia ou ne plus limiter le nombre de caractères.

Je rejoins sur ce point Cédric Deniaud qui nous explique sur son blog les cinq raisons pour lesquelles Twitter ne deviendra jamais grand public.

En revanche le principe du fil d’actu personnel  a déjà fait tâche d’huile puisqu’on le retrouve maintenant sur Facebook, LinkedIn et autre réseaux sociaux.

Mais la personnalisation poussée dans Twitter ou dans les agrégateurs de flux RSS les condamnent irrémédiablement à une certaine confidentialité d’usage. Du moins tant que les écarts socio-culturels n’auront pas été un tant soit peu limités en amont, par l’école, notamment.

Article initialement publié sur mediaculture

Illustration CC FlickR huangjiahui , ul_Marga

]]>
http://owni.fr/2010/08/16/twitter-reseau-social-elitiste/feed/ 78
Voilà, c’est fini http://owni.fr/2010/08/04/voila-est-fini/ http://owni.fr/2010/08/04/voila-est-fini/#comments Wed, 04 Aug 2010 07:38:37 +0000 [Enikao] http://owni.fr/?p=23777 Il y a quelques temps déjà, je listais ma surconsommation de médias et Philippe Couve venait glisser en commentaire un élément qui allait mettre un peu de temps avant de faire son chemin. Sur le moment, quand il a parlé de finitude, j’ai un peu déliré sur la tristesse de la finitude des choses. Quand on est curieux, quand on a une soif intarissable de savoir, quand on se désespère de rater tant de choses parce que l’on n’a matériellement pas le temps de tout ingurgiter (sans même parler de mâcher ni de digérer et d’assimiler), on peut concevoir que la finitude est davantage une tristesse qu’autre chose. Et puis on peut accepter la fin, voire la désirer pour telle. Il y a Gengis Khan pleurant sincèrement quand il n’eut plus de terres à conquérir, il y a les rôlistes qui pestent contre les systèmes qui bloquent toute progression une fois un certain sommet atteint, il y a ceux qui veulent toujours plus (« moar ! » lirait-on sur certains forums), il y a cette envie tenace du cran au-dessus, en quantité comme en qualité. Au final c’est peut-être bien une forme de caprice infantile. Schopenhauer a écrit des choses intéressantes à analyser mais sa théorie sur le malheur profond et insurpassable de l’homme est d’un rare enfantillage. Pour lui, nous ne pouvons connaître le bonheur car nous oscillons périodiquement entre désir inassouvi qui engendre en même temps la frustration et l’envie douloureuse qui n’a de cesse que d’être satisfaite, et par la suite l’ennui qui suit la courte période de satisfaction. Cet ennui dure jusqu’à la prochaine lueur de désir et jusqu’à la prochaine lubie. La roue tourne et on recommence.

La finitude est bonne, elle est souhaitable

Ce sont des foutaises de sale môme mal élevé, ou de toxicomane qui cherche la sensation suivante et gère son manque et sa tolérance. Si l’humanité était réduite à des satisfactions aussi basiques, sans pour autant qu’elles soient primales (l’objet du désir peut tout à fait être complexe, comme un coucher de soleil dans un cadre enchanteur, un sourire et un regard appuyé d’une personne chère, ou une jolie paire d’escarpins qui irait tellement bien avec le morceau de tissu italien ayant coûté un bras), alors nous ne serions pas bien différents de créatures, disons, plus sommaires. La finitude est bonne, elle est souhaitable. Manger alors qu’on a atteint un stade de satiété tout à fait correct, pourquoi pas si on satisfait une forme de gourmandise. Ou bien si l’on se gave pour des raisons sociales incontournables, par exemple si la grand-mère ne comprend pas que l’on ne reprenne pas une quatrième fois du plat qu’elle a préparé avec amour et demande insidieusement si on est malade ou si on n’a pas aimé. Boire un peu plus pour ressentir le effets de l’ébriété ou pour accompagner un toast, pourquoi pas. Faire des cochoncetés malgré une certaine fatigue physique parce que l’autre a encore de la réserve et qu’on veut lui faire plaisir, c’est tout à fait envisageable. Là encore tout est question d’équilibre. Hélas nous ne sommes pas dans une société qui prône la mesure. Le progrès se mesure en ratio, en pourcentages de progression (parts de marché, valeur des actions…), en rapidité accrue, en gain, en croissance, en taille plus compacte (miniaturisation dans l’électronique) ou au contraire en taille démesurée (pensons aux projets hôteliers à Dubaï). Davantage, c’est mieux. Moins, ça fait timoré, ça manque d’ambition, c’est presque suspect, c’est presque rétrograde. Dommage. S’arrêter a du bon. Un bon panneau stop pour ne plus faire un pas. Dire non à ce qui est superflu. Mesurer l’effort à produire pour l’étape d’après et juger que ce n’est pas nécessaire. Ni même satisfaisant. Couper les ponts de relations toxiques.

Lire sur des formats finis a changé quelque chose

Et voilà, j'ai fini ma revue. Je peux maintenant gratter mon chat.

Et voilà, j'ai fini ma revue. Je peux maintenant gratter mon chat.

Dans un domaine où la croissance est exponentielle comme l’information, il faut bien trouver son propre point d’équilibre si on ne veut pas simplement disjoncter, le cerveau encombré de flux qu’il n’arrive plus à traiter dans le peu de temps qu’on lui accorde. Ou bien fixer arbitrairement une limite. Étant parti quelques jours dans une île, et ne tenant pas à engloutir le budget annuel de l’Angola en connexion 3G, j’ai fait le plein de livres et de magazines. Ne pas se connecter pour lire en ligne et lire sur des formats finis a changé quelque chose. Une part de stress s’est évaporée : pas de liens contextuels (quelques URL ici et là dans les magazines, bien sûr, mais pas tant que ça), par de « pour aller plus loin », pas d’articles en rapport. Une fois qu’on est arrivé au bout de son journal, on commande une autre boisson et on plie. Ou on relit un encadré, ou on revient sur une page que l’on a passée sans la lire. Mais on arrive au bout de quelque chose. Il n’y a pas d’après, et c’est appréciable.

La fin, c’est ce qui permet de regarder en arrière

C’est quelque peu difficile à expliquer car la sensation est diffuse dans sa puissance autant que répandue et enveloppante, mais il y a là le sentiment du travail accompli. C’est littéralement que l’on tourne la (dernière) page. L’acte n’est pas en suspens, ce n’est pas un flux temporairement retenu par un barrage jusqu’au prochain moment de connexion. C’est un acte isolé, complet, qui se suffit à lui seul, du moins dans l’espace-temps qui lui est alloué. C’est peut-être là-dessus que misent les concepteurs de magazines électroniques sur plateformes mobiles comme l’iPad. Le moindre site de média en ligne est une mine sans fond : le contenu accessible et les liens à explorer sont riches, mais peut-être trop pour celui qui a la tentation du clic. Alors que le magazine numérique, celui qui est vraiment multimédia et pas un simple PDF, embarque des contenus sonores, vidéo, des liens potentiels, mais apporte également la finitude. La fin, c’est ce qui permet de regarder en arrière. C’est ce qui donne tout le temps nécessaire au bilan, à l’analyse, à la satisfaction pleine et entière de ce qui a été accompli. Quitte à ce que la conclusion soit un recommencement ultérieur, sur d’autres bases ou à l’identique : il y a de petites fins, et des fins définitives. Savoir imposer une fin est un bon coupe-faim quand celle-ci devient gloutonne, immodérée et grotesque. D’ailleurs, il est temps d’achever ce billet. Fin. — Billet initialement publié chez [Enikao] Image CC Flickr caribb et postaletrice

]]>
http://owni.fr/2010/08/04/voila-est-fini/feed/ 6
Vers un web sans sites web http://owni.fr/2010/05/03/vers-un-web-sans-sites-web/ http://owni.fr/2010/05/03/vers-un-web-sans-sites-web/#comments Mon, 03 May 2010 14:51:59 +0000 Thierry Crouzet http://owni.fr/?p=2390 Les sites web ont été imaginés pour stocker des informations et les afficher à travers des navigateurs. Ce fut une révolution, notamment grâce à l’hypertexte décentralisé, mais aussi une façon de traduire à l’écran ce que nous connaissions sur le papier.

Il suffit de voir à quoi ressemblent encore les sites des journaux (où même les blogs): à des journaux traditionnels ! Très loin du look Google ou des services 2.0 les plus avancés. On reste dans l’ancien monde de Gutenberg.

Le web s’attachera-t-il longtemps à ce passé poussiéreux ? Je ne crois pas. Le web 3.0 n’existera jamais. Le web n’était qu’une étape transitoire, une façon de porter vers le numérique ce dont nous disposions déjà, un nouveau monde, certes, mais attaché à l’ancien monde. Incapable de vivre sans lui (d’où le problème du piratage qui n’est autre que le phagocytage de cet ancien monde).

flux

Ce que nous avons appelé le 2.0 n’était pas une révolution du web mais l’arrivée massive de services. Nous avons inventé notre boîte à outils : coopération, diffusion, recherche, agrégation… Ces outils nous aident à manipuler l’information et à la faire circuler.

Notre fusée peut maintenant lâcher son premier étage qui jadis la connectait au sol. Elle s’élève vers quelque chose de neuf, un cyberspace dans l’esprit de Gibson, un univers de flux qui se croisent et s’entrecroisent, s’éclairent mutuellement, se dissolvent, se reconstruisent ailleurs… phénomène évoqué par Nova Spivack.

L’idée d’un lieu de lecture privilégié et monétisable, le site web, est révolue. Nous avons des sources d’informations, les blogs par exemple, qui propulsent l’information pure dans le cyberspace. Puis elle circule, s’interface, se représente, se remodèle. Elle n’a plus une forme donnée, une mise en page, mais un potentiel formel qui peut s’exprimer d’une infinité de façons. Je me moque de la forme originelle quand je lis sur un agrégateur, éventuellement ouvert sur mon mobile.

Nous allons sur le web pour publier, régler nos tuyaux à flux, les brancher les uns sur les autres, les combiner, les croiser, les filtrer, les comparer… Nous y affutons notre moteur et puis notre vie numérique se passe ailleurs. Dans notre desktop, nouvelle génération de navigateur, sorte de récepteur de flux, où tout se combine et prend forme.

La fin du web, l’âge des propulseurs

Les sites deviennent des bases de lancement. Nous n’avons plus besoin de les visiter. Ils ont leur importance, tout comme celui qui parle a de l’importance, mais nous n’avons aucune raison de nous trouver en face de lui pour l’entendre. Nous pouvons le lire ailleurs, l’écouter ailleurs, le voir en vidéo ailleurs…

Cette pratique est à vraie dire fort ancienne, familière au monde de l’édition. Pour un texte, la forme est transportable, c’est la façon dont les idées et les scènes s’enchaînent, dont elles sont rendues, écrites… Le fond et la forme font bloc. La mise en page est une forme supplémentaire qui, le plus souvent, intervient en fin de chaîne. D’une manière générale, un même texte est lisible de plusieurs manières au fil des éditions (cartonné, souple, poche, luxe…).

Dans le monde des flux, comme dans celui de l’édition, la forme finale garde une grande importance mais elle n’est plus gérée à la source. C’est le desktop qui agrège les flux, se charge du rendu. Suivant les desktops, nous aurons des philosophies différentes. Des templates s’y grefferont. Tout changera encore en fonction du device de lecture (ordinateur, téléphone, reader…).

Un modèle que nous croyons stabilisé, celui du web, s’écroule. Il restera peut-être des boutiques, des points localisés d’interface avec la réalité matérielle, mais pour tout le reste, pour tout ce qui est numérisable, le point d’entrée localisé n’a plus aucun sens. L’information sera partout, dans un état d’ubiquité et de fluidité. Les liens se réorganiseront dynamiquement, bidirectionnellement, un peu comme les signaux dans un cerveau.

Le web ressemblait au monde de la presse. Le flux ressemblera au monde du livre, un monde où les livres seraient vivants, où chaque mot pointerait vers d’autres livres, où chaque phrase engendrerait des conversations avec l’auteur et les lecteurs. Ce n’est sans doute pas un hasard si de nouveaux readers voient sans cesse le jour en ce moment même. Nous devons pouvoir incarner le flux où que nous soyons.

Nous allons pousser des données dans le flux global. Certains d’entre nous se conteront de régler la tuyauterie, d’autres d’envoyer avec leur blog des satellites en orbite géostationnaire, d’autres de courts messages microblogués, juste des liens, des sourires, des impressions pendant que d’autres expédieront des vaisseaux spatiaux pour explorer l’infini, des textes longs et peut-être profonds.

Le temps des propulseurs est venu.

Notes

  1. Auteur, blogueur, éditeur, commentateur, retwitter… sont des propulseurs. Le consommateur passif est en voie de disparition. Si j’aime quelque chose, je le dis, donc je propulse.
  2. Dans la logique du web actuel, un éditeur ne diffuse dans ses flux RSS que les résumés de ses articles. Le but étant de renvoyer du trafic à la source.
  3. Dans la logique des flux, brider en sortie le flux RSS est une absurdité puisque la source n’est qu’un propulseur. Brider revient à refuser d’être lu. Plus personne n’aura envie d’aller visiter le propulseur.
  4. Tous les sites médias brident leurs flux pour tenter de préserver l’ancien modèle publicitaire. Alors qu’ils survivent avec difficulté sur le web et envisagent presque tous de revenir au modèle payant, un monde plus radicalement éloigné du leur apparaît. J’anticipe des jours de plus en plus sombres pour l’industrie de la presse.
  5. Les journaliste qui deviendront des propulseurs s’en tireront. Ils apprendront à régler la tuyauterie. Nouvelle génération de plombiers.
  6. Reste à inventer les outils de statistiques adaptées aux flux, comme les outils de monétisation des flux. Mais ceux qui attendront ces outils pour changer de paradigme seront une nouvelle fois laminés.
  7. Peut-être que la monétisation s’effectuera au moment de la lecture sur le modèle iTune. Je vois l’intérêt pour une œuvre originale, par exemple la nouvelle de Gwen, mais quel intérêt pour une news reprise partout sans guère de variation ?
  8. J’aime Twitter parce que c’est une technologie de lifestream qui révolutionne le web et nous fait enter dans l’ère des flux. J’aime Twitter parce qu’il devient un protocole auquel nous donnent accès des applications tierces. J’aime Twitter parce que je ne vais jamais sur Twitter. Je ne devrais même plus parler de Twitter mais uniquement d’une Federal Public Timeline. Elle m’aide à propulser mes textes et mes idées passagères dans le cyberspace naissant.
  9. Le cyberspace nait aujourd’hui même. Le web restait dépendant de l’ancien monde matériel. Voilà pourquoi les marchants ont été les premiers à s’y épanouir.
  10. Nous devons générer les flux avec nos outils, les mixer avec nos outils. Les flux doivent circuler et n’appartenir à personne sinon à leurs propulseurs respectifs. Nous sommes encore loin d’en être là mais c’est la direction. Un web où les sites s’effacent au profit de ce que nous avons à dire et à échanger.
  11. Ainsi Twitter devra être remplacé par un protocole décentralisé et robuste. Les développeurs y réfléchissent.
  12. C’est à Mozilla de devenir un desktop pour agréger tous les flux. Seesmic et cie ont peu de chance de se tirer d’affaire.
  13. Notre identité numérique sera concentrée sur notre point de propulsion, c’est là qu’elle s’incarnera, c’est de là qu’elle essaimera dans le cyberspace.
  14. Je crois aussi que le point de propulsion doit être open source, pour que notre identité n’appartienne à personne. WordPress est le meilleur point actuel. Mais sans doute trop marqué par son passé blog. Il faut un outil ou des outils capables de gérer tous les types de propulsion possibles.

_

Article: Texte initialement publié sur Le peuple des connecteurs

]]>
http://owni.fr/2010/05/03/vers-un-web-sans-sites-web/feed/ 2
Web de flux : j’arrose donc j’attire http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/ http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/#comments Wed, 21 Apr 2010 17:00:42 +0000 Martin Lessard http://owni.fr/?p=12795 Billet initialement publié sur Zéro seconde sous le titre “Vivre dans des flux”
Photo CC Flickr skittzitilby

Photo CC Flickr skittzitilby

La popularité d’un blog est-elle uniquement liée à l’abondance de ses écrits ? La chercheuse Susan Jamison-Powell (Sheffield Hallam University) trouve que le facteur déterminant est le nombre total de mots écrits par la personne durant la semaine. Pas la qualité de ses écrits. (via L’Atelier).

En observant soixante-quinze blogueurs (anglophones) sur livejournal.com, elle a trouvé que plus on écrit, plus on a de lecteurs (étude en résumé, anglais, PDF).

La quantité et la régularité sont deux facteurs importants pour s’attirer une « popularité » (La Tribune de Genève avance même que la régularité compte moins que la longueur).

Clay Shirky dans « Les Lois du pouvoir, les blogs et l’inégalité » (« Power Laws, Weblogs, and Inequality») avait déjà constaté en 2003 que « les blogs les plus populaires sont ceux mis à jour quotidiennement et surtout que la popularité d’un blog ne se décide pas, mais résulte “d’une sorte d’approbation distribuée émanant des autres blogues. » (lien via Emily Turrettin, Les Quotidiennes).

L’étude n’est peut-être pas si surprenante en fin de compte : écrire est le seul vecteur d’influence (le non-verbal est absent), il y a donc une surpondération pour un usage accru de l’écrit.

Ce qu’il y a de nouveau, c’est le développement de tout cet écosystème autour de la surabondance de l’écrit.

Nous entrons dans un monde de flux

On assiste à la fois à une comptabilisation de la « popularité » (on mesure de l’audience et non la notoriété de l’émetteur) et à une redéfinition du contenu de qualité sous une forme de « flux quantitatif »

« Les flux font se succéder rapidement des séquences d’information sur un thème. Il peut s’agir de microblogs, de hashtags, de flux d’alimentation RSS, de services multimédias ou de flux de données gérés via des APIs. » disait Nova Spivack (source Archicampus.net)

« Cette métaphore est puissante. L’idée suggère que vous viviez dans le courant : y ajoutant des choses, les consommant, les réorientant », disait danah boyd (source “Streams of content, limited attention : the flow of information through social media“, cité et traduit par Hubert Guillaud, InternetActu).

On a maintenant la possibilité de créer, mixer, remixer, relier, hyperlier et diffuser tous les contenus y compris les siens, mélangeant autorités et autoproduction. La chaîne de distribution de l’information traditionnelle déraille et de nouveaux acteurs émergent grâce à de nouvelles règles.

Dans ce contexte, les plus gros « arroseurs » reçoivent une plus grande attention. C’est un jeu de visibilité qui ressemble à un jeu à somme nul. Si je suis plus vu, tu l’es moins. L’attention se dirige vers ceux qui ont le clavier agile et prolifique.

« En offrant la même audience à chacun, on distribue le pouvoir d’attention à tous » écrivait Hubert Guillaud. Mais la redistribution de l’attention vers les « plus populaires » devient une pression quotidienne qui est un véritable ticket modérateur pour les blogueurs. Entre qui veut, mais reste qui peut.

Ratio « placoteux »/« élite »

« Il ne faut pas non plus noyer les lecteurs», ajoute Christophe Thil, interviewé dans l’article de L’Atelier il est essentiel de veiller à la pertinence des articles que l’on publie. [...] on évite le bruit [...], un blogueur qui vous submerge d’informations risque fort de perdre en audience ».

Vrai. Mais je crois que l’on fait fausse route en conservant une pensée de « destination » et non de flux. Les journaux et les émissions de télévision se pensent encore comme des destinations. Or, dans une économie de flux, il n’y a pas de « destination ». Ou plutôt c’est un concept fluctuant. Les liens renvoient toujours ailleurs.

Nous assistons à une « décentralisation tous azimuts » où le pouvoir est transféré en « périphérie » — où on assiste à la montée en puissance des noeuds d’un réseau condamné à « écrire » pour exister. On pourrait aussi dir e: c’est plutôt un rééquilibrage des ex-sans-voix.

L’élite d’ailleurs ne s’y trompe pas et traite de « communauté de placoteux »* ces hordes de sans-culottes qui dévaluent la parole en inondant le marché de mots au rabais. C’est une des conséquences navrantes de l’alphabétisation des masses : l’écrit s’est démocratisé pourrait-on les entendre dire.

Savoir profane

La recherche, l’acquisition, la transformation et la diffusion du savoir passaient autrefois par le transport et hier les médias de masse. Le flux est aujourd’hui en mesure de modifier la nature même du savoir, sa consommation et sa production.

Oui, on suit ceux qui écrivent beaucoup, car leurs flux de billets créent un continuum qui ressemble le plus au flux de la vie, où les récits gagnent en instantanéité tout en évitant cette élite qui s’interposait jadis entre nous et ce qu’elle décrivait.

Oui, on écrit beaucoup, mais on peut s’inscrire dans les flux, converser et réalimenter à notre tour ce flux pour d’autres.

Consommer pour comprendre, produire pour être pertinent comme le disait si brillamment danah boyd.

(929 mots – ça me classe où cette semaine ? ;-)

*Pour les Nathalie Petrowsky qui pensent que les blogueurs dorment au gaz (parce qu’ils n’ont pas fait des « ripostes cinglantes » à Madame Bissonnette), j’ai beaucoup écrit sur le sujet en 2005 et 2006. Rien de cinglant. Juste du sensé. Mais c’est derrière nous, maintenant.

La blogosphère et les médias
Internet est un amplificateur de phénomène
Il faut le downloader pour le croire
Blogueurs, journalistes, même combat
Déformation pouvoir-professionnelle
Développement du savoir profane
La société des chroniqueurs
10 facteurs de crédibilité pour votre site web
Le problème du filtrage de l’information sur Internet
Qui croire quand informations et connaissances circulent librement ?

]]>
http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/feed/ 1
Prométhée ou le cyberprof ? http://owni.fr/2010/03/24/promethee-ou-le-cyberprof/ http://owni.fr/2010/03/24/promethee-ou-le-cyberprof/#comments Wed, 24 Mar 2010 17:25:24 +0000 Stéphane Favereaux http://owni.fr/?p=10760 4322950834_2d6ca225fb

Autre temps, autres mœurs

Si une très grande majorité des établissements scolaires et d’enseignement privé sont connectés au Net, il n’en reste pas moins vrai que la puissance de l’outil que l’on met entre les mains des élèves reste phénoménale par rapport aux capacités d’appréhension de l’information, de la gestion des flux et du recul critique nécessaire qu’il faut avoir quand on a la « tête dans le flux » (@sabineblanc, @LeGuillaume) !

Tout étudiant normalement constitué est, d’un point de vue générationnel, web-addict ; mais cette réalité dissimule des états de fait forts différents. Hormis l’anecdote d’étudiants en permanence connectés à Facebook en cours quand le wifi local le permet, il est patent que l’enseignement doit permettre à ses ouailles d’avoir accès à un vrai recul critique. Pour ce faire, il est préférable d’envisager un enseignement privilégiant l’accès à une culture plurivalente, multiaxiale et multi-médiatique plutôt qu’à des digests appris et bredouillés vaguement devant un jury.

Et se pose la question d’« apprendre par cœur » sur laquelle sans être catégorique, nombre de questions se posent.  Cet apprentissage séculaire reste pour certains une nécessité sans laquelle rien ne peut avoir lieu. Toutefois, modérer cet apprentissage « par cœur » serait pertinent alors que l’appréhension du savoir varie à l’envi ces dernières années.

Accéder au savoir… développer la curiosité… vaste utopie quand on appréhende l’aspect strictement consumériste de certaines classes.  L’imaginaire de l’éducation a tellement fabriqué le prof « parole d’évangile et image d’Épinal » qu’il existe une relative schizophrénie estudiantine oscillant entre l’enseignant et le Net, entre Docteur Prof et Mister Web.

La remise en cause de la parole des profs devient légion. Le recul que les étudiants, les profs, doivent prendre face à l’info, au flux, n’est que trop rarement abordé pour qu’il devienne absolument pertinent. Il faudrait pourtant systématiser cette approche du savoir via le Net pour développer  justement l’appréhension des flux, la prise de distance face à la parole donnée par le prof ou par le Net.

Quand l’enseignant face à une classe connectée donne une thématique de cours, apprenants (sémantique éducation nationale), élèves ou simplement humains présents dans une classe, foncent sur le cyberprof Google et cherchent en prenant les quelques premiers liens de la recherche comme un nouvel évangile consommé d’un savoir trouvé donc appréhendé.

Docteur Prof et Mister Web ?

Little Penguin is watching you

Little Penguin is watching you

Comment gérer en amont un cours où une majorité d’élève s’arrogent le droit de ne plus prêter attention au message transmis par le prof bénéficiant de son propre recul, de sa propre expérience sur la question abordée ? Comment appréhender un cours où le timing est faussé par avance ? Comment faire comprendre à des étudiants pour lesquels il faut aller vite et zapper sur un autre sujet, la nécessité de la patience dans les apprentissages ? Comment faire en sorte de maintenir l’attention des élèves quand au bout de quelques minutes toute la classe est au fait de l’ensemble du cours parce le nouvel évangile du savoir Google a donné les réponses ?

Ces questions soulèvent la question essentielle de l’appréhension de tout un stock d’informations que la prise de recul critique sait mettre en perspective. Les étudiants peuvent l’appréhender, à l’évidence, mais sans forcément avoir en eux les armes permettant de démêler les écheveaux de sens que le flux leur donne.

La contextualisation de l’information, du savoir est absolument nécessaire, mais elle n’est pas toujours acceptée, comprise, désirée. Elle devient inutile. Sur un thème donné, des réponses Wikipédia, ou de quelque autre source, suffisent en général aux étudiants les plus consommateurs.

Pourtant, les outils à notre disposition : Reader, Twitter, les Wiki, les forums d’étudiants déversant des cours ou des devoirs clé en main, ou d’autres encore, imposent à ceux qui les utilisent un devoir quasi journalistique systématique. Vérifier l’info, la confirmer, l’infirmer par des sources divergentes, convergentes, permettant de donner à l’info une validité réelle s’avère toujours plus nécessaire.

Or, quand les profs n’apprennent pas aux élèves, aux étudiants, à faire ne serait-ce qu’une recherche sur Google… il n’est en rien étonnant de les voir cliquer sur le premier lien ou le second et les considérer comme LA réponse à leur recherche. Ils sont les victimes de cet état de fait plus qu’ils n’en sont les coupables.

On ne leur a pas toujours appris à devenir curieux. Ô tempora, Ô mores.

L’info à la portée d’un ou deux clic, c’est une potentielle désinformation devenant vérité ; c’est donner au potentiel le poids d’un absolu.

Google, le nouveau Prométhée ?

Connecté ou pas, mac ou PC, un prof reste un prof

Connecté ou pas, mac ou PC, un prof reste un prof

Prométhée s’incarne dans la mythologie du 2.0… mais nul foie rongé en l’occurrence.  Juste des étudiants parfois perdus, des scolaires souvent plantés devant des écrans sans réel apprentissage… Le prof 2.0 que devient le Net avec toute la permissivité créatrice de l’outil devrait leur donner accès non pas au savoir mais aux savoirs… devrait leur permettre d’étendre leurs connaissances de façon exponentielle… Mais face à la génération Z hyper connectée et zappeuse au possible, la prise en compte de la réactivité du web n’est pas encore tout à fait au goût du jour.

Le zapping télévisé donne le « la » de ce zapping étudiant. Le prof se voit obligé de “teaser”, d’adapter des stratégies d’intrigue face au savoir. Le storytelling devient une manière de faire son cours. On sort les élèves de leurs écrans, on réintègre des savoirs dans  l’anecdote, on contextualise en douceur, on apporte des réponses à des questions qu’ils ne se posent pas, et on avance.

On « wiki-ise » le cours, on passe ensuite en phase de reveal pour arriver à reconnecter toutes les informations données dans un contexte qu’ils peuvent appréhender : le leur.

La transversalité créative chère à Morin impose aussi que les enseignements soient transversaux, d’une matière à l’autre, mais aussi et surtout de la matière purement scolaire à la société dans laquelle nous vivons. Mais celle-ci, accompagnée de son flux d’info, va tellement vite, ne prend tellement plus le temps de poser la réflexion, que les étudiants forts de savoirs parcellaires ne peuvent plus appréhender tout ce qui les entourent. Penser en ligne droite d’un point A à un point B est devenu légitime. Penser en ayant en tête une arborescence impliquant tous les tenants et aboutissants d’un fait historique, littéraire, sociologique, psychologique, d’actualité, devient toujours plus délicat. C’est pourtant absolument nécessaire.

Un cours sous Net-influence se transforme toujours plus en un échange entre prof et prof 2.0, entre le savoir et l’information. Dans l’enseignement, la responsabilité sociale, citoyenne, est phénoménale. Donner aux générations de zappeurs des outils d’appréhension sociale, citoyenne, politique, culturelle, se révèle toujours plus essentiel quand le zapping et le formatage se permettent de jouer avec la réflexion.

La mise en perspective de l’enseignement se confronte donc toujours plus à la mise en abîme du savoir disponible sur le Net. Ce qui devait être un avantage phénoménal pour les enseignants devient souvent  inconvénient majeur. Entre savoir et maîtriser les savoirs et ce qu’ils impliquent, un fossé se creuse. La nécessité d’apprendre se confronte de plus en plus souvent à cette réflexion: « apprendre n’est guère utile puisque nous sommes toujours connecté au Net, de fait nous avons un accès au savoir constant ». Accéder au savoir semble devenir une preuve de savoir. Le web serait-il une forme de mémoire 2.0 ? Une culture générale potentielle et disponible serait-elle suffisante ? Le temps de cerveaux disponibles en cours se réduisant toujours plus, devrait-on penser en termes de cerveaux potentiels ?

]]>
http://owni.fr/2010/03/24/promethee-ou-le-cyberprof/feed/ 3
#huisclosnet ou la théorie du serpent qui se mord la quéquette http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/ http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/#comments Thu, 04 Feb 2010 15:27:41 +0000 Emgenius http://owni.fr/?p=7666

Ainsi donc, la crème, le gratin, le überpanier de la presse francophone vient de rentrer dans un loft africain situé au beau milieu du Périgord. Ceci afin de prouver que ces oies blanches numériques…. ben pour prouver quoi en fait….

1) option 1: Prouver que la vie c’est trop bien avec Twitter et Facebook et qu’on n’est vraiment que des gens trop négatifs à encore acheter des magazines et des journaux quand il suffirait de quelques réseaux sociaux super informés pour qu’on satisfasse notre boulimie informative…. Mouais j’ai un doute quant à penser que les radios francophones jouent à se tirer une balle dans le pied

2) option 2: Prouver que la vie avec Twitter et facebook c’est super bien, mais que rien ne vaut quand même un bon journaliste qui trie l’info valide ses sources et est capable de fournir une information de qualité LUI. AAAh là je crois que je peux comprendre qui finance cette expérience.

3) Option 3: Nour-Eddine Zidane ça faisait super longtemps qu’il avait envie de voir son pote belge alors il a monté un gros pipeau avec quelques potes pour s’enfermer dans un gîte à la cambrousse à fumer des clopes et boire des glutes. Et même tiens chiche, qu’on est capables de se faire rembourser le TGV de David Abiker…. Moi c’est le postulat qui me convainc le plus.

Parce que sérieusement…. Comme l’a très bien résumé Damien Van Achter (que je léchouille langoureusement ici) on ne peut pas parler de “Twitter” et “Facebook” comme de médias à part entière. Ce sont des vecteurs de médias. C’est ce constat de base, compris de tout twittonaute, qui semble avoir fait défaut aux promoteurs de l’émission très très médiatisée (en gros c’est la ferme de TF1 à la sauce Radio francophone)

Je ne comprends pas à quoi sert ce genre d’expérience. Finir la semaine au pays des oies  en déduisant “le net c’est bien mais c’est brouillon, heureusement qu’il y a des journalistes pour dépiauter l’actualité” a un côté “rétro” qui me choque. (quoique si on me paie une semaine à Péta avec ma famille je dois pouvoir arriver à la même conclusion). C’est le genre d’analyse qui conduit à la duplication perpétuelle des mêmes modèles de communication, motive le pré-carré de la presse payante dite “sérieuse” face aux internautes tocards, et permet d’éviter de se poser n’importe quelle question liée à la valeur du travail du journaliste dans le monde futur ou de l’intérêt même de l’organe de presse face à une montée éventuelle des “identités référentes et crédibles”. Quoi? tu doutes lecteur? tu penses que les journalistes enfermés n’ont pas ces “basses” motivations? Je te le prouve. Avec l’esprit provoc qui me caractérise, j’ai balancé à Nour-Eddine  en réponse à une question qu’il se posait suite au bruit consécutif au BOUM de Lille qu’il suffisait de relayer un bruit et que de toutes façons les journaleux, qui sont avertis par le même bruit, font ensuite le tri… pour me retrouver cité dans la chronique du journaliste, que par ailleurs je salue. C’était trop trop simple de manipuler un journaliste… il suffit de lui dire ce qu’il veut entendre ;-)

Alors oui c bien mais il en pense quoi l’Emgenius.

Ben plusieurs choses:

- 1/ que tout le monde entend parler de Twitter et facebook grâce à ce genre d’initiative.

Maintenant, avec le battage sur ces deux noms, genre même les têtes grises qui écoutent Stéphane Bern associeront nouvel internet à Twitter et Facebook. Quelque part c’est bien. Et c’est pas bien. C’est bien parce que maintenant tu peux dire en entretien d’embauche “oui je maîtrise les techniques de la gestion de communauté et d’information sur les réseaux facebook et Twitter” et comme il n’y a encore ni école, ni métrique; pour peu que tu te touches le menton en même temps avec un air salace, tu peux attraper un poste de community manager chez Areva. Qu’importe si tu es bon ou mauvais, efficace ou pas. Personne ne comprend encore vraiment le bénéfice qu’il y a à en retirer, tout le monde comprend qu’il “faut y être” ne fut-ce que pour pas apparaître plus ringard que les radios francophones ou que son voisin et pour avoir l’air d’une marque de jeune.

- 2/ qu’il y a encore un sacré boulot de pédagogie à faire dans les rédacs.

a) Euh les gars… personne ne se contente de Twitter et facebook pour l’analyse de l’info. A ce compte, Johnny Depp serait mort plusieurs années consécutives dans un accident de la route, parallèle à une explosion de Lille provoquée par Sim qui n’est pas mort lui dans l’incident; puisqu’il a été vu bras dessus bras dessous avec Michael Jackson dans une ruelle de Nancy.

b) Oui pourtant, au vu notamment des chroniques que j’entend de vous 5 sur les chaînes partenaires, vous arrivez à avoir une vue plus ou moins identique à nous autres, lambdas, qui arpentons le web et mangeons vos JT… ou qui lisons 20minutes dans le métro et regardons Morandini sur Direct8 (citer Morandini c’est bien, parce que ça énerve un journaliste en général). En fait on aurait du vous priver de smartphone, de journaux et de potes sur Twitter… Là ils auraient vu les internautes que c’est dur de trier une information…)

=> Monsieur Michu à la limite… il s’en tamponne de savoir si L’INFO elle provient d’un torchon pondu par des non journalistes sous payés, des blogueurs asservis, des lobbyistes patentés ou du cerveau d’un SciencePo maniaque de la plume. Et comme vous venez de le constater, ils arrivent à suivre “le fil d’info du monde”

=> La mission des médias dits “sérieux” avec pignon sur avenue ne devrait du coup plus être l’iINFORMATION (pour ça on peut s’en sortir tout seul ou avec des publireportages) mais bien le traitement de l’information, son ANALYSE, son déchiffrement, ses dossiers de fond, ses arcanes, ses coulisses se méandres. Or et c’est là un débat qu’on évoque assez peu dans vos expériences… les médias n’ont plus ou pas le temps de se prêter à ce genre d’analyse. Oui je sais ça fait mal à entendre. N’ont plus le temps, l’économie ou l’envie de garder un langage expert qui épaterait les bouffeurs de dépêches sous payés par les “Gratuits” autant que le Retwitter fou d’info au kilomètre. Quoi? #Merilestfou es-tu prêt à te dire… Pourtant j’affirme ce que je dis. Je me souviens avoir lu que la reine Fabiola était décédée, parce que l’agence Belga l’avait dit dans les dépêches… CQFD. Non? Essaye encore. Il est un domaine que je connais bien, puisqu’il m’emploie depuis près de 10 ans: la téléphonie mobile. Quand il m’arrive de lire un journal officiel évoquant une nouvelle technologie mobile ou high tech… je me surprend souvent à me dire que franchement le journaliste derrière n’a pas du avoir beaucoup de temps pour pondre son papier, pour se documenter, vulgariser. Et que pour un Walt Mossberg ou une Marie-Christine Beuth, il y a un paquet de gratte-papier qui sont eclipsés par des billets de qualité, spécialisés, produits par des blogueurs émérites, sur le sujet. A titre d’illustration on pourrait citer les multiples articles pro-Ipad lus récemment dans la presse (prompte à bénir un appareil qui propose un modèle économique pour la presse) écrits par des journalistes adeptes du POMME Q. Sérieusement j’ai lu bien plus d’analyse, de prospective, de réflexion pondérée sur moult blogs sérieux.

c) vous opposez perpétuellement Internet vs Journalistes comme s’il s’agissait de deux mondes imperméables… Or… C’est loin d’être le cas. Je n’ai pas encore lu d’étude qui en parle, mais je suis prêt à parier que dans la portion congrue de personnes qui produisent du contenu pour “le web” à destination de cette masse consommatrice que représente le reste du monde connecté: il y a un paquet de pigistes, de red chefs, de spécialistes des médias. Pour un Henry Michel combien d’Alex Hervaud?  On ne se refait pas. Quand on a décidé d’écrire pour vivre, c’est en général une passion qui devient un métier. On est d’abord communiquant avant de devenir journaliste. Du coup, à moins d’interdire à tout journaliste en exercice de produire des blogs persos, de travailler sous un pseudo sur le net… Il y aura toujours de Internautes infiltrés dans le monde des Journalistes (ça fait très CIA ma démonstration). Berk c’est sale.

Et que plutôt que de lutter, il vaut mieux non seulement s’en servir mais utiliser à la fois comme source à vérifier pour la remontée de dépèche avant la dépèche mais aussi comme méthode, technologie, outil de médias plus’ en prise avec le monde dans lequel ils vivent, plus globaux, plus réactifs et proches des “jeunes”. Pour illustrer mon propos par un a contrario je me permets de citer en me gaussant de l’expérience Fillon vs Twitter menée récemment par Europe 1 où le premier ministre n’a pas répondu à une seule question remontée par le hashtag # spontané des internautes et à privilégié un Twitter en mode cénacle fermé (arf un comble) de Twitterers influents > Pour la compréhension et la logique de l’outil participatif on repassera.

- 3/ Que les journalistes n’ont pas encore compris qu’ils n’ont pas forcément besoin de rédaction

Pour ne froisser personne… prenons un exemple à l’étranger et recitons Walt Mossberg. Depuis ‘91 il tient un deux colonnes dans le très sérieux Wall Street journal. Il est le geek de la boîte. Celui qu’on envoie faire du bisou à Sergeï Brin et avec qui Steve Jobs fait des paris sur le prix de l’iPad. Il est vieux, dégarni barbu et pertinent. Quand il apparaît quelque part, pas besoin de carte de presse: c’est Walt Mossberg. Pas Walt Mossberg du Wall Street Journal. Non. Juste Walt Mossberg. Le Walt Mossberg. Tu doutes? Tu penses que son affiliation à WSJ l’aide énormément. Ok je sors mon atout Robert Scoble l’évangeliste. Idem que Walt. Mais lui en plus il part avec le handicap d’avoir commencé en qualité d’employé de Microsoft… CQFD.

Si demain Walt Mossberg se mettait à bosser rémunéré par une boisson gazeuse ou si sa casquette se retrouvait typée d’un Swoosh… son avis serait-il moins pertinent sur la technologie? Colette Braeckman parlerait-elle moins bien de l’Afrique si elle quittait le Soir pour un portail citoyen payé par la publicité? Si elle vivait de conférences?

Puisqu’aujourd’hui le monde moderne a porté la people-isation à l’outrance, puisque les journaux sont devenus des “marques” et qu’on lit le Monde parce que c’est un gage de sérieux comme on lit Libération pour éviter de porter la même écharpe que Barbier qui nous va moins bien au teint (l’écharpe, pas Barbier), il est temps peut-être de penser à “people-iser” les spécialistes. De les transformer en marques personnelles communicantes sur un de leurs sujets de prédilection. De renverser les modèles économiques. C’est le Soir qui achèterait du Braeckman pour s’assurer un lectorat, c’est Loïc le Meur qui payerait une prestation à Presse-citron.net qui fait l’honneur de sa présence à Le Web. etc. etc.

Ne m’avancez pas l’argument du “oui mais alors ils seront à la solde des gens qui les paient” je vous répondrais qu’entre suvbvention publique et page de pub dans les Inrocks… jusque là personne ne s’est plaint. Puis je crois qu’un article sponsorisé se découvrira plus rapidement (cf. l’affaire Gonzague Dambricourt à la sortie de la websérie je sais plus quoi) qu’une personne sponsorisée pour faire l’article qu’il veut. Et si tu me crois pas…c’est le même prix.  On ne paierait plus un journaliste pour son papier dans un journal ou sur un média. Mais on paierait un journaliste pour son papier dans n’importe quel support + son image d’expert d’un sujet ou d’une façon de faire + sa présence qui apporte une valeur ajoutée à un produit ou un événement + la communication qu’il fait autour de son commanditaire ou du support pour lequel il travaille.

Oui certes, tous les journalistes n’auront pas valeur d’expert. Toutes les niches ne paieront pas. L’ancien modèle économique lectorat acheteur+publicité+subventions publiques sera encore l’usage pour les sujets à moins forte valeur marchande…

Il n’empêche qu’en tant que journaliste, je m’efforcerais de devenir spécialiste de mon sujet, et de mon image de marque sur le sujet. Pour qu’on dépasse la question du “journaliste = mieux qu’internet” pour arriver à “journaliste = se sert d’internet en source et en source de revenu personnel”. Le débat deviendra plutôt alors

“groupes Médias vs Journalistes, qui est le plus fort” ou “Vincent Glad vs Henry Michel, c’est qui qui fait le plus de pages vues? Lequel des deux nous garantit le meilleur lectorat et de vente d’encart pub dans la version papier?”

J’arrête. je vous épuise comme d’hab… Et je suis épuisé

Denis – Emgenius

» Article initialement publié sur emgenius.owni.fr

» Illustration de page d’accueil par tantek sur Flickr

]]>
http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/feed/ 2
Création, destruction, mesure et changement de valeur http://owni.fr/2010/01/03/creation-destruction-mesure-et-changement-de-valeur/ http://owni.fr/2010/01/03/creation-destruction-mesure-et-changement-de-valeur/#comments Sun, 03 Jan 2010 17:04:08 +0000 zoupic http://owni.fr/?p=6681 Suite au billet et aux commentaires des billets de Thierry Crouzet sur la question du statut du blogueur dans le Flux, par rapport aux aides offertes aux médias pure players Rue89, Slate & MediaPart, voici un éclaircissement personnel sur ce qui me saute aux yeux de la situation actuelle.

Destruction de valeur

Nous avons d’un côté un monde qui s’écroule, un modèle dépassé en bout de course, une machinerie monumentale qui comme un titanesque projet révèle au grand jour ses plus belles imperfections.

Depuis le déclenchement de la crise du subprime, j’ai pris conscience que nous avons trop joué avec la machine économique et que pour la dernière fois aujourd’hui, le décalage est tellement important entre la masse monétaire, l’argent que nous utilisons et la valeur réelle créée, que notre système ne pourra cette fois plus s’en relever.

Le titanic qui s’effrite, ce n’est pas seulement la crise financière, bancaire, c’est également celle des médias, des politiques, de l’économie, de l’éducation, de l’environnement, de la culture. Notre monde surconsommateur et matérialiste vient avec Internet de découvrir plus fort que lui: immatériel, reproductible à l’infini, presque gratuit, sans possibilité de contrôle et instantané. what else?

A l’heure du bilan, l’évolution nettoie ce qui n’a plus de sens, la destruction créatrice de Schumpeter si on veut.

Dans l’augmentation du chômage, on perçoit l’augmentation de la destruction de valeur. La valeur est pour nous la plupart du temps ce qui est monétisé, en réalité la valeur est bien plus large que sa simple représentation monétaire. La valeur est l’ensemble de ce que nous reconnaissons et déclarons comme tel. Ce qui nous rend heureux, ce qui provoque de la joie, ce qui est utile, ce qui subvient à nos besoins, ce qui nous importe. Alors forcément, si on comprend ça, on se rend compte que la valeur qui n’est plus reconnue ne répond pas forcément à la valeur que nous reconnaissons mais à la valeur monétaire de la rentabilité de ces structures.

Ce n’est pas la valeur qui change, c’est notre perception de la valeur. C’est en changeant ce qui nous est utile, agréable et indispensable que nous changeons ce qui a de la valeur.

Si le chômage augmente, cela veut dire que des emplois qui servait à créer de la valeur sont aujourd’hui dépassés, inutiles. Ce n’est pas tant une destruction de la valeur, c’est plutôt une régulation de cette valeur. Étant donné le contexte actuel environnemental et énergétique, bon nombre de produits et d’emplois n’ont plus leur place, la valeur a migré ailleurs.

Création de valeur

Alors que je vois s’effondrer un monde, une économie et la valeur que je lui avais attribué, je vois un autre monde apparaître sous mes yeux. Fasciné par sa rapidité et ses propriétés, celui-ci remet tout en cause. Il nous permet à moindre coût d’être plus performant, plus rapides, moins contrôlés. Je le décris comme l’abondance numérique, c’est le Flux.

Le Flux, c'est le bordel, mais on le cache pas.

Jamais au grand jamais il n’a été donné à quelque être humain que ce soit d’avoir accès à tout le savoir, la connaissance, l’information, la culture, la science à laquelle nous avons accès avec Internet. Donner un ordinateur et Internet à quelqu’un et il a accès à la plus grande bibliothèque jamais imaginée, il a accès au cerveau global de l’Humanité. Là est la richesse que nous avons créé ensemble.

Ainsi, dans notre vie quotidienne s’installent de nombreuses applications, services, sites webs et autres vaisseaux surfant sur la vague dématérialisée et répondant à nos besoins à moindre coût. Nombre d’entre eux se cassent les dents à la recherche du business model magique qui permettra de vivre, interdépendant et libre. Certains offrent déjà un service plus rapide, performant, qualitatif et sans les défauts intrinsèques au monde qui s’écroule. D’autres cherchent, testent et allient créativité et performance sur le nouveau support avec rentabilité financière sur le monde qui se meurt.

La question est toujours la même, comment perdurer et recevoir suffisamment d’énergie, de valeur, d’argent en retour pour le travail fourni? C’est la problématique principale de survie et de vie. Si un écosystème se meurt, la vie doit se réorganiser pour pouvoir continuer d’être et de se développer.

Changement de valeur?

S’il est clair que le monde industriel basé sur la rareté matérielle souffre, que sa valeur s’effrite, à nos yeux comme financièrement, le transfert de valeur monétaire ne s’est pas encore opéré vers le Flux.

Nous nous retrouvons donc à organiser les transpositions de la valeur de l’ancien monde vers les services du Flux. Relier les connexions sanguines du monde qui se meurt sur le nouvel outil de production, transposer, recoder et donner et rétribuer la création à la hauteur de la valeur qu’elle représente.

La monétisation est le fait de transformer une richesse reconnue en richesse mesurable et échangeable. Cela signifie qu’il faut qu’elle soit reconnue et mesurée par l’autre également, et qu’il ait confiance en sa valeur.

Le monde qui s’écroule n’étant pas entièrement remplacé par le Flux, il s’agit de les faire coopérer, et de gérer la complémentarité, la complexité et la diversité que ces deux écosystèmes représentent. D’un côté la supposée rareté matérielle, liée aux ressources rares toujours inférieures aux besoins de tous, qu’il nous faut optimiser pour assurer la meilleure allocation possible, de l’autre l’abondance numérique, qu’il nous faut gérer pour donner à chacun l’information, le produit, le service qui correspond exactement à ses besoins, où qu’il soit, instantanément.

Comment monétiser une richesse abondante, dont les propriétés sont l’immatérialité, la reproductibilité à l’infini, la quasi-gratuité, l’instantanéité et l’impossibilité de contrôle?

En gros, comment monétiser l’air? :-)

En temps normal, sur nos bases habituelles de contrôle permanent, on aurait deux solutions: le rendre rare et en vendre une petite part différenciée, ou alors, créer une bulle: faire diverger la valeur réelle du bien et sa valeur financière.

Aujourd’hui, comme Internet et le bit nous l’ont appris, il est question de lâcher notre habitude de contrôle, pour préférer la liberté et la fluidité. Le mouvement c’est la vie, la stagnation c’est la mort.

Changement d’outil de mesure de la valeur!

Si la monnaie a pu contenter plus ou moins l’expansion du capitalisme, ses propriétés rares et de contrôle appartiennent bien à l’ancien monde. Pour mesurer et permettre la circulation du Flux financier, il est nécessaire d’utiliser un outil adapté.

Si nous ne désirons plus arrêter, contrôler, séparer, alors ouvrons, partageons et faisons circuler. Pour lâcher prise il faut avoir confiance, en l’Homme, en l’autre, en soi.

Le partage

La monnaie, puisqu’elle est un média, une représentation de la valeur que nous créons doit refléter au plus proche la réalité, sans quoi nous vivrons dans l’illusion. La sagesse reposera alors sur le savant équilibre de la gestion de la masse monétaire en rapport avec la création de richesse et de l’implication de tous dans la responsabilité de ce flux sanguin. Enfin, les règles du flux, sa composition, sa définition et avant tout: son rôle détermineront son succès.

L’open money, les monnaies libres trouvent alors leur place comme outil de mesure répondant à la problématique de l’abondance. Si nous utilisons les monnaies libres comme une décentralisation du pouvoir monétaire classique alors nous en aurons compris un aspect réducteur, reproduisant la rareté artificielle. Si nous les voyons comme l’outil d’organisation de la mesure et de la circulation des richesses entre les hommes, alors nous pourrons en accueillir tous les bienfaits.

Changer ses valeurs

Si le monde de la rareté nous a habitué à évaluer notre richesse matérielle et notre bonheur par rapport aux autres, il est indispensable de nous réunir, et de dépasser cette compétition et cette peur du manque pour aller vers la confiance. Nous avons créé le système, nous pouvons le changer, mais nous devons d’abord nous changer, sans quoi nous allons recréer les mêmes problèmes.

Ce changement de valeur, c’est ce à quoi servent les crises, prendre conscience, faire le bilan, réaliser et acter. Le monde change, nous changeons, nos modèles ne sont plus adéquats, que puis-je changer en moi pour accompagner ce changement?

Billet initialement posté sur le blog de zoupic

]]>
http://owni.fr/2010/01/03/creation-destruction-mesure-et-changement-de-valeur/feed/ 4
Attali n’a pas compris le flux http://owni.fr/2009/12/03/attali-na-pas-compris-le-flux/ http://owni.fr/2009/12/03/attali-na-pas-compris-le-flux/#comments Thu, 03 Dec 2009 20:04:07 +0000 Thierry Crouzet http://owni.fr/?p=5913 natmachamaane20046471-450x337

Mon nouveau livre ayant pris une tournure très nomade, j’ai lu L’Homme nomade d’Attali. Les sept premières parties racontent notre histoire du point de vue des nomades. C’est une collection de dates, de noms de tribu, une longue liste de copier-coller de Wikipedia. Un survol sans profondeur qui a le mérite d’éveiller parfois la curiosité, jamais de l’étancher (tout cela sent le travail de quelques nègres).

Attali a repris l’idée d’une Alternative Nomade de Chatwin sans lui apporter aucun crédit. Je suis même pas sûr qu’il l’ait lu. Il liste en passant, avec d’autres, sans s’arrêter, pressé.

Attali part du constat que nous avons été nomades pour l’essentiel de notre histoire jusqu’à la révolution néolithique il y a 10 000 ans. Nous serions à nouveau en train de redevenir nomade. L’état sédentaire n’aurait été qu’un épiphénomène. C’est ni plus ni moins que la thèse que Chatwin a formulée pour la première fois en 1969.

Dans les deux dernières parties, Attali prend enfin la parole et tombe dans son travers habituel : « Il semble aujourd’hui possible de discerner l’avenir le plus lointain sans rien connaître du détail des prochains évènements. » Noter la façon adroite de retomber sur ses pieds pour ne pas être pris en faute flagrante.

J’ai déjà souvent dit combien je trouvais cette rhétorique malhonnête. Jouer à prévoir l’avenir pourquoi pas mais annoncer que c’est une science, c’est insupportable, une façon de berner les imbéciles. En plus ça fait vendre parce que les gens attendent des oracles.

Je suis un popperien. Est scientifique une théorie falsifiable. Les prévisions d’Attali ne le sont pas car il faut attendre l’avenir, toujours situé loin, pour savoir s’il aura raison. Nous ne pouvons nous-mêmes les falsifier et, le jour où ce sera possible, Attali ne sera plus là. Tout le monde s’en fichera. En conséquence, Attali abuse de la technique.

On ne peut prévoir que les évolutions linéaires, celles qui reviennent à prolonger les courbes existantes. Mais face à des bouleversements historiques cette méthode est vaine. Ainsi dans ce livre de 2003 Attali passe à côté de la crise du capitalisme. Il croit que les entreprises dépasseront les États, se déferont d’eux. C’est tout le contraire qui s’est produit avec les banques en 2008 et ça recommencera (est-ce un détail ?).

Attali imagine la fusion des sédentaires et des nomades, il parle de transhumains. Moi je crois que nous basculons déjà dans un état qui intègre et transcende le sédentarisme et le nomadisme. C’est le « transcende » qui est important. Quelle est la nouveauté radicale, celle qui provoque la rupture, celle qui équivaut à la sédentarisation à l’époque néolithique ? Le flux. Le fait que l’information soit en train de devenir liquide.

Attali nous décrit un monde où le flux n’existe pas. Il évoque bien le nomadisme virtuel grâce à Internet mais il ne voit pas que nous avons inventé un nouveau territoire où nous nomadiser, un territoire qui pour nous n’a rien de virtuel. Ce texte est-il virtuel ? Êtes-vous virtuels ?

Pour Attali, l’argent, la foi et la liberté sont les valeurs des nomades. Le sédentaire aurait le sens du long terme et de la nature. N’est-ce pas plutôt le contraire ? La plupart des nomades justement ont souvent attaché beaucoup d’importance à préserver la terre. Attali dit encore que l’éducation, la santé et la protection de l’identité sont le propre du sédentaire. Douteux, contestable, faux.

La liberté vaut pour le nomadisme dans le flux mais l’argent et la foi, je ne vois guère. En même temps, par instant, Attali dit des choses pas absurdes : « […] chacun puisera, pour se construire, une morale personnelle, tout en reconnaissant aux autres le droit d’en faire autant. Sa culture, sa profondeur philosophique, sa morale participeront ainsi à la diversité des éthiques à venir. » Ni plus ni moins que le relativisme prôné par les postmodernes durant les années 1990. Mais pourquoi écrire au futur ?

Attali reste englué dans la démocratie contemporaine comme si elle ne pouvait pas évoluer. Il pense trop à l’Amérique, à la Chine, à l’Islam… comme si à force de lire la presse il ne pensait plus qu’à ce dont parle la presse. À le lire, j’ai l’impression que nous aurions atteint cette fin de l’histoire théorisée par Fukuyama. À force de lister les invasions nomades, Attali croit que c’est de l’extérieur que vient toujours le changement. Il oublie la possibilité de l’insurrection. Je crois ainsi que c’est de l’intérieur que le changement actuel arrive (et je ne parle pas au futur). Les sédentaires se nomadisent. Ils changent de terrain de jeu et de règles de jeu en passant au flux (le flux est-il un détail ?).

» Article initialement publié sur Le Peuple des connecteurs

]]>
http://owni.fr/2009/12/03/attali-na-pas-compris-le-flux/feed/ 1
Typologie des superflu(x). Et autres considérations … http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/ http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/#comments Sun, 29 Nov 2009 21:22:39 +0000 Olivier Ertzscheid http://owni.fr/?p=5792 Monde du flux ou du superflu(x) ?

Perdu (mais pas complètement) entre mon agrégateur RSS, les innombrables signalements qui circulent sur mon compte Twitter, l’archive des signets delicious … Besoin de clarification dans un monde ou tout est “flux” pour éviter qu’à terme tout ne nous semble “superflu(x)”.

» Les médias de flux : TV, Internet. Broadband. Modèle connu.
» Les “nouveaux” médias de flux, ceux du micro et du méso-net : comment s’y retrouver ?<

Des flux et des médias. Dans l’immédiat, des im-médias.

Côté flux (liste naturellement non-exhaustive). Besoin de distinguer entre :

  1. des flux “identitaires” : ce que je dis de moi
  2. des flux “profilaires” : ce que les autres disent de moi, et/ou ce qu’il est permis – pour un individu ou pour un moteur ou un système de recommandation – d’inférer à partir de ce que je fais ou de ce que je dis de/sur moi.
  3. des flux “grégaires” : ceux que “je” sélectionne en fonction de leur intérêt. Ces flux peuvent eux-mêmes être des flux identitiaires, profilaires, etc …
  4. des flux “prioritaires” : ceux que “les autres” jugent incontournables sur un sujet, un “objet”, une thématique.
  5. des flux “aléatoires” : qui incarnent “l’effet rebond”, la part de plus en plus importante qu’occupe la sérendipité dans nos processus de recherche d’information et plus globalement d’interaction en ligne.

Côté médias (liste tout aussi peu exhaustive que la précédente)

  • des médias d’agrégation. Dialectique de la digue et du tamis. Par “média d’agrégation”, j’entends ici principalement (mais pas exclusivement) les agrégateurs RSS, version “en-ligne” ou cliente. Netvibes, GoogleReader en sont quelques exemples types. Leur fonction est une fonction de digue. Ils ont pour objet de “contenir” plus que de “retenir” (au sens mémoriel du terme). Plus précisément, ils circonscrivent sans rien inscrire, sans véritablement garder et faire “trace”. Des digues donc. Mais qui virent inexorablement au “tamis” avec un maillage de plus en plus grossier (si l’on se place du point de vue amont des médias et flux qui devront passer par ces tamis) ou de plus en plus fin (si l’on se place du point de vue de l’utilisateur qui “met en place” ces tamis)
  • des fonctions de dissémination : leur enjeu est d’abord d’amplifier l’effet rebond, par sérendipité. L’exemple type est la fonction RT (retweet) de Twitter. Mais cela concerne également l’ensemble des fonctionalités “virales” proposées sur Facebook ou sur les plateformes de blog. L’objet de ces fonctionalités est d’amplifier les occurences d’un item (vidéo, texte, marque … individu). Particularité des médias numériques de dissémination, l’amplification n’entraîne pas automatiquement et nécessairement une perte de traçabilité. Le maillage des réseaux sociaux, les fonctionalités de rebond (RT chez Twitter, “share this” chez Facebook), et plus globalement la puissance d’indexation et de ‘mémoire” des moteurs et outils de recherche facilite grandement le rétablissement d’une autorité (= la recherche de l’auteur/diffuseur original du texte, de la vidéo) a posteriori.

Une cybernétique observable. Cette articulation entre médias d’agrégation et fonctions de dissémination me semble essentielle. Elle illustre l’extraordinaire force centrifuge des premiers, qui mettent “sous nos yeux” un ensemble de flux, et la non moins extraordinaire force centripète des seconds qui redistribuent en permanence les mêmes flux, parfois légèrement altérés ou recombinés (méta-flux de Yahoo-pipes, Rss personnalisés et autres méta-flux générés ou attachés à des services particuliers). Bref, des usagers à la barre, une cybernétique à l’oeuvre, avec son feedback.

Voilà aujourd’hui, à mon sens, les deux grandes logiques du web contributif. Naturellement et comme dans les “anciens” systèmes médiatiques (moins “contributifs”, moins “distribués” et sans l’échelle fractale qui est un marqueur spécifique du web 2.0), les deux sont liées. C’est à dire que le média ou la fonction de dissémination sera d’autant plus efficace et amplifiée qu’elle s’appuiera ou sera supportée par un média à forte capacité d’agrégation. Inversement, on agrègera toujours davantage les items les plus “disséminés”.

Le troisième âge de la navigation. Ces phénomènes illustrent ce que je décrivais ainsi dans un ancien billet :

  • les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un “troisième âge” de la navigation : après le browsing et le searching voici venu le temps du “subscribing”. On ne navigue plus, on ne recherche plus, on s’abonne, on “souscrit”. Notons d’ailleurs que l’étymologie de ce dernier vocable est intéressante : “souscrire”, “sub-scribere”, littéralement “écrire en dessous”, à moins qu’il ne s’agisse d’écriture “sous autorité” : en agrégeant les discours écrits ou postés par d’autres, on est, de facto, placé “sous” une “autorité” qui n’est plus nôtre.

La souscription est et demeure une dépendance. Telle qu’organisée et disponible initialement (à l’époque des premiers agrégaterus et flux RSS), elle était également potentiellement une aliénation. La possibilité aujourd’hui offerte de recombiner et/ou d’altérer des flux diminue significativement sa force d’aliénation, mais augmente considérablement l’effet de dépendance.
Keep control. Pour que nous puissions nous y retrouver dans l’ensemble de ces médias de flux, pour que nous puissions en garder le contrôle ou tout au moins avoir l’impression que nous en gardons le contrôle, il faut – et c’est déjà le cas – que les principales fonctionalités et innovations portent sur 3 points :

la synchronisation
les périphéries reconfigurables
la gestion de l’asymétrie des relations para-sociales.

Petites explications …

  • la synchronisation.


  • Elle est la dernière étape de la dérive des continents documentaires. Nos modes de consultation sont nomades mais nos dispositifs (terminaux) d’accès au web sont encore hétérogènes. Nos temporalités d’accès sont elles aussi pour l’instant encore asynchrones (lecture des mails le matin sur l’ordinateur “de bureau”, consultation de vidéos le soir sur l’ordinateur “familial”, etc …)

    • les périphéries reconfigurables.




































    La périphérie est une notion clé pour comprendre les logiques aujourd’hui à l’oeuvre dans la machinerie contributive du web (et pas seulement du web 2.0). Le meilleur ouvrage sur la question a été publié à une époque ou Serguei Brin et Larry Page n’étaient encore qu’en première année de faculté. Il s’appelle “Situated Learning : Legitimate Peripheral Participation“. C’est Jo Link-Pezet, ma directrice de thèse qui me l’avait fait découvrir à l’époque, comme tant d’autres des ouvrages, notions et concepts qui font que je ne me sens aujourd’hui pas trop démuni pour aborder l’étude et l’analyse des objets informationnels qui m’intéressent … (un jour quand j’aurai le temps, je vous raconterai pourquoi j’ai eu la chance de bosser avec LA directrice de thèse idéale …). Mais revenons au centre de nos périphéries. Les périphéries de ces communautés contributives disposent, grâce à cette ingénierie de la sérendipité, de plastiques de plus en plus souples et étendues. Périphéries à la fois théoriquement globales, et toujours possiblement ciblées. Le genre de périphéries “sociales” que les moteurs, Google en tête, commencent à intégrer au coeur de la présentation de leur résultats, en fonction de leurs vertus – supposées pour certains, avérées pour d’autres – de recommandation “sur-mesure” (sur Google Social Search puisque c’est de cela qu’il s’agit, voir égalementici et )

    • la gestion de l’asymétrie des relations sociales.



































    C’est à dire en fait la gestion des relations para-sociales. Dans l’une de ses dernières interventions, Danah Boyd revient sur cette notion en indiquant : “But the information ecology we live in today has twisted this whole thing upside down. Just because I can follow the details of Angelina Jolie’s life doesn’t mean she knows that I exist. This is what scholars talk about as parasocial relations. With Facebook, you can turn your closest friends into celebrities, characters you gawk at and obsess over without actually gaining the benefits of social intimacy and bonding.” Ce seul et dernier critère permet d’expliciter nombre des phénomènes de viralité, de propagation, de “buzz”, mais il porte également trace de la nature profonde des dynamiques contributives et du sentiment d’appartenance à une communauté (et des phénomènes de reconnaissance liés, à l’intérieur des mêmes communautés).
    A regarder aujourd’hui le déploiement, l’essor et les configurations chaque fois nouvelles et dans le même temps si peu souvent inattendues des sites emblématiques du web contributif, à regarder aujourd’hui tout cela sous l’angle des trois notions sus-citées, il me semble que l’on doit pouvoir comprendre un peu mieux à la fois les raisons de l’engouement qu’ils suscitent et le devenir dont ils sont porteurs.

    L’indexation du temps réel. Naturellement, il reste encore des grands médias d’agrégation dont ce billet n’a pas traité : je pense bien sûr aux moteurs de recherche. Ces moteurs qui sont déjà capables de remonter le temps de diverses manières (ici ou ), capables également d’inférences (moteurs de divination et web implicite), et qui ont intégré progressivement (avec les news, puis les blogs) la question aujourd’hui si cruciale de l’indexation en temps réel pour en arriver finalement et plus précisément à l’ambition d’indexation du temps réel. <Parenthèse> Hallucinant vertige linguistique c’est désormais la traduction automatique qui se fait également en temps réel</Parenthèse>

    MMM. Moteurs méta-médias. Du point de vue de l’angle choisi pour ce billet, ces moteurs peuvent être décrits comme des “méta-médias d’agrégation”. Ils ne se contentent en effet pas seulement d’agréger de manière cumulative des contenus et des flux mais ils permettent également d’isoler, de choisir, de discriminer, de capter (l’attention) et de retenir (l’attention et les contenus). A ce titre ils disposent d’une triple caractérisation, à la fois :

    • moteurs/médias de discrimination : les listes, leurs listes de résultats, donnent à lire un ordre du monde conditionné par l’arbitraire algorithmique
    • moteurs/médias de captation : leurs zones de saisie sont la porte d’entrée incontournable d’une certaine approche (notre attention) de l’information et de la connaissance (les contenus)
    • moteurs/médias de rétention : l’attention une fois captée à vocation à être conservée et enfermée dans une périphérie de services propriétaires, et les contenus eux-mêmes sont également “retenus” dans le cache des moteurs.

    Les petits flux font les grandes rivières. Et les grandes rivières intéressent les grands moteurs (cf l’effet de digue détaillé plus haut dans ce billet). Les moteurs, tous les moteurs regardent donc d’un oeil plein de convoitise le nouveau champion du temps réel : Twitter et sa périphérie de services. Après les rumeurs et les tentatives de rachat, les deux géants (Microsoft et Google) se contenteront finalement de l’indexation des tweets (sur le sujet, voir notamment le billet de Didier Durand et tous ceux signalés en lien ci-après)

    Ne pas mélanger indexation et intégration.

    • Google ET Bing ET Yahoo indexeront les flux de twitter. En fait il les indexaient déjà, l’information exacte est qu’ils intégreront ces tweets dans les résultats de recherche.
    • Bing indexera et intégrera également les contenus postés de manière publique sur Facebook. (pour mémoire, Google indexe et affiche déjà les profils publics de Facebook, il est probable qu’il indexe également les contenus publics, mais il n’a pas – pour l’instant – annoncé l’affichage de ces contenus dans ses pages de résultat)

    Nombre de sites ont rendu-compte de ces annonces (attendues) : voir notamment iciiciiciici, et ici.
    <Parenthèse> On retrouve au passage ici une problématique que je crois être absolument cruciale sur la pertinence des profils humains, et que je décrivais ici en ces termes : “De plus en plus de sites de réseaux sociaux « ouvrent » l’immense catalogue des individualités humaines qui les composent à l’indexation par les moteurs de recherche. Ce qui pose nécessairement la question de la pertinence des profils humains.“, si Nathalie Kosciusko-Morizet me lit, elle pourra toujours intégrer cela à sonatelier sur la question du droit à l’oubli numérique … </Parenthèse>

    Le sens du social. Indexation et intégration de la statusphère, du micro-net, c’est encore chez Danah Boyd qu’il faut chercher des éléments de réponse aux enjeux que cela peut représenter pour l’évolution de l’ensemble des outils incriminés, et conséquemment pour l’ensemble de nos pratiques connectées.

    • There are two critical structural differences between Facebook and Twitter that are essential to understand before discussing the practices: 1) social graph directionality; 2) conversational mechanisms.
    • Directionnalité tout d’abord : “Facebook’s social graph is undirected. (…) Twitter, on the other hand, is fundamentally set up to support directionality. I can follow you without you following me
    • Mécanismes conversationnels ensuite : “On Facebook, status updates are placed on one’s Wall. (…) This creates a conversational space as it is quite common for people to leave comments on updates. Conversely, on Twitter, to reply to someone’s tweet, one produces an at-reply on their own stream. Sure, the interlocutor can read it in their stream of at-replies, but it doesn’t actually get seen or produced on their own page. Thus, a person’s Twitter page is truly the product of their self-representation, not the amalgamation of them and their cohort.

    Liens directionnels et conversations cardinales. Ce que visent ainsi les grands acteurs que sont Google, Yahoo et Microsoft (GYM) est de tenter de retrouver, dans les phénomène conversationnels qui occupent une part de plus en plus importante des contenus du web, le même type de directionnalité (adressage) qui caractérisait et caractérise encore l’instanciation de ces primo-conversations du web, à savoir les liens hypertextes.

    En d’autres termes, l’indexation permet de “faire sens”, elle re-sémantise, elle donne “du” sens ; l’intégration (de ces flux conversationnels) vise à orienter, à retrouver un sens, une direction, une intention. Précisément parce que la sémantique sans intentionnalité, serait condamnée à demeurer un sémantique apauvrie (l’autre moyen de l’enrichir concerne la sémantisation des données elles-mêmes – web sémantique). C’est là une notion à laquelle j’avais consacré une grande partie de ma thèse, sous l’angle du problème de la cardinalité des liens hypertextes. Il s’agissait, dans ce cadre de “la possibilité d’établir des liens hypertextuels non plus mono-directionnels mais multi-directionnels (depuis un ou plusieurs documents, vers un ou plusieurs autres), leurs ancres faisant alors office de pivot, de point central.

    Moralité. L’indexation en temps-réel des flux conversationnels (on est ici dans le registre de la “fonction”), l’intégration dans les résultats de recherche du temps-réel de ces mêmes flux conversationnels (on est cette fois dans le registre de la “valeur”), l’indexation et l’intégration de ces flux sont l’occasion pour les moteurs d’instaurer – et donc de contrôler au sens cybernétique du terme – les nouvelles cardinalités du web contributif, cardinalités sans lesquelles il ne peut y avoir d’ordonnancement. Voilà donc très probablement les nouvelles et impérieuses commodités de la conversation du web contributif, du web … tout simplement.

    » Article initialement publié sur Affordance.info

    » Photo d’illustration via Flickr

    ]]>
    http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/feed/ 31