OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Tristan Nitot :||”Le web ouvert est important comme la démocratie dans la politique” http://owni.fr/2010/06/26/tristan-nitot-le-web-ouvert-est-important-comme-la-democratie-dans-la-politique/ http://owni.fr/2010/06/26/tristan-nitot-le-web-ouvert-est-important-comme-la-democratie-dans-la-politique/#comments Sat, 26 Jun 2010 10:01:57 +0000 Astrid Girardeau http://owni.fr/?p=20267 «Est-ce que le Web sera ouvert dans dix, vingt – voire dans cinquante ans ? Mozilla pense qu’il peut et doit l’être». Pour mener à bien ce combat, Mozilla a lancé Drumbeat, un projet qui vise à se faire rencontrer des communautés, créer des réseaux autours de projets ouverts et concrets. Le 1er juillet se tiendra, à Paris, le premier événement Drumbeat. L’occasion de rencontrer Tristan Nitot, président de Mozilla Europe, et Henrik Moltke, responsable du projet Drumbeat en Europe.

Qu’est-ce que Drumbeat ? Quelle est sa mission ?

Tristan Nitot : C’est un ensemble de projets participatifs visant à promouvoir le web ouvert à une large audience. Pousser les gens à expérimenter, faire des choses concrètes et positives, et réaliser ce qu’est le web ouvert, décentralisé, participatif, public. A Mozilla, on a bien compris ce que c’est car on baigne dedans. Mais les gens ne l’ont pas compris.

Il y a quelques jours, j’ai écrit un article assassin sur l’iPad et ça a été une levée de boucliers. L’iPad est une magnifique machine mais elle a un caractère fermé qui est, à mon sens, vraiment dangereux pour la société. Et les gens n’ont pas les références pour se dire : « c’est brillant, joli, bien foutu, mais dangereux. » C’est normal car on est en train d’inventer le monde de l’informatique. On n’a pas le recul, la culture, le vocabulaire. Et les gens n’ont pas été éduqués pour penser format, indépendance du code. Pourtant ça n’est pas un luxe. C’est important comme la démocratie est importante dans la politique. Et si on ne fait rien, les grandes entreprises vont se contenter de traiter les citoyens en consommateurs.

Drumbeat est l’occasion de faire participer les gens, leur faire toucher du bout du doigt ces valeurs là. Leur donner envie, en mettant un peu d’eux-même dans les projets, de défendre cette idée de web ouvert.

Le web ouvert n’est pas un luxe.

Henrik Moltke : On essayer montrer que ça a un a sens de participer, que ça change les choses. Avec Mozilla, on s’adresse surtout aux développeurs et aux geeks. Avec Drumbeat, on essaie de s’ouvrir à des profils plus littéraires : enseignants, artistes, journalistes etc. Les gens qui viennent aux événements connaissent souvent déjà les Creative Commons ou Wikipédia, mais ne savent pas forcément comment le web peut rester libre.

Quels types de projets aidez-vous et comment ?

NM : Il y a des projets éducatifs, comme p2pUniversity, une alternative au cadre institutionnel de l’éducation. Il s’agit de cours en ligne gratuits pour tout le monde. Par exemple, Joi Ito [CEO de Creative Commons ndlr] y a donné un cours sur le journalisme. A Toronto, Crisis Commons utilise le logiciel Open Street Map pour voir comment se développe une crise et comment aider. Il y a aussi le projet Universal Subtitles de sous-titrage universel collaboratif. Et WebMadeMovies, un projet d’openvideo pour monter un documentaire collaboratif sur le web ouvert, avec un système de méta-données. C’est un peu un laboratoire pour les nouvelles technologies comme html5. Cela peut aussi toucher le social-networking avec des alternatives aux projets clos tel Facebook.

Quand un projet entre sur le site, le défi est de faire commencer la participation. Si on voit que les gens sont motivés, on lui donne plus de visibilité. Ensuite, s’il est bien développé, formulé, qu’il a un but concret, on donne de l’argent. Entre 5.000 et 50.000 dollars. Le plus important n’est pas l’argent, mais de faire le pont entre les communautés qui participent à un projet.

Comment voyez-vous évoluer ces valeurs de web ouvert, participatif, etc. ?

TN : Je ne sais pas si le web ouvert a gagné ou perdu. Déjà il faut que la bataille continue. Il ne faut pas baisser la garde. Car tout le monde est au boulot pour contrôler l’utilisateur. Les gouvernements qui ont fini par mal comprendre ce qu’était Internet, et font des lois qui ne vont pas souvent dans la bonne direction. Les sociétés qui vont s’approprier les logiciels libres pour faire des choses qui les rendent paradoxalement moins libres. Il a plusieurs fronts dans cette guerre, et le champ de bataille évolue constamment.

Parfois il y a des bonnes nouvelles, parfois des mauvaises. Par exemple, l’annonce récente de WebM, ex-VP8, est une victoire importante. Le fait que le code ait été libéré et d’avoir une alternative au h264, c’est génial ! On a bu le champagne ce soir là ! On ne peut que se féliciter d’avoir un format vidéo ouvert aussi libre que l’html. Mais la bataille n’est pas terminée, maintenant il va falloir libérer ce standard.

Tout le monde est au boulot pour contrôler l’utilisateur

Et de l’autre côté…

TN : Il y a toujours des épées de Damoclès avec les brevets logiciels en Europe, des lois crétines,etc. Il y a du pain sur la planche pour les décennies à venir. Les gouvernements vont mettre des années à accepter Internet. Les grandes manœuvres sur les médias français montrent à quel point il est important de contrôler l’information, et Internet aussi. Il y a également les entreprises. Aujourd’hui, 1,2 milliards de gens, donc les plus riches de la planète, sont connectés. En les influençant via le logiciel ou le service, ça peut être très lucratif. Les intérêts commerciaux sont tels que certaines entreprises ont plus d’intérêt à contrôler l’utilisateur qu’à lui donner la liberté. Ce qui ne veut par dire que le commerce, le web commerçant, est mal. Chez Mozilla, on est persuadé qu’il faut qu’il y ait les deux. Après on pense que la partie non-commerciale n’a pas assez de place, et notre vocation est de la soutenir.

Les données, la vie privée sont une monnaie d’échanges, et ça moins d’1% de la population l’a compris. Facebook peut être monstrueux. Des gens se font virer de Facebook, c’est-à-dire qu’ils perdent leur graph social, leur équivalent d’e-mail, leurs documents, tout. Et sans justice. Récemment au Maroc, un type a fait un groupe pour que, dans leurs cours, les professeurs de science respectent la laïcité. Des gens lui sont tombés dessus, et le groupe a été viré, le compte du fondateur supprimé. Il n’y a pas de vrai justice ! Pas un jury qui décide si c’est vrai ou faux. Juste un gars aux États-Unis ou en Inde qui fait «oula, il y a eu beaucoup de signalements pour ce truc là. Je supprime».

Ça montre bien qu’il y a énormément d’éducation à faire. Mais les gens s’en foutent de l’éducation. Il y a donc deux manières de l’influencer. Mettre un produit comme Firefox, où ces valeurs ont structuré le produit, dans autant de mains possibles. Il exsude ses valeurs et les gens en bénéficient. Car le code influence l’utilisateur, et ça aussi peu l’ont compris. Du coup, les concurrents sont obligés de s’aligner. Par exemple Safari qui permet le choix du moteur de recherche ou Microsoft qui se met aux standards du W3C. Donc, indirectement, d’autres en bénéficient. Puis il y a Drumbeat, un genre d’éducation déguisée. Faire vivre, s’imprégner de ces valeurs. Et c’est infiniment plus puissant que de prêcher dans le désert.

Facebook : Il n’y a pas de vrai justice !

Mozilla est longtemps restée éloignée des débats «politiques» autour d’Internet. Qu’en est-il ?

TN : Cela est lié à l’évolution du marché des navigateurs. Pendant longtemps on s’est auto-censuré en mettant toute notre énergie à simplement faire un meilleur produit. Face à un Microsoft immobile, ça suffisait. Aujourd’hui ce marché est reparti, il y a plein de concurrents (Google, Microsoft, Apple, Opera, etc.) et on s’en félicite. Mais, du coup, qu’est ce qui fait qu’on est différent? Pourquoi on fait ça ? Pourquoi on a monté Mozilla ? Il y a le produit, mais il y autre chose. Ça n’est pas une question d’argent, mais une vision politique de la vie de la cité numérique. Mais le terme “politique” est galvaudé, on a du mal à l’assumer. Et je ne saurai pas placer Mozilla sur l’échiquier politique ou sur un banc de l’Assemblée nationale.

Et le fait que Google communique de plus en plus sur l’open-source…

TN : Je ne pense pas qu’on a les mêmes motivations. On est en train de découvrir OS Chrome. Os Chrome, pourquoi pas. Mais il y a deux choses qui me défrisent complètement. D’une part qu’il n’y ait pas le choix du navigateur. D’autre part, et c’est vraiment inquiétant, la première chose qu’on doit faire quand on démarre l’ordinateur, c’est s’identifier auprès de Google. Si on ne s’identifie pas, la machine s’éteint. Et là, je pense que… c’est pas comme ça que Mozilla ferait pour dire les choses pudiquement.

Pourquoi faire ce projet seul, sans d’autres acteurs du web ouvert ?

TN : C’est l’approche Mozilla héritée du libre : “Release early, release often”. On a une idée, on voit comment ça marche, et puis ça fait écho. Nous ont rejoints la Shuttleworth, la Participatory Culture Foundation (ce qui font le lecteur Miro), la p2pUniversity, le OneWeDay. Et je suis sûr qu’on pourrait faire des choses avec l’Electronic Frontier Foundation et la Free Software Foundation. Il y a des tas de gens avec qui on partage de l’ADN. Et on espère qu’ils vont participer sur la base d’un projet qui les motive. Pas en s’appelant de président à président.

Que va t-il se passer le premier juillet ?

HM : Il y a les projets sur le site, des projets à plus haut niveau comme avec la Knight Foundation ou la Transmediale à Berlin, et puis il y a les événements locaux où les gens se rencontrent, travaillent ensemble. On veut que ça soit rigolo, social et pratique. Et n’importe qui peut très facilement faire la même chose à Perpignan ou Nantes. Il y a déjà des outils, et on est en train de développer un “Évènement kit”.
TN : On veut créer un genre de réseau où les gens apprennent à se connaître, se connectent, s’échangent des idées. Faire catalyseur. Il faut qu’il y ait une excitation. Et ça ne se fait pas par une grand messe, mais une rencontre humaine et horizontale.

Événement Drumbeat – Jeudi 1er juillet 18h-22h
La Cantine; 151 rue Montmartre
Passage des Panoramas, 12, galerie Montmartre Paris, 75002

Crédit : nitot


]]>
http://owni.fr/2010/06/26/tristan-nitot-le-web-ouvert-est-important-comme-la-democratie-dans-la-politique/feed/ 6
Libération des données: “On ne reviendra pas en arrière” http://owni.fr/2010/06/14/liberation-des-donnees-on-ne-reviendra-pas-en-arriere/ http://owni.fr/2010/06/14/liberation-des-donnees-on-ne-reviendra-pas-en-arriere/#comments Mon, 14 Jun 2010 17:30:42 +0000 Sabine Blanc http://owni.fr/?p=18220 San Francisco, Londres, Vancouver… : l’ouverture des données, petit à petit, fait son chemin dans les villes. En France, c’est à la “modeste” Rennes qu’il revient d’ouvrir le bal des données, justifiant son image de ville dynamique. En février dernier, la ville bretonne et Rennes métropole annonçait une première pour une collectivité territoriale : l’ouverture de données publiques, en l’occurrence celles de son réseau STAR, le service de transport en commun de Rennes Métropole, et du service LE vélo STAR et les données d’informations pratiques géolocalisées de 1.500 organismes publics et associatifs.
Une précision avant de poursuivre : par réseau données publiques de transport, on entend bien plus que le bus : le réseau, son infrastructure, la disponibilités des équipements -ascenseurs, escalators, stations de vélos) ou la location d’un lieu public. Bref un large bac à sable pour innover.

Xavier Crouan, directeur de l’Information et de l’innovation numérique, de Rennes Métropole & Ville, revient sur ce saut. Il parle en early-adopter convaincu, il parle avec autant de foi que d’optimisme. Un enthousiasme qu’il convient de tempérer. Mme Michu ne s’intéresse pour l’instant pas à l’opendata, cela reste un sujet de conversation chez les geeks (comme OWNI par exemple :) Les quelques applications créées évoquées par Xavier Crouan restent d’usage confidentiel. “Cela ne constitue pas une révolution dans le quotidien des Rennais. Ils s’intéressent plus au fait qu’un vélo sur trois a été volé ou détérioré…”, témoigne un habitant. Et c’est fort logique puisque on en est aux premiers pas. La révolution aura lieu lorsque des usages concrets, pratiques feront jour.

Aux origines de l’ouverture des données à Rennes, il y a une initiative du privé…

Le point de départ effectivement, c’est Keolis, qui est délégataire du transport de Rennes métropole. La compagnie a posé comme condition l’ouverture des données transports. À Rennes, nous sommes ouverts aux nouveaux usages et aux innovations issus des nouvelles technologies depuis un certain nombre de temps, nous avons donc saisi la balle au bond. C’est dans l’air du temps, il y a aujourd’hui dans le monde anglo-saxon beaucoup d’initiatives. En France, il n’en existe pas, réagissons et essayons de mener cela ensemble, de manière à la fois plus structurée et de plus grande ampleur.

Les données LE vélo STAR ont déjà été libérées (accessibles sur une API sous Creative Commons, Ndlr). Nous libèrerons d’autres données de transports progressivement du mois de juin jusqu’à fin août : les données des horaires théoriques des bus et métros, ceux en temps réel le seront dans un an environ, quand le système sera mis en place. Toujours dans le temps réel, les alertes trafic, l’état d’occupation en temps réel des parcs relais, le fonctionnement des ascenseurs et des escalators, l’accessibilité des lignes pour les personnes à mobilité réduite… Ce sont des données qui appartiennent à Rennes métropole mais gérées par Keolis pour le compte du service public, en délégation.

Vous n’en êtes pas resté là…

Nous avons aussi offert d’autres données, qui géolocalisent 1.500 organismes publics, parapublics, culturels, sportifs, associatifs. Elles sont recensées dans un guide que nous éditons chaque année depuis vingt ans, Vivre à Rennes. Voilà trois ans, j’ai lancé l’idée de mettre ses données sur une base, pour pouvoir les exploiter. C’est ainsi que nous avons été la première collectivité à lancer une appli iPhone, VivreàRennes, en octobre dernier, rassemblant ces données structurées en thèmes et sous-thèmes avec un contenu informationnel géolocalisé avec les horaires d’ouvertures, les sites Internet de chaque organisme, etc.
Nous allons aussi libérer, mais je ne peux pas vous fournir de détails car nous travaillons dessus, bon nombre de données du système d’information géographique, ce sont des données importantes avec de la cartographie, des couches d’informations essentielles pour des usages que nous n’imaginons pas encore aujourd’hui mais dont on connaît les potentialités.

Je vais multiplier les rencontres pour avancer : la région Bretagne vendredi (le 11 juin, Ndlr), le département avant la fin du mois, un délégataire de service public qui gère les parkings de Rennes pour avoir les informations en temps réel, Dor Breizh, un système qui gère les informations sur les embouteillages à Rennes et alentour, le directeur de l’agence d’un organisme de Rennes métropole qui possède les données statistiques sur le territoire. Certaines données sont certaines, sur d’autres nous travaillons encore.

L’entrepôt des données, pour reprendre un terme anglo-saxon (datastore, Ndlr) va s’enrichir petit à petit et il sera recensé sur un site Internet, data.rennes.fr et data.rennes-metropole.fr avec des liens vers les détenteurs de ces données.

Avez-vous rencontrés des difficultés inattendues ?

Comme nous défrichons, nous essuyons quelques plâtres. Mais notre territoire est vraiment innovant, nous avons un terreau politique et des acteurs qui font que cela démarre au quart de tour, depuis quatre-cinq ans nous travaillons sur cette dynamique, les choses se passent assez facilement même si de temps à autre, des gens disent effectivement : “c’est mes données, c’est ma cassette et je ne la partage pas”

Les réticences viennent de qui ?

Pour l’instant nous n’avons pas rencontré fondamentalement de réticences., même si cela surprend au départ. Quand on explique la démarche et à quoi elle peut aboutir, c’est assez vite compris. Cependant, quand il s’agit d’un consortium, il y a des difficultés. J’évoquais Dor Breizh qui réunit cinq ou six acteurs. Pour savoir à qui appartient précisément les données, si elles sont libres de droit etc., des questions juridiques se posent. Dans la mesure où elles ont vocation à être diffusées, je ne vois pas pourquoi il y a des freins à cela. Après, on comprend bien pourquoi certaines personnes peuvent se montrer un peu frileuses.

Mais je pense que la dynamique est lancée, on ne reviendra pas en arrière, on a cassé les frontières, à Rennes comme en France. Notre exemple est un peu observé, cela va créer une vraie dynamique, il y a des enjeux importants derrière.

L’ouverture des données pose aussi des questions sur le plan juridique…

On va prendre une licence pour préciser le contexte dans lequel elles peuvent être utilisées, en application de la directive européenne de 2003 (transposée dans la loi français en 2005, elle autorise la réutilisation commerciale de ces données, Ndlr). Nous étions partis sur des Creative Commons et l’on s’aperçoit que les CC, qui sont éprouvés au niveau du droit international, couvre la réutilisation des œuvres. La commercialisation, la réutilisation de données retraitées a du mal à émerger dans le cadre de la licence CC : une œuvre d’art ne peut pas être réinterprétée et revendue. Il existe aussi la licence IP du ministère de la Justice mais qui ne correspond pas tout à fait aux données publiques au sens où on l’entend. En revanche, celle de l’APIE, (agence des biens immatériels de l’État), a été conçue dans ce sens et on devrait la réutiliser. Nous finalisons actuellement l’étude de cette licence.
De la même manière, il n’y a pas de jurisprudence, le droit s’écrit au fur et à mesure. On s’attend peut-être à ce que notre dispositif juridique soit observé.

Avez-vous des projets pour doper la participation et l’innovation ?

Nous allons lancer un concours d’app, mobile et web, du 1er octobre au 31 janvier, avec une dotation attractive de plus de 50.000 euros. Les critères : la notion d’accessibilité, d’intermodalité, de développement durable. Les donnée seront fournies gratuitement avec peut-être un plafond d’usage, pour éviter de faire gonfler notre parc serveur, ce qui coûterait cher, si nous avons trop de requêtes. Les app seront gratuites et la commercialisation des services issus de ces données pourra se faire sous forme de vente au téléchargement ou par voie publicitaire.

La question de la commercialisation était encore en suspend récemment, en fait vous vous dirigez dans ce sens. Ce n’est pas incompatible avec la philosophie du projet ?

Je ne crois pas, au contraire, on considère que ces données doivent avoir une valeur et nous laissons le marché réagir. Certains services seront gratuits, d’autres payants. Si cela ne crée pas de la valeur directe pour l’institution puisqu’on les livre gratuitement, elle peuvent en créer directement sur le territoire. C’est une façon d’inciter les gens à participer, d’étendre le champ des créateurs. Nous préférons cela au choix inverse, où nous vendrions les données avec un nombre moindre d’applis. Nous croyons à la multiplication des applis, quitte à ce qu’une grande majorité soit gratuite, car cela peut engendrer une autre relation aux institutions, au territoire et au service public. Dans une de mes présentations, j’explique qu’on passe du web 2.0 au web2, c’est-à-dire que l’on fait en sorte que l’habitant deviennent lui-même producteur de son propre service public, les possibilités sont presque infinies. Nous, en tant qu’institution, nous n’aurons jamais ni le temps ni les moyens pour réaliser une appli pour trente personnes.

Les prix seront réglementés ?

Ils seront libres.

Libérer les données, c’est un chantier coûteux ?

Oui et non. Je pense que je n’aurai pas de ligne budgétaire. C’est plutôt en temps-homme que cela se compte, il faut lancer la machine, après c’est assez simple. Dans le coût, il y a le développement des API, mais c’est à la marge, une API coûte entre 10 et 20 000 euros selon la complexité des données. On ne livre pas les données, on livre l’accès aux données et il faut assurer aux utilisateurs qu’elles seront mises à jour. En revanche bien sûr, j’aurai une ligne budgétaire pour le concours.

La réussite du projet passe aussi par un travail de pédagogie auprès des élus et du public…

Nous n’avons pas trop communiqué auprès du public pour l’instant, c’est plutôt auprès des institutionnels et des élus. La signature à Rennes depuis trente ans, c’est “vivre en intelligence”. La dynamique participative de proximité et d’innovation est déjà ancrée , la libération de données n’est qu’un nouvel outil.

Quel retour avez-vous eu en terme de participation ?

Sur les données vélo, nous avons déjà onze applis, en sachant qu’il n’était pas encore possible de croiser ces données avec d’autres. Les possibilités futures sont très prometteuses.

Quelles retombées espérez-vous pour le territoire ?

Nous attendons un maximum d’applications, une dynamique vertueuse d’ouverture plus importante de données, une dynamique créative dans tous les sens du terme : de valeurs mais aussi en terme d’innovation sociale. C’est aussi démontrer que le territoire de Rennes innove dans les usages issus de nouvelles technologies pour permettre leur développement. Cela participe aussi à l’attractivité du territoire, et ce n’est pas le moins important.

Vous faites une veille sur ce qui se passe en la matière dans d’autres pays. Allez-vous calquer des idées ? Par rapport aux autres initiatives, avez-vous une spécificité, lié à votre territoire, par exemple ?

La spécificité, c’est peut-être la prise de risque : nous avons franchi le pas. Nous regardons aux États-Unis les mises en commun qui se font entre villes. À l’échelle de la Bretagne, il y a peut-être des collaborations à mettre en place, entrer dans une démarche commune avec d’autres collectivités. Nantes réfléchit beaucoup, Paris a voté hier soir (mardi 8 juin, ndlr) une délibération mais qui n’a pas beaucoup de contenu, Brest Métropole Océane a également voté une délibération d’intention au conseil municipal. C’est mûr un peu partout pour aller au-delà.

De façon générale, vous notez une curiosité sur le sujet de la part d’autres collectivités ?

Bon nombre de collectivités y réfléchissent. J’ai l’impression que dans dix-huit mois on ne sera plus tout seul, c’est évident. Notre approche est de faire savoir pour partager, nous travaillons à livre ouvert pour faire progresser la réflexion nationale sur un certain nombre de champs : quels sont les points d’achoppement, le coût réel, les avantages… C’est aussi une ouverture de la démarche.

Vous rencontrez parfois de l’incompréhension, on vous prend pour des extra-terrestres ?

Pas à ce stade. Ceux qui nous interpellent sont plutôt des gens en réflexion. Ceux qui se mettent des freins dans leur tête ne font pas partie de la Fing (Fondation Internet nouvelle génération, qui accompagne entre autres les collectivités territoriales dans leur réflexion sur l’usage des nouvelles technologies, Ndlr).

Pour conclure, êtes-vous optimiste sur l’ouverture en France des données ? Ou ce mouvement sera-t-il laborieux, comme certains le pensent, parce qu’il ne s’inscrirait pas dans notre tradition ?

On va le faire et cela va révolutionner la manière de percevoir les services publics, cela va faire bouger un certain nombre de ligne dans les organisation municipales, ministérielles. Le plus gros frein ne sera pas les collectivités territoriales. Aujourd’hui les villes et les métropoles sont le cœur de l’innovation parce que c’est là où vivent les habitants, c’est là où la gouvernance de proximité se fait. Au contraire, c’est dans ces territoires que l’innovation sociale, au sens numérique, sera la plus grande. Les innovations se font dans des métropoles : à Rennes, à Bordeaux, à Montpellier, à Grenoble, à Lyon. Ce sera plus simple, plus rapide, plus efficace.

En revanche, cette révolution au niveau de l’État va certainement demander beaucoup plus de temps. Je ne veux pas juger l’APIE, mais elle connaîtra des difficultés.

À lire aussi

Rennes et Keolis : ils ont osé !

Libérons les données ! De quelques aspects juridiques

Données publiques en France: Girondins vs Montagnards ?

Photo CC Flickr Dr Craig et michibanban

Titre alternatif, refusé par ma hiérarchie : Libération des données : lâchez le Rennes!

]]>
http://owni.fr/2010/06/14/liberation-des-donnees-on-ne-reviendra-pas-en-arriere/feed/ 0
La troisième frontière du Web http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/ http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/#comments Fri, 12 Mar 2010 09:12:23 +0000 Patrice Lamothe http://owni.fr/?p=9960 PDG de Pearltrees et auteur du blog Cratyle, Patrice Lamothe expose dans ce billet les différentes phase de développement du Web. Parti d’un micro-démocratie où “chacun disposait de tous les attributs d’un média”, le réseau semble actuellement en mesure de franchir une frontière : celle qui vise à permettre à chacun d’être un média complet.

3173669231_8933744372

Chacun sent que le Web entre aujourd’hui dans une nouvelle phase de son développement.

Les tentatives de synthèse fleurissent, mais ne semblent pas suffire à rendre compte des évolutions en cours. Peut-être sont-elles encore trop vagues? ou déjà trop précises? Le concept de “Web Squared” s’ajuste assez bien au “Web 2.0″ passé, mais il ne permet pas vraiment de saisir la nature des changements, moins encore d’en déduire les effets concrets. Le “Web en temps réel”, l’une des principales expressions du moment, ne nous renseigne pas beaucoup plus sur la portée de ces changements.

Peut-être trouvera-t-on d’ailleurs inutile de vouloir décrire les évolutions d’ensemble du Web? Il y aurait de très bonnes raisons pour celà. Assemblage de ressources techniques, de fonctionnalités et d’usages, le Web ne se réduit à aucune de ces dimensions en particulier.

Le succès des nouveautés techniques y dépend de l’écosystème de produits existants. L’évolution des produits y est liée à celle des usages. Les usages ne s’y développent qu’à partir des techniques et des produits. Ce réseau d’interaction semble totalement rétif aux synthèses, tout occupé qu’il est à surprendre et à réinventer.

Je crois pourtant que la nature décentralisée du Web offre un moyen de comprendre son orientation. Sans dirigeant, sans régulation externe, sans règlement interne ou plus exactement avec un nombre de règles tel qu’aucune n’est jamais uniformément appliquée, les principes fondateurs du Web sont les seuls capables de véritablement le coordonner. Ce sont eux qui tracent les orientations de l’ensemble, des orientations que l’on peut donc comprendre et prolonger.

C’est cette piste que je voudrais explorer ici. J’espère qu’elle permettra d’éclairer la très courte histoire que le Web a connu jusqu’ici, peut-être plus encore d’en déduire les évolutions à moyen terme. Il ne s’agira certes pas là de prédire un quelconque avenir – il y a une limite au plaisir de se tromper – mais d’essayer de rendre visible des évolutions déjà engagées, des évolutions peut-être suffisament profonde pour influence le Web pendant de nombreuses années.

Les principes fondateurs du Web

Ces principes sont simplement les objectifs initiaux que Tim Berners-Lee et Robert Caillau ont donnés à leur projet. En éliminant le jargon technique, il est possible de les réduire à trois propositions générales et universellement valables:

1- Permettre à chacun d’accéder à tout type de document

2- Permettre à chacun de diffuser ses propres documents

3- Permettre à chacun d’organiser l’ensemble des documents

Ils ont guidé le développement des technologies, des fonctionnalités et des usages du tout premier Web, limité d’abord aux scientifiques du CERN puis aux communautés de chercheurs qui lui étaient liées.

En raison du très petit nombre d’utilisateurs initiaux et de la population très particulière à laquelle ils appartenaient, ce tout premier Web était doté d’une propriété qui n’a jamais été reproduite depuis : chacun de ses utilisateurs avait suffisamment de compétences techniques pour accéder aux documents, pour en créer, et enfin, en programmant en HTML, pour participer à l’organisation de l’ensemble des documents. A la fois lecteur, créateur et organisateur, chaque utilisateur se conformait aux trois principes fondateurs.

Le Web initial, micro-démocratie où chacun disposait de tous les attributs d’un média, assura son propre développement et fixa durablement ses orientations. Son objectif en tant que projet était tracé : permettre à chaque utilisateur de devenir un média complet, c’est-à-dire de lire, de créer et d’organiser l’ensemble des documents qu’il souhaitait.

L’ambition était à la fois immense et claire. Immense car il ne s’agissait ni plus ni moins que de démocratiser l’ensemble de l’activité médiatique. Claire, car l’utopie proposée à tous était en fait déjà réalisée par le petit groupe des pionniers. Elle plaçait ainsi les principes fondateurs au centre de la régulation et du système de développement du Web

Le Web devint un projet Open Source universel et sans leader déclaré, comparable en cela, mais à une autre échelle, à ce qu’est en train de devenir Wikipédia. Ses principes fondateurs assuraient l’intégration des nouveautés dans l’écosystème. Ils renforçaient naturellement celles qui leur correspondaient, freinaient mécaniquement les autres, et orientaient ainsi durablement l’évolution d’ensemble.

40899792_d82b223a25

Les deux premières phases d’expansion

Que l’on regarde maintenant les vingt années écoulées depuis le Web des pionniers, et l’on verra que les principes fondateurs ont non seulement assuré l’unité de d’ensemble du projet, mais encore structuré les étapes de son développement.

Le principe « permettre à chacun d’accéder à tous les documents » établit la première frontière du Web et guida sa première expansion. Pour l’essentiel, cette phase s’étendit de 1994-95 à 2003-2004. Elle correspondit au développement massif d’un Web pyramidal, dans lequel un petit nombre réalisait, organisait et distribuait les contenus que la majorité consommait.

Le portail et le moteur de recherche en étaient les produits clés ; HTML et PHP les technologies principales ; l’accès à l’information l’usage privilégié. Il n’est pas inutile de rappeler que ce modèle recouvre encore la majorité du Web actuel, et continue à se développer au rythme de croissance d’internet.

La deuxième phase d’expansion du Web commença lors des années 2000-2002, sous l’impulsion de projets tels que Blogger, Myspace puis Wikipédia. Rapidement identifié comme un tournant majeur, le « Web 2.0 » correspondit simplement à la popularisation du deuxième principe fondateur : « permettre à chacun de diffuser ses propres documents ».

Des technologies telles qu’AJAX ou RSS offrirent au plus grand nombre des fonctionnalités de création et de diffusion jusqu’alors réservées aux seuls développeurs. Une foule de produits permit à chacun de mettre en ligne des contenus de tous types. Le succès du premier Web et la force d’ensemble du projet permirent enfin aux usages correspondant de s’étendre massivement. Les blogs, les réseaux sociaux, les wikis devinrent les emblèmes de la démocratisation de la parole et de la discussion généralisée.

On peut aujourd’hui estimer que le Web participatif appartient au quotidien de 200 à 300 millions de personnes. Le deuxième principe du Web a franchi à son tour le petit cercle des pionniers pour transformer les usages du grand public. Les technologies, les produits et les modes de fonctionnements sont maintenant en place pour qu’il s’étende progressivement à l’ensemble de la population. Son développement, devenu prévisible, ne requiert plus d’innovation radicale. Il se prolongera naturellement au fil des années.


La troisième frontière

Même rapidement évoquées, les deux premières étapes font nettement apparaitre ce qui constitue aujourd’hui la nouvelle frontière du Web. Au-delà de la foule d’innovations et de nouveautés qui poursuivent des voies déjà tracées, l’une des trois composantes du projet Web, « permettre à chacun d’organiser l’ensemble des documents » est encore loin d’avoir trouvé la voie du grand public.

A-t-on remarqué que le maillon essentiel du tissu technologique du Web, la traduction technique du troisième principe, le langage HTML, est à la fois celui qui a le plus contribué à la diffusion du Web et celui qui s’est le moins éloigné de sa forme technique initiale ? Que la création des liens hypertexte, qui tisse la structure véritable du Web, l’architecture des sites, le point de repère des moteurs de recherches, reste une activité complexe, très éloignée du quotidien, très peu adaptée à la multitude d’usages qui pourraient en découler ?

Après avoir permis à chacun de tout lire et de tout diffuser, le Web doit permettre à chacun de faire ce que ses premiers utilisateurs ont toujours pu faire, ce qui est au cœur de sa radicale originalité : tout organiser. L’écosystème du Web doit progressivement bâtir les technologies, inventer les produits et façonner les usages qui permettront à chacun de manipuler les contenus créés par chacun, de les assembler, de les éditer, de les hiérarchiser, de leur donner du sens. Le Web doit permettre à chacun d’être un média complet.

S’agit-il là d’un souhait ? D’un pari ? D’une hypothèse prospective ? Il s’agit au fond de bien plus que cela. Si des orientations pratiques pour l’avenir d’un système aussi complexe que le Web peuvent être tracées, elles doivent s’appuyer sur les seuls points de coordination possibles entre des acteurs trop divers et trop nombreux pour eux-mêmes se coordonner. Elles doivent s’appuyer sur les seuls éléments partagés : les principes fondateurs du projet.

Dire que la prochaine étape du développement du Web est la démocratisation de la capacité de l’organiser, c’est simplement constater que des trois brins d’ADN initiaux du Web, celui-là seul n’a pas atteint le niveau de développement des autres. Qu’il constitue à proprement parler la nouvelle frontière du projet.

243706129_7d063b73a7_o

Vers le Web total

Mais s’il en est ainsi, dira-t-on peut-être, puisque les développements successifs du premier et du deuxième principe sont maintenant assurés, les techniques, les produits et les usages innovants ne devraient-ils pas aujourd’hui converger vers cette nouvelle frontière supposée ? C’est bien ce qui se dessine sous nos yeux : la troisième phase du Web est déjà lancée.

Les conditions, les besoins et les moyens sont réunis pour que le troisième principe du Web s’étende au-delà du petit groupe des professionnels et des pionniers.

Sur le plan des usages, les réseaux sociaux sont en train de populariser l’édition instantanée de contenus. Prés de 20% des twitts échangés contiennent des URLs. Facebook place l’échange de lien au sommet de sa hiérarchie de fonctionnalités. Chez nombre de passionnés du Web, la lecture des contenus proposés par une communauté remplace celle des aggrégateurs de flux automatisés.

Sur le plan des techniques, systèmes collaboratifs et « Web en temps réel » permettent à chacun de coordonner ses appréciations avec ses différentes communautés, d’organiser au fil de l’eau les éléments passant à sa portée. Le mouvement d’ouverture des données et les technologies sémantiques étendent à la fois la matière première d’organisation du Web et les moyens d’y accéder. Les interfaces riches offrent les moyens de simplifier à l’extrême les opérations d’édition et d’organisation, pour que chaque utilisateur puisse manipuler des données complexes de manière intuitive, ludique et naturelle.

Sur le plan des produits et des fonctionnalités, les géants du Web comme les start-ups les plus avancées se dirigent insensiblement vers le Web organisé par l’utilisateur. Les dernières innovations de Google ? Un système de collaboration généralisé – Wave – un système de discussion public de l’ensemble des contenus du Web – SideWiki – et l’ouverture de son moteur de recherche aux avis explicites et aux notations de ses utilisateurs.

C’est d’ailleurs le modèle hiérarchique et automatique du moteur de recherche que l’organisation du Web par ses utilisateurs s’apprête à remettre en cause. Wikia fut la première tentative notable de développement d’un moteur de recherche à algorithme collaboratif. Mahalo renforce maintenant la dimension humaine de la recherche en orchestrant les questions d’utilisateur à utilisateur. Pearltrees, précisément défini comme un réseau d’intérêt, permet aux membres de sa communauté d’organiser, de connecter et de retrouver naturellement l’ensemble des contenus qui les intéressent. Foursquare, à la différence des systèmes de géolocalisation qui l’ont précédé, ne s’applique pas aux personnes mais aux objets : les joueurs y organisent ensemble les lieux où ils ont l’habitude d’aller.

Les techniques, les produits et les usages issus des premières et deuxièmes phases ne vont pas pour autant s’effacer. La prochaine étape combinera au contraire les trois principes qui ont fait l’histoire et l’originalité du Web : elle fera de chacun à la fois un spectateur, un créateur et un organisateur.

Le Web sera alors pour tous ce qu’il fut pour un petit nombre : un média total, démocratique et démocratisé.

Patrice Lamothe

PDG de Pearltrees

> Article initialement publié sur Cratyle

> Illustrations par Robert Veldwijk, par psd et par Laughing Squid sur Flickr

]]>
http://owni.fr/2010/03/12/la-troisieme-frontiere-du-web/feed/ 26
Hadopi, Loppsi2: la revanche des anti-Internet http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/ http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/#comments Tue, 09 Feb 2010 08:48:47 +0000 Benoit Raphaël http://owni.fr/?p=7852 Titre original :

“Les effroyables imposteurs” sur Arte, Hadopi, Loppsi2: la revanche des anti-Internet

Dans la série “Internet est une poubelle qu’il faut contrôler”, Arte diffuse ce mardi soir un nouveau documentaire consacré aux… dangers du web: “Les effroyables imposteurs”. Coïncidence: cette diffusion intervient le jour du débat sur la loi Loppsi2 qui vise à instaurer des nouvelles techniques de contrôle des contenus sur le Net (lire aussi ici).

A travers une compilation un peu fouillis sur les conspirationnistes de tous bords, l’auteur du documentaire nous ressert le discours du “Web-poubelle-de-l’info”, peuplé de dangereux “non-professionnels” qui font circuler les pires rumeurs.

On connait la chanson. En ces temps de médiapocalypse, elle sonne comme la vaine tentative d’un système figé de sortir d’un lectorat/électorat qui lui échappe.

La rengaine ressurgit de temps à autre chez quelques représentants encore vaillants de cette vieille presse (pour preuve ce débat hallucinant de non-experts sur le web, chez Franz Olivier Giesbert), comme chez les politiques (voir la polémique, tout aussi hallucinante, autour de l’affaire Hortefeux).
Etrange miroir, d’un monde se contemple du haut de ses vieilles tours sans comprendre cette révolution qui a innondé ses terres.

Dans le docu d’Arte, le journaliste conclut son propos en s’attaquant évidemment au web participatif.
Pour appuyer sa thèse, il a déniché un article publié sur la page personnelle d’un internaute sur LePost.fr (dont je suis le co-fondateur) qui avait échappé à l’équipe de modération.
Je passe sur la méthode (le journaliste me contacte en me mentant sur l’objet de son reportage).
L’article détecté a naturellement été modéré à la suite de l’interview. Fin de l’histoire.

Comme de nombreux sites d’infos (Le Monde, Le Nouvel Obs, 20 Minutes etc), Le Post permet aux internautes de se créer un blog sur leur page personnelle. Et comme pour toute plateforme de blogs, le site ne censure pas a priori des contenus publiés sur ces pages personnelles.
Il ne le fait pas parce qu’il n’est pas éditeur de ces contenus amateurs, mais hébergeur. La modération se fait a posteriori, sur alerte des internautes (Sur LePost.fr, comme sur LeMonde.fr, nous allons cependant plus loin: les contenus sont 24h/24 par une société de modération, qui supprime les posts contraires à leur charte).

C’est la loi. Qui défend par là même la liberté d’expression. Les blogueurs sont responsables de leurs contenus et peuvent être évidemment poursuivis si leurs propos sont diffamatoires ou portent atteinte à la vie privée. Mais la loi n’impose pas aux hébergeurs un contrôle a priori des contenus. Pourquoi ?

Parce que, premièrement, c’est techniquement impossible. La France compte plusieurs millions de blogs. Sans compter les twitter et Facebook dont le nombre de membres a explosé ces derniers mois.
Imposer un contrôle a priori reviendrait à obliger ces médias sociaux à mettre la clef sous la porte.

Deuxièmement, vouloir imposer un contrôle a priori sur tous les contenus diffusés sur la toile, c’est commencer à mettre un verrou sur l’expression citoyenne. Un verrou imposé par le seul hébergeur (sur ordre de qui?) sur ce fameux “contenu généré par l’utilisateur” qui fait si peur aux politiques et à un certain nombre de mes confrères.

En témoigne l’article surprenant de Xavier Ternisien, dans le Monde daté du dimanche 7 et lundi 8 février, à propos de ce documentaire. Pour ce journaliste, régulièrement attaqué par la blogosphère (ou par ses confrères du web), aucun article rédigé par un non-professionnel ne doit être mis en ligne “sans avoir été validé par un journaliste”.

Les journalistes ne se trompent jamais, c’est bien connu.

De quoi ont-ils peur ?
D’une remise en question ?

Car de cette “poubelle” qu’est Internet, de cette poubelle que serait finalement la blogosphère (parce que c’est bien la blogosphère dans son ensemble qui est attaquée dans ce docu), émergent de vrais talents, des analystes pertinents, des militants féroces. On y trouve même des “amateurs” qui, parfois, enquêtent et dénoncent les erreurs des journalistes professionnels. Inconcevable!

De cette poubelle émergent des Maître Eloas… Quand cet avocat-blogueur, qui refuse d’être assimilé à un journaliste, commente, analyse l’actualité du droit, fait témoigner des professionnels de la justice, et sort de temps à autre des infos exclusives, il concurrence effectivement les journalistes dans leur coeur de métier.
Il est rigoureux, il vérifie ses informations. Il participe à l’effort d’information du citoyen.
L’information, ce maillon fragile entre le citoyen et la démocratie.

De cette poubelle émergent des opinions qui dérangent, des vidéos que l’on aurait préférées laisser sous le sceau du “off”, des infos qui ne passent jamais au 20h, des remises en question des médias traditionnels qui, pendant longtemps, ont vécu dans le confort du surveillant jamais surveillé…

Evidemment, tous ces nouveaux contenus ne sont pas de qualité. Certains sont mêmes illégaux. Mais ils n’échappent pas ni à la loi, ni à la vigilance des communautés sur Internet, qui savent aussi s’organiser pour débusquer les fausses informations.

Surtout: toutes ces masses d’”effroyables” amateurs qui se passent des infos, les commentent, les éclairent, les détournent, échappent non seulement au filtre des médias et des politiques, mais ils remettent également en cause modèle économique. Crime ultime !

C’est le nerf de la guerre de la loi Hadopi, poussée par des lobbies du disque en mal d’esprit d’entreprise: on préfère aller contre les usages pour punir et contrôler. Aberration économique.

C’est l’argument massue de la prochaine loi Loppsi2: on exploite la peur du pédophile ou du nazi pour justifier un contrôle d’Internet.

Oui, il y a n’importe quoi sur le Net.
Oui, il y a de très belles choses aussi.
Oui, il y a des contenus et des auteurs devenus aujourd’hui indispensables.
Et cet indispensable n’aurait jamais émergé dans cet environnement contrôlé a priori par les médias traditionnels.

Les journalistes seraient plus inspirés de trouver leur place dans ce nouvel écosystème plutôt que de faire perdre l’argent à la télévision publique à tenter de démontrer avec des ficelles aussi grosses que des gazoducs que le web est dangereux.
Ils devraient la jouer “Journalistes+amateurs” plutôt que “journalistes contre amateurs”.
Se battre contre l’effroyable amateur en brandissant le sceau divin de sa carte de presse, ce n’est pas à l’honneur d’une profession qui, au fil du temps, a toujours sur prouver qu’elle était capable de s’adapter au bouleversement permanent du monde et des usages.

» Article initialement publié sur Demain, tous journalistes ?

» Photo d’illustration en page d’accueil par Stian Eikeland sur Flickr

]]>
http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/feed/ 3
CitizenSide, l’avenir de l’AFP http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/ http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/#comments Fri, 04 Dec 2009 17:58:45 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=5938

CitizenSide est une agence de presse d’un genre nouveau. Destinée aux reporters amateurs, elle se propose de récolter images et vidéos pour les revendre à des médias. L’AFP est entrée au capital, flairant la bonne affaire, et plus si affinités.

La vérité avance sur des pattes de colombes. C’est aussi valable pour les avancées technologiques. Certaines sont discrètes, marginales par leur volume, mais elles possèdent néanmoins en elles tous les ingrédients pour s’affirmer bientôt comme maîtresses du jeu. CitizenSide est de celle-ci.

CitizenSide est une abomination pour tous les journalistes de l’agence française de presse. Le principe repose sur le constat simple de la surveillance globalisée par les citoyens. Chacun peut en effet être confronté à un événement, et en saisir l’essence, ou du moins une trace, un témoignage au mieux, à l’aide d’un appareil photo, le plus souvent planqué dans un téléphone mobile. Une fois le cliché dans la boite, il peut être redistribué par le réseau CitizenSide. Et comme l’indique le site en ouverture, il est même possible d’être rémunéré pour ses photos. Car CitizenSide a passé des accords avec quelques médias qui sont prêts à payer pour ces images “big brotheriennes” – Voici, Public, BFM TV, RTL, Le Parisien, Metro et 20 Minutes. Les prochains partenariats du genre viendront de l’international ont indiqué les fondateurs du site.

Information amateur

Plusieurs questions se posent évidemment, comme celle de la modération des contributions, ou encore de la vérification de la véracité des clichés ou vidéos proposés par les internautes. Et c’est là que CitizenSide devient un outil, ou pour tout dire, une plateforme d’avenir pour l’AFP. D’ailleurs, le président de la vénérable institution, Pierre Louette, dont le parcours dans les nouveaux médias plaide en sa faveur, si l’on veut bien excepter son court passage à la tête d’Europ@web, ne s’y est pas trompé. L’AFP a ainsi pris 34% du capital, “quelques dizaines de milliers d’euros“, confie Pierre Louette. Pas de quoi fouetter un chat en effet, mais tout de même suffisamment pour faire la démonstration que le site possède du potentiel.

En fait, celui-ci ne réside pas forcément dans le réseau d’internautes membres de CitizenSide, mais dans la présence de l’outil EditorSide. Comme son nom l’indique, celui-ci permet d’éditorialiser, de trier et de redistribuer l’”information amateur“. Il est donc le pendant Web, léger, facile à connecter et totalement multiplateforme, du service AFP. Alors que ce dernier en est encore à l’âge de la console austère et propriétaire, CitzenSide apporte la souplesse du Web dans la machinerie d’agence de presse. Et comme souvent, dans ces cas-là, les jeux sont déjà faits, mais cela ne se verra que dans quelques années…

Bien sûr, il n’est pas question de remplacer les journalistes de l’AFP par des Web-journalistes, ou journalistes citoyens, un terme que rejette d’ailleurs CitizenSide. On l’a suffisamment répété, mais le métier de journaliste requiert du temps et de la technique, ce qu’un citoyen ordinaire n’a pas forcément, et ne veut surtout pas apprendre forcément. La spécialisation est gourmande, elle implique un investissement de temps et de vie que chacun n’est pas prêt à faire, tout bonnement. Ceci dit, CitizenSide montre bien qu’elle sera la structure future de l’AFP : un rhizome technologique de récolte de l’information, ouvert ensuite à la vente de cette matière au combien volatile.

Le client est roi

D’où viendra cette information ? Voilà tout le travail qui reste à faire pour les équipes de Pierre Louette, mais cela ne pourra se faire sans une étroite collaboration avec les fondateurs du site : Matthieu Stefani, Philippe Checinski et Julien Robert. Xavier Gouyou-Beauchamps, ancien patron de France Télévisons est aussi de la partie en tant que président de la structure, et actionnaire via la société IAM.

Le mélange des genres entre citoyens et journalistes pourrait être simplement marginal. Le décloisonnement des genres entre amateurs et professionnels de l’information devrait ainsi être réorganisé et planifié, d’une certaine manière, par les petites mains de CitizenSide. Pour ceux qui cherchaient un avenir au métier de secrétaire de rédaction, il est tout trouvé : sélectionner la meilleure information, avec si possible une concurrence acharnée entre pros et amateurs, notamment sur la photo ; l’éditer et enfin, la passer au service de vente… à moins que ce ne soit l’inverse. Le client est roi, et ce serait donc aux médias clients, situés en bout du rhizome, que reviendrait la demande. Le média ferait enfin l’information, celle qu’il veut, adaptée à son lectorat, et non plus suiveur d’une bulle journalistique de l’actualité, comme on la voit bien trop se former encore aujourd’hui. Voilà qui sonnerait enfin le glas du journaliste analogique. Avec l’avénement du témoignage de rhizome, l’information passe dans l’ère de l’abondance. Renversant ainsi les paradigmes, comme on a l’habitude de dire dans pareil cas.

» Article initialement publié sur Electron Libre

]]>
http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/feed/ 1
Animation de communauté: on ne dope pas l’audience, on la construit http://owni.fr/2009/07/23/animation-de-communaute-on-ne-dope-pas-l%e2%80%99audience-on-la-construit/ http://owni.fr/2009/07/23/animation-de-communaute-on-ne-dope-pas-l%e2%80%99audience-on-la-construit/#comments Thu, 23 Jul 2009 16:47:57 +0000 Philippe Couve http://owni.fr/?p=2086 Un article du Monde se penche sur les animateurs de communautés qui commencent à apparaître dans les médias français quelques années après leur émergence les médias américains et britanniques. Ecrit par Xavier Ternisien, cet article me semble appeler plusieurs commentaires de la part du créateur/animateur de communauté et néanmoins journaliste que je suis depuis deux ans. [Ce billet était au départ un commentaire déposé du FriendFeed]

L’article me semble un peu réducteur. Son titre surtout: “Sur le Net, des journalistes se muent en animateurs pour doper les audiences”. L’animation de communauté n’a pas grand chose à voir avec du dopage, c’est même tout l’inverse: un travail de fond pour des résultats d’audience très progressifs. Les Marco Pantani qui grimpent les sommets des statistiques de fréquentationutilisent d’autres techniques.

Je passerais sans m’attarder sur la condescendance du titre qui assure que les “journalistes se muent en animateurs”. Depuis le portrait-robot du journaliste multimédia (qui date de 2 ans), j’ai pu constater que le fait de dialoguer avec l’audience était souvent une perspective effrayante pour les journalistes.

Quelles sont les idées qui sous-tendent l’idée de communauté pour les médias? Il y en a deux principales, je crois.

La première est de considérer que quelque chose peut émerger du dialogue avec l’audience dans la mesure où le journaliste n’est pas omniscient. C’est qui est dit dans le papier par Marie-Amélie Putallaz:

Sa première fonction est de modérer les commentaires des internautes. Elle n’aime pas ce mot : “Modérer, c’est laisser entendre qu’on coupe, qu’on censure. Mon rôle consiste aussi à valoriser les réactions des lecteurs, à les synthétiser.” Elle lance des appels à témoignage en rapport l’actualité. Au besoin, elle entre en contact avec les internautes par mail. “Je leur demande d’apporter des informations. En échange, ils me disent ce qu’ils veulent voir et entendre. Je suis un peu l’ambassadrice des internautes auprès de la rédaction.”

Au delà de cela, il me semble que l’une des dimensions communautaires essentielles pour les médias n’est pas abordée dans l’article du Monde. Créer une communauté autour de son média, c’est (re)créer une forme d’attachement, un lien affectif entre le média et l’internaute. C’est au final créer d’autres raisons de revenir sur le site que le simple fait d’y trouver des informations. On sait aujourd’hui que l’info ne fidélise pas, que les sources sont innombrables et que l’internaute est volage. En revanche, on sait aussi que la perspective de retrouver une communauté est un élément de fidélisation (stickyness diraient les Américains).

Le problème, c’est que l’on peut imaginer que les médias vont être de plus en plus nombreux à vouloir “recruter” les internautes les plus pertinents et efficaces en matière de veille/recherche/exploitation/vérification/mise en perspective de l’information. Hypothèse: ces internautes vont choisir de contribuer dans les communautés où l’échange symbolique (à défaut de pécuniaire) sera le plus important. Il est donc essentiel de se positionner vite et bien pour les médias de manière à constituer des communautés cohérentes en expérimentant ce que peuvent être les termes de l’échange avec les internautes. Et ils sont multiples. C’est que Marie-Amélie sous-entend, je crois, en disant: “Mon rôle consiste aussi à valoriser les réactions des lecteurs, à les synthétiser.” Le rôle consiste aussi à former les internautes (cf. le coach de Le Post.fr) comme cela avait été mis en avant lors du 1er sommet du journalisme en réseau (Networked journalism):

Si les journalistes deviennent membres de la collectivité avec laquelle ils pratiquent le co-journalisme, leur position change. Il est question d’échange de savoir (ou savoir-faire) entre le journaliste et la collectivité et non plus d’échange d’information seulement. Et l’une des compétences du journaliste est de savoir organiser cette collectivité.

On n’est vraiment pas dans le dopage.

Je termine avec 10 conseils pour animer une communauté en ligne (un peu ancien mais toujours d’actualité) et une suggestion: et si on se faisait un apéro “Virenque” avec ceux qui dopent l’audience à l’insu de leur plein gré.

Article initialement publié sur Samsanews

]]>
http://owni.fr/2009/07/23/animation-de-communaute-on-ne-dope-pas-l%e2%80%99audience-on-la-construit/feed/ 2