OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Photographie et presse: entre illustration et confusion http://owni.fr/2011/02/15/photographie-et-presse-entre-illustration-et-confusion/ http://owni.fr/2011/02/15/photographie-et-presse-entre-illustration-et-confusion/#comments Tue, 15 Feb 2011 09:00:57 +0000 Patrick Peccatte http://owni.fr/?p=46094 Les agences de presse diffusent leurs photos sous forme numérique. Et depuis maintenant une vingtaine d’années, chaque fichier image fourni aux clients contient la description textuelle de la photo .

Cette technique est supportée par tous les systèmes éditoriaux en usage dans les médias (print ou web) qui reçoivent des photos d’agence. Par ailleurs, au cas où le média ne serait pas équipé d’un tel système, il existe de nombreux outils peu onéreux ou même gratuits qui permettent d’exploiter très facilement ces légendes encapsulées dans les images. L’avantage de ce procédé est évident. Le lien entre une image et sa description est toujours disponible et permet au rédacteur de rechercher et d’utiliser aisément et sans erreur les photos d’agence.

Opacité des images

Certains éléments du descriptif inclus dans une photo peuvent être utilisés par le rédacteur et repris dans un article. C’est ainsi que l’on peut parfois lire dans la légende d’une photo publiée quelques précisions concernant la date et le lieu de prise de vue de celle-ci. Ces informations sont souvent importantes quand la photo est antérieure aux événements décrits dans l’article. Dans ce cas en effet le rédacteur signale par ce moyen simple que l’image n’est pas en rapport direct et immédiat avec le contenu de l’article, que la photo ne relève pas véritablement du soi-disant mode documentaire. Elle fonctionne d’emblée sous un régime illustratif que le lecteur doit lui-même interpréter à l’aide des informations rapportées dans la légende.

Le fonctionnement illustratif des photos publiées dans les médias d’actualité a souvent été abordé sur Culture Visuelle et il dépasse évidemment cette mention de la date et du lieu de prise de vue des clichés proposés. Ce billet cependant s’attachera uniquement à ces caractérisations évidentes dont l’oubli, en ce qui concerne les sites d’actualité, est une source de confusion regrettable et parfaitement injustifiable.

Dans le cas des journaux et magazines classiques, imprimés, la reprise de certaines informations spécifiques à une photo comme la date et le lieu de prise de vue est entièrement contrôlée par le rédacteur. Sauf incohérence manifeste, il est très difficile sans ces indications de détecter une photo publiée qui ne soit pas en relation directe et immédiate avec le sujet de l’article qu’elle illustre, comme par exemple une photo d’une ancienne manifestation prise quelques jours avant un papier décrivant une manifestation actuelle. Sur le Web par contre, pour autant que les métadonnées descriptives de la photo n’aient pas été effacées, c’est facilement décelable : comme beaucoup de ses confrères, le site lejdd.fr rend compte des manifestations à Alger dans un article intitulé Des violences en Algérie, signé B.B (avec Reuters). L’article est illustré d’une photo de l’agence Maxppp avec la légende Une manifestation a dégénéré à Alger.

Article du JDD.FR daté du 22 janvier 2011

Or, cette photo date en fait du 7 janvier 2011 comme on peut s’en rendre compte en affichant les informations contenues dans le fichier image. Par ailleurs, elle figure sur le book du photographe Billal Bensalem, postée le 8 janvier.

Informations contenues dans l'image affichées à l'aide de l'outil Jeffrey's Exif Viewer

Mais le Web permet également d’effectuer des recherches de photos similaires publiées un peu partout dans le monde. Comme les agences, fort heureusement pour elles, vendent leur production à de multiples clients, il est facile en quelques clics soigneusement ajustés de retrouver les différentes utilisations d’une photo. Étudiée par Olivier Beuvelet dans un récent billet, une photo prise lors d’une manifestation à Alger a ainsi été publiée le 22 janvier dernier par plusieurs sites (cliquer ici), toujours en relation avec les événements du jour. Tous les sites en question ont manifestement repris et adapté une dépêche et une photo associée fournies par l’AFP, mais tous n’ont pas eu l’honnêteté de mentionner que la photo date du 7 janvier, laissant le lecteur croire qu’il s’agit d’une image prise le jour même. De même, la candidature d’Erik Israelewicz à la direction du Monde (cliquer là) mobilise un nombre très restreint de photos dont certaines remontent à 2005 ou 2008 (sans que cela soit toujours mentionné) tandis que d’autres sont présentées à l’envers.

Embarquer les métadonnées

La présence de métadonnées dans certaines photos et la possibilité de chercher et comparer d’autres instances publiées ouvrent donc pour le lecteur attentif de nouvelles perspectives. Il est bien plus facile qu’auparavant de tenter de comprendre les choix d’images, de déconstruire leur éditorialisation, souvent volontairement masqués par les rédacteurs. Désormais, beaucoup de choix iconographiques discutables et d’approximations éditoriales peuvent se repérer.

On pourra soutenir que ces imprécisions sont de peu d’importance; c’est l’article dans son ensemble qui compte, pas les images. Mais cela signifie alors que l’image est d’emblée conçue par le rédacteur comme une illustration accessoire, réduite à sa fonction décorative. Selon cette conception qui non seulement subordonne l’image au texte mais lui dénie de fait toute valeur informative, la photo n’est jamais traitée avec le même sérieux, la même rigueur dont le rédacteur est supposé faire preuve dans son article. Que dirait-on en effet d’un journaliste qui décrirait ainsi une manifestation récente: « cela s’est passé ce matin, ou peut-être il y a quelques jours, c’est à vous de le découvrir, etc. ».

On pourra rétorquer aussi que la suppression des métadonnées d’une photo d’agence fait partie des prérogatives éditoriales du média, au même titre que le recadrage de l’image, la correction chromatique ou même la retouche. Les métadonnées des images relèveraient de la « cuisine interne » à une rédaction et ne concerneraient pas le lecteur. Au passage, on remarquera que si l’on retient cet argument (ce que je ne fais pas), il n’est guère possible par contre d’interdire à un lecteur de comparer en quelques minutes les différentes utilisations d’une même image, ce qui est évidemment impossible avec les publications imprimées.

Je défends un point de vue exactement opposé. Les métadonnées embarquées sont indispensables tout le long de la chaîne éditoriale et n’ajoutent que très peu de poids aux images publiées sur Internet . Le Web permet de conserver ces métadonnées jusqu’à la publication, ce qui n’était pas possible avec le print. Elles apportent alors des précisions utiles au lecteur exigeant. Il existe dores et déjà des outils qui permettent d’afficher ces informations d’un simple clic. Les métadonnées produites par les agences de presse devraient être systématiquement conservées dans les photos publiées. Un site qui prétend traiter sérieusement l’actualité en effaçant systématiquement ces informations est encore englué dans une conception top-down désormais dépassée du paysage médiatique. Il prétend surplomber son lectorat, savoir ce qui est bon pour lui et ce qui ne l’est pas. En bref, il n’a pas confiance en ses lecteurs.

-
Deux billets publiés initialement sur le blog Déjà Vu/Culture Visuelle : Les photos d’agences de presse sur les sites d’actualité, entre illustration et confusion, et, Pour le jdd.fr, les manifestations se suivent et se ressemblent
-
Crédits photo : captures d’écran du jdd.fr ; Library of Congress [Domaine Public]

]]>
http://owni.fr/2011/02/15/photographie-et-presse-entre-illustration-et-confusion/feed/ 5
Quatre voies du datajournalism http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/ http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/#comments Wed, 07 Apr 2010 10:27:56 +0000 Caroline Goulard http://owni.fr/?p=11781 J’ai eu l’impression, ces derniers jours, de répéter plusieurs fois la même chose à des personnes différentes (ce qui est un vrai plaisir quand il s’agit de datajournalism). D’où l’idée d’articuler ici ces quelques éléments récurrents.

2152798588_724f8a2f1c

Photo CC par Ian-S sur Flickr

Finalement, le datajournalism ou journalisme de données, peut difficilement se résumer à un type de contenus ou à un type de démarche. J’ai identifié quatre dimensions, et pour chacune les compétences nécessaires à sa mise en œuvre :

1-COMPRÉHENSION : le datajournalism permet de mieux comprendre le monde.

Pour cette visualisation des succès au box office américain depuis 1986, l’équipe du nytimes.com a particulièrement travaillé sur la forme des courbes, et leur couleur.

Le datajournalism, c’est de la visualisation d’information. C’est une des composantes du traitement rich media (tel que le définit Alain Joannes), une des applications du journalisme visuel. Dans cette première logique, le datajournalism permet de faire comprendre par l’image certaines idées bien mieux que ne le feraient des mots.

Le datajournalism fait ici appel aux compétences des graphistes et aux connaissances en sémiotique visuelle ou en sémiologie graphique : pour que chaque forme et chaque couleur fassent sens instantanément.

Pour faire comprendre une affaire d’espionnage politique à Madrid, elpais.com a mis au point une visualisation animée et interactive.

Mais le datajournalism va au delà de l’infographie car il ne s’adresse pas uniquement à l’intelligence visuelle, il travaille également sur l’intelligence cinétique. En datajournalism la visualisation est forcément interactive. Elle doit permettre à l’internaute de jouer avec les données, de manipuler la visualisation. Plongé dans une posture active, l’usager appréhende et mémorise plus facilement l’information.

La datajournalism ne pourra donc pas se passer des compétences d’un interaction designer. Ni de celles d’un ergonome.

2.PERSONNALISATION : le datajournalism permet de personnaliser la vue sur le monde

Gapminder permet de visualiser à la demande les relations entre différents indicateurs statistiques mondiaux.

Le datajournalism, c’est aussi de l’information à la carte. Un des moyens de répondre à la fragmentation des audiences.

La visualisation de données consiste à bâtir une interface graphique pour accéder à une base de données. Cela permet bien sûr de proposer un aperçu de gros volumes de données, d’en faire jaillir le message essentiel.

Mais cela ouvre également la possibilité d’interroger n’importe quelle partie de cette base de données, et de la rendre accessible et compréhensible instantanément. Ainsi, une des dimensions de l’interactivité consiste à rendre la visualisation librement paramétrable.

Une application de datajournalism peut alors répondre à toutes les attentes particulières des internautes autour d’un thème d’information.

Les savoir-faire d’un architecte de l’information deviennent ici utiles.

3.INVESTIGATION : le data journalisme permet d’éclairer autrement le monde.

En analysant un document de 458 000 pages sur les notes de frais des députés britanniques, le Guardian a révélé des abus dans l’utilisation des fonds publics britanniques.

Le datajournalism est également un outil d’investigation. Les bilans de la Cour des comptes, les rapports du FMI, les statistiques de l’OCDE, etc., contiennent énormément de matériaux pour le journalisme d’investigation. Seulement, il faut savoir faire parler ces données.

C’est-à-dire qu’il faut prendre le temps de les lire, qu’il faut savoir les interpréter, qu’il faut des outils pour appréhender des tendances à partir de gros volumes de données, qu’il faut avoir l’idée de croiser une base de données avec une autre, etc., pour faire apparaître des informations jusque-là ignorées.

Interroger les données plutôt que les témoins est un art encore très délaissé par les médias français. Peut-être parce que cela suppose d’emprunter des outils et des méthodes aux sciences (voir l’article de RWW France) : pour extraire de l’information d’immenses bases de données, il n’y pas d’autres moyens que de construire des modélisations, que d’utiliser des outils de gestion de la complexité.

Impossible de réaliser ce genre d’investigation sans statisticiens.

4.PARTICIPATION : le datajournalism permet de participer à la description du monde

Avec l’aide de 200 internautes, l’équipe d’Owni.fr a géolocalisé les bureaux de votes français et a rendu cette base de données gratuite, ouverte et libre.

Enfin, le datajournalisme suppose parfois de faire appel au crowdsourcing pour collecter les données et pour les qualifier.

Lorsque la base de données n’existe pas, lorsqu’il est matériellement impossible qu’un petit groupe de personnes collecte toutes les données sur un sujet, la force du datajournalism réside dans sa capacité à fédérer la participation des internautes pour obtenir des données à faire parler.

Cela nécessite un gros travail d’animation de communauté.

Il faut encore mentionner deux compétences indispensables au datajournalism, et transversales à ces quatre dimensions.

Tout d’abord les savoir-faire des développeurs. Développeur axé back office et data, pour construire et gérer les bases de données, mais aussi développeur axé animation, flash, et front office.

Et pour finir, pas de datajournalism sans travail d’éditorialisation.

Par éditorialisation j’entends : problématisation, inscription dans le débat public, storytelling, hiérarchisation, définition d’un angle de traitement de l’actualité et d’un message à délivrer. Vous remarquerez que l’esquive volontairement la référence au journalisme.

Je suis persuadée qu’il n’y a pas besoin de se définir comme journaliste pour être capable de remplir ce rôle d’éditorialisation.

Maintenant, est-ce que ce travail d’éditorialisation est du journalisme? Je vous laisse en débattre.

]]>
http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/feed/ 31
Editorialisation a posteriori http://owni.fr/2010/01/18/editorialisation-a-posteriori/ http://owni.fr/2010/01/18/editorialisation-a-posteriori/#comments Mon, 18 Jan 2010 16:34:25 +0000 Martin Lessard http://owni.fr/?p=7070 J’évoquais en 2004 les 3 conditions pour que le RSS devienne grand public. Les trois conditions ont été accomplies (on dit “fil web” et le logo est normalisé; on peut s’abonner en 1 clic; tous les grands navigateurs l’ont intégré). Mais alors pourquoi le RSS est-il si peu utilisé par le grand public? Parce qu’il est resté cantonné à un usage technique. Le RSS a été remplacé par Twitter et Facebook.

http://www.freemediagoo.com/display.asp?result=202Le RSS est une commodité qui facilite le suivi d’info en ligne. Mais le grand public ne suit pas un fil web. Il suit un collègue, un ami pour qu’il le pointe vers une ressource nouvelle. Un ami (un “relais”) joue ainsi le rôle du fil RSS. Un filtre social.

Là où le RSS indiquait ce qui était (techniquement) nouveau, le filtre social permet de trouver ce qui est “socialement nouveau” dans son cercle de relations (pus ou moins étendu). À quoi ça sert de savoir que tel billet est nouveau si personne de son entourage ne s’y intéresse?

Notifications à la main

On veut savoir ce qui éveille l’attention de notre groupe : si le fil RSS permet de suivre ses aiguilles dans la botte de foin, il les présente à plat, sans hiérarchie. Twitter et Facebok offre une fonction d’éditorialisation a posteriori. L’information acquiert une métadonnée supplémentaire: elle représente le Zeitgeist, l’esprit du temps (de son cercle).

Facebook et Twitter offrent la possibilité de faire suivre des liens vers des ressources d’informations quasi instantanément. Facebook, plus privée et Twitter plus public, sont des médias sociaux bottom up.

Le partage de liens constitue, ma foi, l’usage le plus intéressant de ces réseaux. Or, pourtant, Delicious était là bien avant. Pourquoi le “social bookmarking” n’a-t-il pas été adopté par le grand public? Il offre pourtant les mêmes avantages de partage et même plus.

Facebook, parce qu’il permet de restreindre sa communauté à un cercle (plus ou moins) limité. Le partage n’a pas de visée universelle, mais est presque tribal.

Twitter, parce qu’il a su mettre de l’avant le nombre d’abonnés (“followers”) entrant ainsi de plain-pied dans l’économie de l’autopublication en adhérant à la monnaie commune : la reconnaissance. Connaître et identifier son audience grandissante offre une “récompense” à celui qui autopublie.

À mon sens, Twitter a une avance sur ce côté. Le nombre d’abonnés sur Facebook fait moins de sens que sur Twitter. Ce dernier se place mieux dans le nouvel écosystème de l’information.

Tri en périphérie
Le filtre social est une réponse à la surabondance d’information des réseaux. Le tri de l’information ne se faisant plus en amont, il est déchargé en aval sur l’utilisateur qui doit adopter de nouvelles stratégies de tri pour gérer cette subite augmentation de connaissance.

Le filtrage social retient ce qui est pertinent dans son cercle de connaissance et répond à une loi toute humaine du moindre effort : une info qui n’est pas de “qualité” (insérez ici vos critères personnels) ne se rend pas jusqu’à vous (ou alors vous vous êtes mal entouré).

Avec la montée des médias sociaux durant cette décennie qui se termine, le filtrage social par la base a atteint une échelle proprement vertigineuse et nous verrons dans les prochains dix ans l’impact que cela aura sur la société. Je suivrai pour vous ces avancés en 2010.

» Article initialement publié sur Zero Seconde

]]>
http://owni.fr/2010/01/18/editorialisation-a-posteriori/feed/ 0