OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les data en forme http://owni.fr/2012/09/17/les-data-en-forme-48/ http://owni.fr/2012/09/17/les-data-en-forme-48/#comments Mon, 17 Sep 2012 16:27:53 +0000 Paule d'Atha http://owni.fr/?p=120321 Owni vous emmène aux côtés des petits poissons, des gros donateurs des élections US, des contributeurs et "trices" de Wikipédia, au fond des finances des croyants et au coeur des molécules d'air. Embarquez pour ce 48ème épisode !]]> Nous sommes encore loin de Noël mais nous, chez Paulette, on aime les cadeaux. Attaquons donc ce 48ème épisode des Data en forme par un petit bijou.

Cette animation signée par le designer allemand Uli Henrik Streckenbach est une leçon de mise en scène des données. Sur 4 minutes et 20 secondes, c’est une véritable histoire de la surpêche qui se raconte où tous les chiffres sont à la fois les personnages et le décor.

Point besoin d’en dire plus, installez-vous, la projection débute…

Cliquer ici pour voir la vidéo.

Confirmation une fois de plus que l’un des secrets de tout bon travail autour des données tient dans cette question essentielle : que nous racontent les data ? Avant de plonger dans les outils de visualisation, il est toujours bon de s’attarder, parfois longtemps, sur la narration que l’on souhaite développer.

En donner #oupas

Après ce récit visuel aussi fluide qu’implacable, passons à la séquence “Élections US” qui risque d’être assez récurrente jusqu’au mois de novembre prochain. Cette semaine dans notre escarcelle : deux traitements data liés à la campagne.

The forest of advocacy” est une plateforme qui proposera un jeu de visualisations par semaine jusqu’au scrutin. Pour commencer, cette équipe aux compétences multiples – science politique, science des réseaux, psychologie, sociologie, analyse des médias, datavisualisation… – s’est arrêtée sur les grandes organisations finançant la campagne des deux partis.

L’équipe du LazerLAB a choisi huit grandes organisations qu’elle considère comme représentatives des différentes postures de ces structures : celles finançant le même parti avec constance au fil du temps, celles plus “mouvantes” ou encore celles, comme la banque Goldman Sachs, qui financent à part quasi-égale les deux camps assurant ainsi leurs intérêts quelque soit le résultat sorti des urnes.

Cliquer ici pour voir la vidéo.

Pour chaque organisation, les donateurs sont représentés par des carrés évoluant sur deux axes. Celui des abscisses qui partage horizontalement la visualisation en deux est un repère temporel, celui des ordonnées est le montant des donations : soit à destination des Républicains pour la partie haute ou des Démocrates pour la partie basse.

Ces visualisations sont proposées dans des modules vidéos commentés, ce qui a un vrai effet pédagogique, mais qui ne nous permet pas de jouer directement avec, ni d’explorer les données en détail, seule ombre à ce travail.

Le second traitement data de la campagne américaine est signé du Washington Post. Plusieurs visualisations interactives sont proposées sur le site du journal américain, toujours via le prisme de la cartographie.

La dernière en date est axée sur les déplacements des candidats à la fonction suprême. Où l’on apprend que le candidat républicain arpente plus le territoire que son adversaire occupant actuellement la Maison Blanche, Mitt Romney quadrillant notamment plus l’intérieur des terres américaines.

Les données du Washington Post ne s’arrêtent pas là puisque sont également comptabilisés les déplacements des épouses des candidats – ici la tendance s’inverse, Michèle Obama est bien plus sur les routes qu’Ann Romney – ainsi que celle des vice-présidents et de leurs conjointes.

Pour compléter cette visualisation géographique, une timeline affiche la répartition de ces visites dans le temps et de courtes notes de contexte sont proposées pour chaque événement.

En avoir #oupas

Pour qui veut s’exercer à rendre lisible des jeux de données complexes, Wikipedia et ses millions d’articles et de contributeurs peuvent être une destination tentante, notamment via son API. Santiago Ortiz, développeur indépendant rompu à la mise en scène interactive de données, s’est amusé à faire joujou dans ce luxuriant jardin plein de chiffres.

Partant d’un article du New York Times pointant la prédominance des contributeurs masculins, il est allé à la source et a développé une web-application permettant de parcourir ces données.

Si elle n’est pas évidente à appréhender au premier coup d’œil, elle mérite que l’on y passe quelques minutes. Identifiez bien les différentes diagonales marquant les paliers de la répartition femmes/hommes dans les contributions et amusez-vous à jouer avec les filtres proposés qui permettent de n’afficher que certaines catégories d’articles de l’encyclopédie (émissions TV, films, livres, émotions…).

Y croire #oupas

Travailler les données, c’est aussi (souvent) jouer la confrontation, la comparaison et aboutir à une vision macroscopique des forces en présence. C’est ce à quoi ce sont amusés les designers de l’agence Column Five en partant d’un jeu de données fourni par le Pew Forum : comment sont répartis les revenus dans les différentes communautés religieuses des États-Unis ?

Cette visualisation statique, “The Allmighty Dollar“, claire et efficace, nous permet d’explorer en un coup d’œil les portefeuilles de la foi.

Dataïfier le monde

Pour clore ces data en forme, échappons-nous du côté des représentations un peu folles du monde par les données. Explorons les data avec nos tympans autant que nos rétines.

L’ouïe tout d’abord avec ce projet bien allumé monté par Aaron Reuben, journaliste indépendant, et Gabriel Isaacman étudiant en science de l’environnement à l’université de Berkeley. Leur but commun : écouter l’air.

Comment ? Rien de plus simple : dans différents endroits, ils ont recueilli sur des filtres des particules atmosphériques. Ils ont ensuite séparé les milliers de composants qui forment la mixture que nous respirons puis leur ont assigné un son à chacun. Il ne restait plus qu’à appuyer sur “play” et laisser l’évolution des données nous rendre audible l’air qui nous entoure.

Comparaison oblige, jetez une oreille à l’air d’un tunnel encombré de semi-remorques puis à celui nettement plus apaisé des hauteurs de la Sierra Nevada.

Finissons comme promis avec une expérience visuelle, une vision où les data viendraient encombrer votre cornée, un génial exercice de style codé par le développeur canadien Peter Nitsch : Ascii StreetView. Certains nous ferons remarquer que le lien n’est pas neuf, certes, mais comme l’on dit par ici “old but gold”.

C’est “juste” le service Street View proposé par Google entièrement repeint à la sauce Ascii. Si ce service avait existé dans le kiosque de feu le Minitel, il aurait sans doute ressemblé à ça.

Bonne balade et à la semaine prochaine.

]]>
http://owni.fr/2012/09/17/les-data-en-forme-48/feed/ 1
Dans le secret des failles informatiques http://owni.fr/2012/09/03/secret-failles-informatiques-zero-day-washington-post/ http://owni.fr/2012/09/03/secret-failles-informatiques-zero-day-washington-post/#comments Mon, 03 Sep 2012 14:34:41 +0000 Pierre Alonso http://owni.fr/?p=119350 Zero Day est des plus opaques. Des Zero Day ? Ce sont les failles de sécurité dont l'existence n'a pas été encore révélées et se vendent dès lors à prix d'or, comme le raconte le Washington Post. Un marché dans lequel une boite française, Vupen, tient une bonne place. Non sans s'attirer de nombreuses critiques. ]]>

Au profane, Zero Day ne dira rien. Un titre de film ou de roman d’espionnage tout au plus. L’expression est bien connue des experts en sécurité informatique, source d’adrénaline ou de sueurs froides. Un Zero Day désigne une faille encore inconnue dans un logiciel. Stuxnet, le virus fabriqué par les États-Unis et Israël pour saboter le programme nucléaire iranien, s’est appuyé sur au moins quatre failles de ce type.

Le Washington Post a plongé dans l’univers feutré et méconnu du marché de ces failles, entre acheteurs privés et publics et vendeurs de tous horizons. “Tout le monde en veut” a déclaré Chris Soghoian, un chercheur en sécurité informatique basé à Washington. Mais le fructueux business reste secret. Qui achète, qui vend ? La plupart des entreprises affirment limiter les ventes de failles à des agences de renseignement ou à des sous-traitants de l’armée.

60 000 dollars la faille

Une boite française, Vupen, est parvenue à se faire une réputation dans ce milieu interlope. En janvier 2012, une équipe de cinq experts de l’entreprise – dont le co-fondateur Chaouki Bekrar – avait découvert l’une de ces failles dans le navigateur Google Chrome au Pwn2Own Contest. Récompense pour la découverte : 60 000 dollars. Une autre découverte pour la même compétition n’a pas été rendue publique par Vupen qui a préféré la garder pour ses clients. Hors compétitions officielles, les chiffres donnent le tournis, “parfois des centaines de milliers de dollars la faille” selon le quotidien américain.

La très grande discrétion de Vupen lui a valu de vertes critiques. Irresponsable, coupable de donner une mauvaise réputation à l’ensemble des acteurs du marché… Chaouki Bekrar s’en est défendu auprès du Washington Post, affirmant ne vendre qu’“aux agences de renseignement des pays membre de l’OTAN”, en écho à la présentation officielle de Vupen sur son site.

D’autres entreprises se disent plus scrupuleuses, comme l’américaine Netragard, qui affirme ne vendre qu’à ses alter-ego américains et seulement en connaissant l’utilisation finale. Charlie Miller, consultant dans le privé après une carrière à la NSA invoque une équation insoluble pour les découvreurs de Zero Day :

Dois-je faire ce qui est bon pour la plupart des gens et ne pas toucher d’argent du tout, ou dois-je vendre au gouvernement américaine et gagner 50 000 dollars ?

L’Allemagne a tranché, avec fermeté : le commerce de Zero Day est interdit, de même que leur publication sans rémunération et même le simple fait de les chercher. Au États-Unis, il reviendra au département du Commerce de décider du sort de ces précieuses failleurs, notamment pour l’exportation.


Le Washington Post a consacré une série d’articles sur les Zero Day, à retrouver en suivant ce lien.

Illustration photo CC by-nc-nd ANTPhotos

Mise à jour le 3 septembre à 19h45 : correction d’une coquille sur une occurence du nom de Chaouki Bekrar.

]]>
http://owni.fr/2012/09/03/secret-failles-informatiques-zero-day-washington-post/feed/ 7
Chicago: le parrain du datajournalisme? http://owni.fr/2011/06/20/chicago-le-parrain-du-datajournalisme/ http://owni.fr/2011/06/20/chicago-le-parrain-du-datajournalisme/#comments Mon, 20 Jun 2011 09:06:57 +0000 Mael Inizan http://owni.fr/?p=58803 [Liens en anglais sauf mention contraire] Sociologues au Latts [fr], le Laboratoire Techniques, Territoires et Sociétés de l’Université Paris-Est Marne-la-Vallée, Sylvain Parisie et Éric Dagiral ont séjourné trois semaines à Chicago en septembre dernier, pour rencontrer les acteurs locaux du datajournalisme. Plus connue à cause d’Al Capone et des Incorruptibles, “la ville du crime” est l’une des villes pionnière en Amérique du Nord en matière d’utilisation des bases de données dans la production de contenu journalistique. Des premiers hackers-journalistes à la News Application Team du Chicago Tribune, en passant par ChicagoCrime.org : Sylvain Parisie revient pour Silicon Maniacs sur 15 ans de datajournalisme à Chicago.

Avant de nous intéresser à Chicago, peux-tu rapidement revenir sur la naissance du datajournalisme aux États-Unis ?

L’idée d’utiliser des bases de données comme support à la production d’information apparaît en Amérique du nord à la fin des années 1960, notamment sous la houlette de Philip Meyer. C’est un pionner qui écrit dès 1971 un manuel, The New Precision Journalism, dans lequel il explique que les journalistes doivent utiliser des ordinateurs, mais également construire des bases de données dans un tableur pour produire l’information. Son idée est de s’inspirer des outils statistiques des sciences sociales pour produire une information en rupture avec les préjugés. Les bases de données viennent appuyer le journalisme d’investigation. En 1967, il réalise ainsi une première enquête sur des émeutes raciales dans la ville de Détroit. En utilisant un ordinateur IBM disponible à Harvard, il montre, chiffres à l’appui, que contrairement a ce qu’on pensait à l’époque les Afro-américains étudiant à l’université avaient autant de chances que les autres de participer aux émeutes.

Comment ces méthodes d’investigation vont-elle se généraliser ?

Même si le manuel de Philip Meyer remporte un certain succès, ce modèle de journalisme ne se diffuse pas véritablement avant la deuxième moitié des années 1980. Plusieurs journalistes remportent alors des prix Pulitzer avec des enquêtes qui s’appuient sur l’utilisation de bases de données. Je pense notamment à Bill Dedman, qui obtient le prix en 1989 pour une série d’article, The color of money, sur les questions de discriminations raciales pour l’obtention de prêts bancaires.

À l’époque, l’utilisation de bases de données reste encore anecdotique. Elles sont surtout utilisées par des journalistes isolés, pour faire des coups et se faire connaître. C’est seulement à partir des années 1990 que le journalisme de données change progressivement de statut. Cette évolution est portée par l’apparition d’organisations professionnelles qui essayent de commercialiser des bases de données auprès des rédactions. La plus connue d’entre-elles est la Nicar, qui se spécialise dans ce qu’on appelle à l’époque le CAR, le Computer Assisted Reporting. Ils se proposent de collecter des bases de données, de les compiler, et de les nettoyer pour les vendre à des journaux. Ils offrent également des formations aux journalistes. À cette époque, ce spécialiste des ordinateurs et des bases de données qu’est le Computer Assisted Reporter n’est pas vraiment reconnu dans les rédactions.

C’est à partir des années 2000 que le journalisme de données prend de l’importance…

La véritable rupture ne se fait pas avant le milieu des années 2000. Les grands titres comme le New York Times, le Los Angeles Times, le Chicago Tribune et le Washington Post ont déjà commencé à recruter des spécialistes, mais c’est la récupération de l’ensemble des données concernant la guerre, qui popularise ces méthodes. En 2006 par exemple, le Washington Post met en ligne l’application The Faces of the Fallen, qui tient la comptabilité de tous les militaires tués en Irak et en Afghanistan. C’est une grande base de données dans laquelle on peut voir le visage des militaires tombés au combat, savoir où ils sont nés, où ils ont grandi, connaître les circonstances et la date de leur mort. À la même époque le Washington Post publie également des données qui permettent de suivre l’activité des parlementaires américains.

Vous avez concentré votre étude sur la ville de Chicago. Retrouve-t-on ces différentes étapes dans l’essor du datajournalisme ?

Il nous est apparu qu’il y a eu véritablement trois temps dans le développement du journalisme de données à Chicago, et plus largement aux États-Unis. Un premier temps qui concerne essentiellement les organisations de presse traditionnelle, entre la fin des années 90 et le début des années 2000, avec des journalistes isolés qui utilisent des bases de données. Un second temps pendant lequel on voit apparaître de nouveaux acteurs, issus du développement web et du logiciel libre. Et enfin, un troisième temps marqué par la constitution d’équipes dédiées au sein des rédactions des grands journaux.

Qui sont ces journalistes isolés qui utilisent les premiers des bases de données ?

Nous avons rencontré Darnell Little, un pionnier du journalisme de données, à Chicago. C’est une personne fascinante, qui a une histoire et un parcours atypique. Ingénieur de formation, il travaille d’abord pour l’opérateur américain ATT, avant de se reconvertir dans la presse, dans le milieu des années 1990. Il obtient un Master de journalisme à la North Western University et est embauché au Chicago Tribune en 1996, la semaine même où le site internet du journal est lancé. Au sein de la rédaction, il sera à l’origine de grandes séries d’investigations sur des sujets qui concernent souvent la justice sociale.

Il travaille en collaboration avec les journalistes. Son travail à lui consistait à essayer de trouver les grandes lignes, les angles et des idées d’articles pertinentes, en travaillant à partir des bases de données de l’État de l’Illinois ou de la ville de Chicago. Ce sont ensuite des reporters qui vont sur le terrain pour poursuivre l’enquête. C’est une tradition que l’on connaît très peu en France : un journalisme écrit, littéraire, mais qui repose énormément sur l’exploitation statistique et de bases de données.

Les journalistes arrivent souvent avec des idées préconçues sur les gens à interviewer, sur ce qui est pertinent sur un sujet donné. Darnell Little intervenait notamment pour montrer aux journalistes qu’ils partaient avec des idées reçues, en appuyant ses arguments sur des chiffres. Ça donnait parfois lieu à des relations un peu difficiles, d’autant plus qu’à l’époque le Computer Assisted Reporter n’est pas considéré comme une personne cool. Ce n’est pas un métier sur lequel on fantasme. C’est quelqu’un qui à des compétences extraordinaires, mais tellement particulières qu’il peut être rapidement ostracisé, isolé, en étant relégué au rang de simple technicien.

Comment ces data-journalistes vont-ils gagner en reconnaissance ?

À partir de 2004-2005, plusieurs initiatives émergent à Chicago. Cette fois-ci, elles ne concernent pas du tout les médias traditionnels, mais plutôt des startups, en marge du journalisme. On voit apparaître tout un ensemble de nouveaux acteurs issus du développement web: des militants pour l’ouverture des données, des informaticiens et des hackers. Ils essayent de construire quelque chose de nouveaux à l’intersection de la presse et de l’open data. Tout ces gens-là ont des pieds dans différents mondes: celui de la presse, du développement, parfois même des institutions, de la mairie. C’est notamment le cas d’Adrian Holovaty, le fondateur de Chicago Crimes en 2005, puis d’EveryBlock.

Qu’est ce que Chicago Crimes?

En 2005, Chicago Crimes est l’un des premiers mashups qui permet de géolocaliser sur une carte les données criminelles (homicides, agression, vol…), qui sont diffusées par le site du Chicago police département depuis 1996. Les données existaient, mais elles étaient classées d’une manière qui les rendait très difficiles à comprendre et à analyser. De plus, elles n’étaient disponibles que pendant deux semaines. Adrian Holovaty va « hacker » ces données. Il les interface sur une carte Google – ce qui est déjà en soit une performance puisque l’API de Google Map n’était pas encore ouverte à cette époque -, les archive, mais crée également de nouvelles catégories, pour les rendre plus exploitables. Il était dès lors possible d’afficher les crimes par zones d’habitation. À cette époque là, c’est un gros coup.

L’image des hackers s’améliore. Ils acquièrent un rôle social beaucoup plus ouvert, avec un message politique, citoyen. Ils veulent permettre à tout le monde d’accéder facilement à l’information et aux données. Adrian Holovaty est déjà un développeur reconnu dans la communauté. Avec Chicago Crimes, il se fait une réputation non seulement à Chicago, mais également en Amérique du Nord.

Il bénéficie d’une certaine légitimité vis-à-vis de la presse puisqu’il est également journaliste…

Au départ, c’est effectivement un journaliste. Il a notamment travaillé au Washington Post. La légitimité de ces acteurs vient également des fondations qui les soutiennent. La Knight Fondation, par exemple, a financé à hauteur de plusieurs millions de dollars Adrian Holovaty pour le développement de EveryBlock. Chicago Crimes était l’œuvre d’une personne, EveryBlock est celle d’une équipe.

Est-ce que tu peux expliquer ce qu’est EveryBlock ?

Là ou Chicago Crimes reprenait simplement les données policières, EveryBlock étend le principe. On a accès à un ensemble de données et d’informations relatives à sa situation géographique. Ça concerne évidement les crimes, les homicides, mais également, par exemple, les ouvertures de commerces, les transactions immobilières, les licences de débit d’alcool… EveryBlock agrège un ensemble d’informations disponibles en ligne et les centralise à l’échelle d’un quartier (« block »), d’une rue. C’est la même choses pour tous les avis concernant les restaurants du coin du quartier, ou des photos postées sur Flickr.

Pour ce type de site, toute la difficulté réside dans la récupération des données. Ils nous ont raconté à quel point c’était difficile, même à Chicago. Pour eux, l’enjeu est d’être en mesure d’avoir des données qui répondent à deux qualités : d’abord qu’elles soient soutenables, c’est à dire mises à jour régulièrement et toujours de même qualité, ensuite, qu’elles soient granulaires, c’est à dire qu’elles correspondent à un emplacement extrêmement précis dans un quartier, dans la ville. Contrairement à la France, ce modèle journalistique est totalement reconnu en Amérique du Nord. Le site s’est monté à Chicago et s’est rapidement étendu à d’autres villes avant d’être racheté par MSN en août 2009.

Comment ont réagi les médias traditionnels face à l’arrivée de ces nouveaux acteurs qui possèdent un savoir faire spécifique et qui les concurrencent sur un nouveaux terrain ?

En 2009 à Chicago, la situation était assez catastrophique pour la presse. Le Chicago Tribune est lui-même déclaré en faillite, fin 2008. Il se relève malgré tout et décide contre toute attente, mi-2009, de recruter des hackers-journalistes pour lancer une News Application Team de quatre personnes. Ces nouveaux journalistes viennent du monde de l’open data, du développement web et ont souvent une formation en journalisme. Ils sont recrutés pour faire des applications, de la visualisation et traiter des données. Ils doivent servir d’appui au journalisme d’investigation. Derrière cette News application Team, il y a donc un projet de journalisme ambitieux.
Les médias historiques ont une approche très différente du journalisme de données. Les journalistes traditionnels reprochaient souvent à des sites comme EveryBlock, le fait de simplement diffuser des données, sans les mettre en perspective. Dans la presse traditionnelle, on observe donc une forme de compromis : on mêle la mise à disposition des données, l’investigation et le cadrage journalistique. Le Chicago Tribune a par exemple réalisé une enquête sur les maisons de retraite, avec une série de papiers très fouillés sur les personnes victimes d’abus, mais également un moteur de recherche qui permet aux lecteurs de savoir quelles sont les caractéristiques des maisons de retraite dans lesquelles ils ont placé leurs parents ou leurs beaux parents. C’est également le même procédé qui a été employé dans une autre enquête du Chicago Tribune sur l’Agent Orange utilisé lors de la guerre du Vietnam.

Dans ce contexte de crise de la presse, la datajournalisme participerait donc à une certaine forme de re-légitimation du journalisme, en appuyant l’information sur des données chiffrées réputées plus objectives et ouvertes au lecteur…

Il y a de ça, en partie. Le datajournalisme permet de développer une certaine proximité avec le lecteur. On traite l’information à l’échelle des personnes individuelles, de leur quartier, voisinage. Le datajournalisme participe à un mouvement qui voudrait qu’une des solutions à la crise de la presse soit de renouveler l’intérêt des lecteurs en parlant de chose ultra-proches de lui. Là ou il faut tempérer, c’est que ces hackers-journalistes ont été recrutés pour assister les journalistes d’investigation. Ces formats sont loin d’être ceux qui font le plus d’audience. Mais, ils apportent beaucoup en terme de crédibilité et de notoriété, d’image pour le journal… C’est à la fois une composante hyperlocale, mais également une composante de prestige.

On ne peut pas s’empêcher de faire le parallèle avec la France. On assiste depuis quelques années à l’arrivée de nouveaux acteurs. Je pense par exemple au site NosDéputés.fr, dont l’objectif est de donner plus de transparence à l’activité parlementaire. Il y a également le site OWNI qui se revendique du hacking-journalisme…

Nos Députés.fr est effectivement porté par des gens qui viennent du développement web, du logiciel libre et qui ont une vraie implication citoyenne. Mais, il n’y a quasiment aucune connexion avec la presse, à part une enquête avec Médiapart et quelques partenariats très ponctuels. On est très loin des États-Unis où c’est le Washington Post lui-même diffuse les données sur le travail des sénateurs américains.

Le cas d’OWNI est très différent. D’abord, il est beaucoup plus récent. Cependant, c’est effectivement une tentative très originale de construire un pont entre le journalisme traditionnel et la mise à disposition des données. Évidement, on reste à la marge, mais cette fois ci on n’est plus en dehors du journalisme. Le prix remis en octobre dernier à OWNI par la Online News Association (ONA) participe à la reconnaissance de ce site, mais cette légitimité joue plutôt au niveau international pour l’instant.

Comment expliques-tu le manque d’investissement français dans le datajournalisme ?

Déjà, il n’y a pas en France de fondations pour l’innovation, qui soutiennent financièrement de tels projets innovants. Nous avons beaucoup d’aides à la presse en France, mais elles ne fonctionnent pas de la même manière et ne touchent pas les acteurs à la marge. Ensuite, la presse traditionnelle a été assez peu sensible au développement du datajournalisme. Mais, on peut être surpris. Ce serait totalement logique qu’un site comme LeMonde.fr se rapproche de NosDéputés.fr, par exemple.

Enfin une difficulté supplémentaire dans le cas français est le manque de disponibilité des données. Pour que le datajournalisme se développe, il faut d’abord faciliter l’accès aux données. Je prend l’exemple du Figaro : il y a quelques semaines, le titre a lancé une enquête concernant les maisons de retraites. Elle s’accompagne d’une visualisation [fr] dans laquelle ont peut parcourir, département par département, un classement des maisons de retraite. La différence entre le traitement de ce sujet par Le Figaro et le Chicago Tribune, c’est la méthode utilisée pour récupérer des données. Le Figaro a envoyé un questionnaire aux maisons de retraite. À Chicago, ce sont des statistiques de l’État de l’Illinois qui ont été croisées avec des données policières. Tout est dit. On ne peut pas avoir la même qualité des données quand on demande aux maisons de retraites de se positionner elles-même.

En France, les données disponibles sont essentiellement nationales. De ce qu’on a pu observer à Chicago, les récits qui fonctionnent le mieux sont ceux qui sont ancrés localement. C’est typiquement de genre de données qui est très difficile à collecter en France. C’est possible, mais ça demande énormément de temps et de travail.

Est-on encore loin du développement d’un modèle de datajournalisme à la française ?

Un des autres enseignements de notre enquête est la spécialisation des acteurs. Il y a des experts du traitement de données, mais également des personnes qui se spécialisent dans la récupération de données. On les appelle les « People Person ». Leur travail quotidien consiste à « harceler » les autorité pour récupérer des données exploitables. Étant donné la différence des cultures entre la France et les États-Unis, beaucoup de journalistes sont moins sensibilisés à la valeurs que peuvent représenter des données brutes. Je pense malgré tout qu’un mouvement est amorcé. Les journaux commencent à mesurer l’intérêt qu’il peuvent tirer de se positionner sur ces formats journalistiques.

>> Article initialement publié sur Silicon Maniacs.

>> Photo Flickr PaternitéPas d'utilisation commercialePas de modificationpar alamodestuff.

]]>
http://owni.fr/2011/06/20/chicago-le-parrain-du-datajournalisme/feed/ 29
Jeff Jarvis: repenser l’écosystème de l’information http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/ http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/#comments Tue, 06 Jul 2010 16:39:59 +0000 Guillaume Ledit http://owni.fr/?p=21274 Cela fait un moment que Jeff Jarvis, sur son blog et ailleurs, essaye de redéfinir l’avenir des médias en ligne. Il revient au cours d’une conférence à la Columbia Business School sur certains des aspects qui l’intéressent le plus.

Optimiste de nature, Jeff Jarvis estime qu’il existe de nombreux nouveaux business models pour l’information, et que le discours déprimant et fataliste traditionnel peut être remise en cause. Notamment celui qui vise à accuser Internet de tous les maux.

Cliquer ici pour voir la vidéo.

De la gestion de la rareté à l’offre de service

Aujourd’hui, nous n’en sommes pas au moment où une nouvelle grosse entreprise maligne remplace les anciennes grosses entreprises. Nous sommes déjà dans un écosystème où plusieurs acteurs opèrent de différentes manières, et ce avec des business models variés.

L’hyperlocal est un des éléments de ce nouvel écosystème, bien qu’il faille maîtriser les techniques du marketing pour pouvoir en vivre. Là où il y a une immense marge de progression, c’est dans les relations entre les blogueurs “hyperlocaux” et  les commerçants. Ceux-ci ne veulent pas de bannières ou de publicités qui clignotent, ils veulent du service.

Jarvis propose donc d’aller de la gestion de la rareté à l’offre de service.

Si les entreprises de presse doivent s’adapter aux mutations en cours, ce n’est pas une raison de supprimer le journalisme d’investigation, qui créé une image de marque et positionne le journal.

Éloge de la petite entreprise en réseau

Pour qu’une entreprise qui produit de l’information soit bénéficiaire, il faut qu’elle soit de petite taille. Ainsi, le Washington Post et sa rédaction de 750 employés aura énormément de mal à être rentable en ligne, alors que pour un entrepreneur qui démarre, c’est faisable. Pour autant, personne n’a envie de voir disparaître le Washington Post. L’une des solutions pourraient être de créer une multitude de blogs qui seraient autant de micro-entreprises fondées sur la confiance construite au cours des ans.

Nous allons donc vers une ère de réseau, dans laquelle différents agents indépendants participent au même projet.

Ces réseaux peuvent être créés dans une optique “non-profit”, mais ce n’est pas forcément l’idéal, tant il est difficile de savoir si le marché  supportera cela.

D’un point de vue de la pratique journalistique, ils se passent des choses intéressantes au sein de ces écosystèmes. Les journalistes participant à un projet en réseau le font souvent au sein de leur propre entreprise, et développent des relations plus étroites avec leurs lecteurs.

La valeur est dans la relation

Douze pages sont consultées en moyenne par utilisateur et par mois sur les sites des grands médias d’information.

C’est “honteusement” faible, selon Jarvis, qui rappelle que Facebook a le même taux, mais par jour. L’importance de la communauté est ici une nouvelle fois soulignée.

Il s’agit de transformer la manière dont on considère l’information. Chez Google, Marissa Mayer (vice-présidente de Google, en charge des produits de recherche et des services aux  utilisateurs) pense que l’on s’oriente vers un flux d’information hyper-personnalisé. Organiser la sérendipité inhérente au web grâce à un algorithme est une idée étrange pour Jarvis.

La question est donc de savoir comment on accède aux informations. Auparavant, on le faisait uniquement par l’intermédiaire des marques-médias. On s’est ensuite mis à rechercher l’information, ce qui inverse la relation. Les algorithmes ont tenté quant à eux de gérer le flux d’information. Les liens établis par des êtres humains sont aujourd’hui au centre de l’accès à l’information.

Dans son ensemble, Google génère 4 milliards de visiteurs vers les sites d’information. C’est ensuite à eux de développer une relation avec les personnes que Google leur envoie. Et comme le dit Jeff Jarvis dans une invective directe à Rupert Murdoch :

S’ils ne le font pas Monsieur Murdoch, c’est leur putain de faute.

Jeff Jarvis enjoint ainsi de repenser l’ensemble de l’architecture de l’information, afin de comprendre comment valoriser la relation avec les lecteurs : les paywalls sont pour lui une aberration, il faut pouvoir faire ce qu’on fait de mieux, pour renvoyer au reste (“Publish the best, link to the rest”).

]]>
http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/feed/ 25
Gorge profonde: le mode d’emploi http://owni.fr/2010/06/01/gorge-profonde-le-mode-demploi/ http://owni.fr/2010/06/01/gorge-profonde-le-mode-demploi/#comments Tue, 01 Jun 2010 13:52:17 +0000 Jean Marc Manach http://owni.fr/?p=17144 Le Net a beau être surveillé à l’envi, il est tout à fait possible de contourner la cybersurveillance (voir aussi mon petit manuel de contre-espionnage informatique). Restait à expliquer comment contacter quelqu’un, facilement, de façon sécurisée, et en toute confidentialité.

MaJ : article traduit en italien : Gola profonda: come assicurare la copertura delle fonti nell’ era della sorveglianza totale

Le Watergate n’aurait jamais eu lieu et entraîné la démission du président des États-Unis ni contribué à sacraliser de la sorte le journalisme d’investigation si une “gorge profonde -du nom du film X qui, au même moment révolutionna les mentalités- n’avait révélé, en toute confidentialité, à deux journalistes du Washington Post les dessous de cette affaire d’espionnage politique mêlant obstructions à la justice, faux témoignages, écoutes clandestines, détournements de fonds, etc.

Les méthodes de communication utilisées par Bob Woodward et Carl Bernstein, les deux journalistes, avec leur “gorge profonde” et les façons de garantir son anonymat font encore débat.

Il a fallu attendre 2005 pour que William Mark Felt, qui était à l’époque du Watergate le n°2 du FBI, révèle qu’il fut la “gorge profonde” du Watergate. Quel qu’il soit, leur mode opératoire a donc marché : nul n’a su qui, à l’époque, les avait contacté, ni comment ils avaient procédé… sinon qu’ils avaient probablement pour cela utilisé des méthodes dignes de polars, ou d’histoires d’espionnage.

Dans les années 70, tout comme aujourd’hui, les téléphones étaient écoutables. Le problème, aujourd’hui, c’est que l’Internet en particulier, et l’ensemble de nos télécommunications en général, sont systématiquement conservées, voire surveillées. L’informatique laisse des traces (qui communique avec qui, quand, pendant combien de temps), conservées par principe par les opérateurs de télécommunications (afin de se prémunir de tout litige).

Les autorités obligent parfois ces mêmes opérateurs à conserver lesdites traces “au cas où” (y compris en France par exemple, et sans parler des systèmes de surveillance mis en place, souvent par des entreprises occidentales, dans les pays autoritaires).

Rajoutons-y un brin d’Echelon (le système global d’espionnage des télécommunications mis en place par les pays anglo-saxons), de Frenchelon (son “petit” équivalent français) et de leurs avatars exotiques, sans oublier, bien sûr, les systèmes et logiciels espions utilisés tant par les services de renseignement que par les officines d’intelligence économique (montés, ou truffés, d’anciens espions), les mouchards utilisés par les détectives privés, les employeurs qui veulent ainsi surveiller leurs employés, et de plus en plus de particuliers afin d’espionner leurs femmes, maris, nounous et enfants…

Le tableau n’est donc guère réjouissant, et l’on pourrait croire qu’il serait donc de plus en plus difficile, pour un journaliste ou n’importe quel autre professionnel censé garantir la confidentialité de ses sources, de pouvoir travailler correctement, dans la mesure où la surveillance, non contente de se banaliser de la sorte, deviendrait la règle, et non plus l’exception, comme c’était encore le cas du temps du Watergate.

De fait, le meilleur moyen de garantir la confidentialité de ses sources est encore… de ne pas passer par le Net, mais par le courrier papier : contrairement aux télécommunications (mail, tel, fax, SMS, etc.), les enveloppes papier sont fermées, rarement surveillées et encore plus rarement ouvertes, alors que nos courriels sont, eux, d’autant moins confidentiels qu’ils ne sont jamais que des cartes postales, dont le contenu est lisible en clair par l’ensemble des serveurs (souvent plus d’une dizaine) par lesquels ils transitent.

De fait, aucune rédaction, aucun journaliste, n’explique aux gens comment les contacter de façon simple, sécurisée, et en toute confidentialité. Les seuls à le proposer sont un architecte fervent défenseur de la liberté d’expression, John Young, qui diffuse sur son site, cryptome, depuis des années, des documents confidentiels qui lui sont envoyés par email (chiffrés ou non) et Wikileaks, créé tout spécialement pour faciliter ce genre de “fuites” de documents confidentiels.

Il existe pourtant plusieurs possibilités, habilement mises en place par des hackers, ces “bidouilleurs de la société de l’information” sans qui l’informatique en général, et l’Internet en particulier, n’auraient pas été possibles.

Les développeurs et utilisateurs de logiciels libres utilisent ainsi, et depuis des années, un logiciel de cryptographie permettant de garantir, non seulement la confidentialité de leurs télécommunications, mais également leur authenticité, et leur intégrité, afin de s’assurer que les informations échangées proviennent bien, ou ne pourront être lues, que par tel ou tel individu dûment identifié, et non par quelqu’un qui chercherait à usurper son identité, ou bien à l’espionner : GPG (Gnu Privacy Guard, mode d’emploi).

Problème (bis) : bien moins nombreux sont nos lecteurs, internautes, informateurs, à savoir que GPG existe, et donc à s’en servir pour nous contacter. Or, et a priori, seuls les utilisateurs de GPG (ou de PGP, son précurseur) peuvent “chiffrer” leurs messages de sorte qu’ils ne puissent être consultables, “en clair” que par leurs seuls destinataires : la sécurité de la cryptographie à clef publique repose en effet sur le fait que les personnes qui veulent ainsi s’échanger des données, en toute confidentialité, utilisent GPG (ou PGP).

A défaut, on peut utiliser une adresse e-mail jetable, ce que propose par exemple anonbox, créé par les hackers du Chaos Computer Club allemand afin d’envoyer ou recevoir des documents anonymement. Problème : elle n’est valable qu’un jour durant.

Lancé par la Privacy Foundation allemande, une ONG de défense de la vie privée et de la liberté d’expression, privacybox.de fait encore mieux, dans la mesure où elle permet à tous ceux qui ne peuvent ou ne veulent pas utiliser GPG ou PGP d’écrire de façon confidentielle, anonyme et sécurisée, à tout journaliste, blogueur ou internaute qui, utilisateur de GPG ou de PGP, s’y est inscrit (et c’est gratuit, forcément, et puis facile, aussi).

Mieux : plusieurs lecteurs ont bien voulu mettre la main à la pâte et traduire son interface en français (qu’ils en soient remerciés), mais il reste encore quelques pages à traduire :
https://privacybox.de/howto.en.html
https://privacybox.de/howto-apple-mail.en.html
https://privacybox.de/nutzen.en.html
https://privacybox.de/eval.en.html

Les bonnes âmes peuvent me contacter par mail à privacybox[AT]rewriting.net, ou bien encore via le formulaire de privacybox.

Je ne sais combien de blogueurs, journalistes, rédactions ou ONG utiliseront ce service. Mais si ça peut aider, et notamment les journalistes d’investigation, et les lanceurs d’alerte

Les hackers ne sont pas une partie du problème : ils nous donnent des solutions. Faites tourner !

> Illustration CC Flickr Anonymous9000

Retrouvez les deux articles de ce troisième volet du manuel de contre-espionnage informatique : Votre historique mis à nu et Retour sur 10 ans de Big Brother Awards.

Retrouvez également le premier et le second volet de notre série sur le contre-espionnage informatique.

]]>
http://owni.fr/2010/06/01/gorge-profonde-le-mode-demploi/feed/ 34