OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 LIFT Marseille: le prochain gros rendez-vous pour parler DATA http://owni.fr/2010/06/21/lift-marseille-le-prochain-gros-rendez-vous-pour-parler-data/ http://owni.fr/2010/06/21/lift-marseille-le-prochain-gros-rendez-vous-pour-parler-data/#comments Mon, 21 Jun 2010 18:31:21 +0000 Caroline Goulard http://owni.fr/?p=19617 La Lift se tiendra dans quelques jours en la bonne ville de Marseille. L’occasion  pour les conférenciers et leurs auditeurs de prendre le pouls de ce qu’il se fait et se dit autour des thématiques essentielles pour le monde d’aujourd’hui et celui de demain. Et ce notamment sur un sujet que l’on affectionne particulièrement: l’opendata.

Après la Lift Genève de mai 2010, qui a rassemblé des orateurs aussi divers que le gourou futurologue Jamais Cascio, le pionnier du transhumanisme Aubrey de Grey ou l’inventeur du site de journalisme citoyen OhMyNews, la Lift Marseille se déroulera du 5 ou 7 juillet, sur le thème « dot.Real : webify the real world ! ». Organisée en partenariat avec la Fing, la 2e Lift France entend explorer comment le web change le monde réel d’aujourd’hui et de demain.

Les différentes thématiques traitées vont de “Fab Labs”: réinventer la conception et la production industrielles à “People Hack”: distribuer le pouvoir d’innover en passant par  “Informatique et Libertés 2.0″.

Encore un signe que les données sont devenues un enjeu hautement stratégique: la quatrième thématique de ce grand événement du web sera consacré aux datas : “Web puissance 2″, la révolution des données partagées.

Elle s’articulera autour de deux problématiques :

> La nouvelle science des données

Le philosophe et économiste Yan Moullier Boutang animera une conférence sur comment créer et partager des connaissances à partir des masses de données collectées dans le monde.

Le chercheur Fabien Girardin, s’intéressera à l’usage des données de la téléphonie mobile pour visualiser l’activité urbaine.

Jan Blom, chef d’une équipe de chercheurs chez Nokia, s’interrogera sur comment les usagers de téléphones mobiles peuvent devenir plus que de simples relais-capteurs pour les analystes des données.

> Ouverture des données publiques, une nouvelle ressource pour l’innovation et la participation

Jarmo Eskelinen, à la tête de Forum Virium Helsinki, présentera le modèle finlandais d’ouverture des données.

Michael Cross, fort de son expérience au Datablog du Guardian, parlera de l’initiative « Free our data » et de comment libérer les données publiques.

Hugues Aubin, chargé de mission TIC de la ville de Rennes, témoignera de l’expérience rennaise d’ouverture des données des transports publics.

Deux atelier complèteront les conférences :

Un premier consacré au Datajournalisme : Quelles nouvelles perspectives pour la presse ? Quel modèle économique ? L’atelier sera l’occasion de parler des expériences réussies, des initiatives en cours et des opportunités pour l’avenir.

L’équipe d’OWNI sera présente lors de cet atelier pour échanger autour de ses activités de datajournalism.

Un second atelier abordera les Données publiques : comment créer un cercle vertueux Quelles sont les initiatives réussies ?  Et que faut-il en retenir ?

Même l’art de la visualisation des données n’a pas été oublié : il sera l’objet de la conférence de Manuel Lima, fondateur de visualcomplexity, qui dissertera sur comment le design de la visualisation de données peut embrasser et représenter la complexité.

Datajournalism, Data Deluge & Opendata : les grandes tendances du web de données promu par Tim Berners Lee seront donc débattues, commentées, racontées lors de la Lift,  et, bien sûr, sur OWNI.

Photo CCFlickr par Conference Basics, prise au cours de la conférence LIFT 2010 à Genève

]]>
http://owni.fr/2010/06/21/lift-marseille-le-prochain-gros-rendez-vous-pour-parler-data/feed/ 5
Paris: un pas vers l’opendata http://owni.fr/2010/06/08/paris-un-pas-vers-l%e2%80%99opendata/ http://owni.fr/2010/06/08/paris-un-pas-vers-l%e2%80%99opendata/#comments Tue, 08 Jun 2010 17:31:36 +0000 Caroline Goulard http://owni.fr/?p=17930 Ce 8 juin 2010, a été adoptée une résolution sur la diffusion des données publiques, lors du Conseil Municipal de la ville de Paris.

Le projet de délibération était porté par Jean-Louis Missika, adjoint PS au maire de Paris chargé de l’innovation, de la recherche et des universités.

Les échanges qui ont précédé cette adoption ont été nourris. Ils ont porté sur les atouts d’une politique d’ouverture des données : apporter plus de transparence, renforcer la démocratie, stimuler l’innovation, générer des initiatives citoyennes.

D’une telle politique, les élus favorables au projet espèrent qu’elle aboutira à l’émergence de nouveaux services pour les Parisiens. Ils s’appuient pour cela sur l’exemple des villes de New York, Vancouver, Londres et San Francisco qui ont mis à disposition librement des catalogues de données publiques.

Le texte adopté consacre un petit pas vers l’ouverture des données, sans pour autant entériner un vrai mouvement vers l’opendata.

En particulier, les statuts des futures licences encadrant les données mises à disposition restent flous : « des contrats de licences types seront étudiés pour chaque type de données » (selon les termes utilisés dans le délibéré adopté), ce qui laisse la porte ouverte à une éventuelle commercialisation de certains sets de données, à côté de bases libres.

Cette ente-deux a été intégré à la délibération initiale suite à un amendement suscité par l’association Regards Citoyens. Le projet initial prévoyait en effet “l’établissement d’un modèle de valorisation des données à forte valeur économique”. On était bien loin des critères de l’open knowledge.

Pour le moment, le texte voté lors du Conseil Municipal oblige simplement la Ville de Paris à étudier comment mettre en œuvre une telle politique de données ouvertes. Des études sont déjà en cours sur les contraintes techniques et juridiques et la sensibilisation des services de la Mairie.

Cela constitue déjà une belle avancée, mais il reste encore bien des questions sans réponses: les formats seront-ils standardisés ? les données seront-elles sémantisées ? quels dispositifs seront mis en œuvre pour inciter les citoyens à créer des applications ? une plateforme centralisée de mise à disposition de données sera-t-elle mise en place ? qui va se charger de la collecte, de la mise à jour et de la standardisation des données ?

Des questions qui commenceront à trouver leurs réponses dès la fin 2010, avec un premier lâcher de données doublé d’un concours.

Nous reviendrons sur ce sujet dans les prochains jours, en collaboration avec Regards Citoyens.

> Illustration CC Flickr par Eric Fischer

]]>
http://owni.fr/2010/06/08/paris-un-pas-vers-l%e2%80%99opendata/feed/ 5
Si vous vous intéressez aux médias, vous deviez être au Wif 2010 http://owni.fr/2010/06/07/si-vous-vous-interessez-aux-medias-vous-deviez-etre-au-wif-2010/ http://owni.fr/2010/06/07/si-vous-vous-interessez-aux-medias-vous-deviez-etre-au-wif-2010/#comments Mon, 07 Jun 2010 10:19:50 +0000 Caroline Goulard http://owni.fr/?p=17649 Mutations sociales, transformation des usages, tendances technologiques, nouveaux supports… tout cela a bouillonné sous le couvercle de la « soucoupe » qui accueillait le WIF (Webdesign International Festival). Et bien que n’étant ni graphiste, ni web-designer et encore moins développeur, j’y ai trouvé plein d’idées pour enrichir le débat sur l’avenir de l’information en ligne.

Un constat partagé : l’ « informationoverload »

Il faut savoir se plonger dans le flux...

Un grand nombre de conférenciers sont partis du même constat : nous vivons à l’ère du chaos informationnel. Avec la multiplication des sites web et de supports de consultation nous devons faire face à une surcharge informationnelle et étayer les soubassements d’une nouvelle économie de l’attention.

La problématique n’est pas nouvelle. Alvin Toefler y réfléchissait déjà dans les années 50, et Diderot même avait pris conscience au 18e siècle que l’on ne pourrait bientôt plus embrasser tout le savoir disponible.

Mais les réponses apportées, elles, changent.

Du designer interactif Benoit Drouillat à l’entrepreneur Jean-Noël Portugal en passant par le designer d’information Olivier Marcellin, la sémiologue Nicole Pigner, le spécialiste des jeux vidéos Sébastien Genvo, le designer d’interaction Antoine Visonneau et le fondateur de la licence Web-journalisme de l’Université de Metz Arnaud Mercier, tous ont, à leur façon, tenté de répondre à la question : « comment naviguer aujourd’hui dans la sur-information ? »


Adapter le design de l’information au potentiel interactif du web

Benoit Drouillat et Olivier Marcellin ont attaqué le problème par le design de l’information. Ils partent du constat que les sites d’information sont souvent mal conçus car leur mode d’organisation est directement hérité du journal papier : de longues pages pensées de manière verticale et figée, débordant d’information et de signaux, nécessitant parfois jusqu’à 8 scrolls pour être parcourues en entier. L’horizontalité n’y est pas exploitée, alors que nos écrans sont tous plus larges que haut ; les pages y sont statiques, se privant ainsi du potentiel interactif de nos supports de consultation.

Pour redonner au visiteur la maîtrise de son information, il faut adopter de nouveaux modes d’organisation. Permettre à l’internaute de sélectionner, de personnaliser, de gérer l’espace, de participer manuellement à l’organisation de la page d’accueil peut ainsi l’aider à gérer la densité informationnelle

La page d’accueil de CNN présente par exemple des onglets rétractables, que l’internaute peut ouvrir ou fermer à sa guise. Le Times Skimmer du New York Times a été construit comme un outil de consultation de l’information qui donne à l’internaute un rôle actif.

Là où l’empilement chronologique de blocs de texte donne une impression figée, ces nouvelles formes de présentation de l’information engagent l’internaute, l’amène à s’approprier son information.

L’internaute peut aussi être mis à contribution dans le design de l’information via les algorithmes sociaux. Le Guardian a ainsi crée une page d’accueil alternative, appelée Zeigeist, où les articles sont organisés selon l’activité sociale qu’ils ont générée.

Ces nouveaux modes de présentation de l’information favorisent aussi la sérendipité, l’exploration aléatoire des contenus.

Le plaisir de l’interaction entre l’usager et l’interface d’information

Deuxième clé d’entrée : les interfaces hommes-machines. Le numérique a fragmenté les pratiques de lecture entre une multitude de supports. Même la Wii permet aujourd’hui de consulter l’actualité. Il faut y voir une formidable opportunité de renouveler l’expérience de consultation de l’information.

En effet, Nicole Pignier nous apprend qu’entre l’usager et l’interface de consultation de l’information, il y a une vraie histoire d’amour. L’intuitivité des objets, leur interfaces tactiles, leur esthétique, déterminent la convivialité de nos objets d’information. La sémioticienne explique que la situation de proximité entre l’individu et l’objet est ressentie par la plupart des usagers comme une interaction nécessitant un investissement affectif et mental.

Lorsque le corps de l’Homme et la Machine deviennent partenaires d’une interaction partagée, une relation symbiotique se met en place. L’expérience de consultation d’information peut alors générer un plaisir proche de l’esthésie, qui provient du parfait ajustement du corps à l’apparail, et du sentiment pour un sujet d’être présent à l’objet, de l’apprécier.

Cette symbiose de l’utilisateur avec son support de consultation d’information peut favoriser des pratiques de lecture immersive, à l’opposé des pratiques de zapping, elle engage l’attention du lecteur.

Les contenus riches et un traitement rich-media

A l’opposé des pratiques de « canon à dépêche », Benoit Drouillat et Olivier Marcellin recommandent d’aller vers des contenus riches, susceptibles de créer des expériences d’information marquantes, différenciantes. Ils y voient une solution pour fidéliser les visiteurs d’un site et les inciter à y revenir plutôt qu’à en exporter les flux RSS.

(Les slides de la présentation de leur présentation sont disponibles sur le site de Benoit Drouillat)

Arnaud Mercier partage ce constat et met l’accent sur la formation des journalistes : ces derniers doivent désormais être polyvalents pour pouvoir manier le traitement rich-media, ils doivent être créatif et inventif, jongler d’une vidéo à un reportage séquencé, penser à décomposer une action en plan, savoir intégrer de la photo dans des supports mouvants ou animés, réaliser un montage sonore, etc.

Trop d'info tue l'info

La dataviz et la visualisation de l’information

Pour Antoine Visonneau, une des principales préoccupation des internautes est « s’y repérer ». Pour capter l’attention des visiteurs et les empêcher de quitter le site au premier clic, il invoque le pouvoir de la visualisation de l’information. Pour ce designer d’interaction, la visualisation est « la clé de l’illumination », les ordinateurs changent le monde car ils rendent la visualisation de données plus facile. Grâce à la visualisation de l’information, couplée à la puissance de calcul de nos machines, il devient possible d’extraire du sens à partir d’une situation chaotique de déluge informationnel.

D’ailleurs, Antoine Visonneau ancre sa définition de la visualisation dans la cybernétique : la visualisation partage des racines avec le mot « gouvernail », elle aide à gouverner en véhiculant du sens.

Arnaud Mercier entend lui aussi intégrer les problématiques de dataviz dans sa toute jeune licence Web-journalisme à Metz. Infographies interactives, cartes personnalisables, CAR (computer assisted reporting) : la ressource informatique est ici utilisée pour produire des contenus inédits mettant en scène de faon conviviale et attractive des données rébarbatives. D’ailleurs, il a annoncé la création prochaine d’une plateforme de visualisation de données au sein de l’Université de Metz.

Le news-gaming et l’expérience des possibles

Dernière approche, et sans doute la plus déroutante, Sébastien Genvo a démontré comment le news-gaming pouvait enrichir l’expérience de consommation d’information.

Les news games (ou jeux d’actualité) emploient les codes du jeu vidéo pour mettre en scène l’actualité de façon ludique. Ils peuvent se présenter sous forme de quizz, de mise en situation dans un évènement d’actualité, de jeux de rôle dans la peau d’un protagoniste, ou de paris sur l’actualité future.

Le site PlayTheNewsGame.com en donne un bon aperçu. Le news gaming doit permettre de tirer les expériences du jeu vidéo pour délivrer de l’information de façon pertinente, pour que les contenus présentés fassent sens et attirent l’attention de l’interlocuteur. Le New York Times avait ainsi développé un jeu mensuel, qui visait à mieux faire comprendre comment fonctionne la Food and Drug Administration aux Etats-Unis en permettant aux joueurs de s’essayer à gérer des flux de nourriture.

Sébastien Genvo part d’un constat évident : dans les journaux papier les casse-tête et autres mots croisés ont toujours été un formidable point d’entrée vers les articles.

A la différence de la presse, de la télé ou de la radio, le jeu est le seul média basé sur la stimulation de l’imagination plutôt que sur la représentation. L’attractivité des jeux, et leur particularité, résident dans la confrontation à  l’incertitude : jouer, c’est faire l’expérience des possibles. Pour que le jeu soit stimulant, le résultat doit être incertain. Sébastien Genvo y voit une caractéristique partagée par l’information. La valeur de l’information, comme celle du jeu, se mesure à l’aune de son incertitude, de son imprévisibilité. L’adage veut que les trains à l’heure n’intéresse personne. De même une situation totalement prédictible n’a aucun intérêt, elle ne génère aucune « news ».

Pour cet ancien game designer, rehausser la valeur de l’information suppose de faire l’expérience des possibles, de ce qui est en puissance dans l’information journalistique, grâce au jeu.

Imagine, test, lance et échoue

Pour finir, je vous propose les quelques mots de conclusion de Jean-Noël Portugal, entrepreneur, consultant, et professionnel des médias, qui intervenait sur les modèles économiques du web :

« Imagine, try, release, fail. But fail fast, modify and succeed »

Ses conseils s’adressaient aux start-up web, mais il me semble que les entreprises medias feraient bien de s’en inspirer également.

Illustrations CC Flickr par verbeeldingskr8 et John McNab

]]>
http://owni.fr/2010/06/07/si-vous-vous-interessez-aux-medias-vous-deviez-etre-au-wif-2010/feed/ 4
Ce que nos technologies révèlent de notre société|| (et réciproquement) http://owni.fr/2010/06/07/ce-que-nos-technologies-revelent-de-notre-societe-et-reciproquement/ http://owni.fr/2010/06/07/ce-que-nos-technologies-revelent-de-notre-societe-et-reciproquement/#comments Mon, 07 Jun 2010 09:46:09 +0000 Caroline Goulard http://owni.fr/?p=17646

Stephane Hugon est sociologue à l’Université Descartes-Sorbonne et à Eranos, une société d’études qualitatives spécialisée les imaginaires sociaux contemporains. Vendredi 4 juin, il animait une conférence au WIF sur les mutations des univers sociaux et technologiques. Une heure de passionnante plongée dans l’inconscient collectif de nos outils techniques. Une fascinante réflexion sur ce que la technologie nous dit de notre société et ce que notre société induit pour nos technologies.

Vendredi matin, Stephan Hugon nous a raconté l’éternelle histoire de la poule et de l’œuf : qui apparaît en premier de l’innovation sociétale ou de l’innovation technologique ?

Nos ancêtres se sont-ils mis à construire des cathédrales gothiques parce qu’ils avaient découvert comment construire des monuments d’une hauteur majestueuse ? Ou bien ont-ils bâtis d’imposantes nefs parce que leur imagerie mystique et théologique avait changé ?

Comment faut-il interpréter le passage, dans les années 60, des massifs transistors de salon, devant lesquels toute la famille se regroupait, aux petites radios individuelles et portables ? Une simple conséquence de la miniaturisation des composants technologiques ? Ou bien un effet dérivé de l’esprit de subversion de la fin des années 60 ? Car, la fin des transistors de salons coïncide avec l’invention de la jeunesse, d’une génération qui a essayé de se soustraire au regard et aux goûts musicaux de ses aînés, et qui avait besoin de nouvelles technologies pour cristalliser ses aspirations.

Plus proche de nous, l’avènement du web 2.0 ne dépendait-il que des nouvelles interfaces qui ont permis à chacun de créer et échanger sans coder ? L’horizontalité promue par le web 2.0 ne découlait-elle pas aussi d’une transformation plus générale des structures de pouvoir (déclin de la figure du père, perte de recevabilité de la parole du prof ou policier) ?

Autrement dit, est-ce la technique qui détermine le social ? Ou est-ce le social qui détermine la technique ? C’est un puits de réflexion sans fin. Mais qui a des implications très concrètes pour tous les designers, entrepreneurs, et concepteurs de nouveaux produits. Car lorsqu’il s’agit de lancer un nouvel objet, un nouveau site, une nouvelle application ou un nouveau service, se pose forcément la question : « va-t-il être utilisé ? ».

Du mythe de l’offre créatrice du marché au consommateur tout puissant

La question « les consommateurs vont-ils se saisir de mon produit ? » est finalement assez récente. A la sortie de la Seconde Guerre Mondiale nous manquions de tout, il n’y avait pas profusion d’offres pour répondre à nos besoins, il suffisait à une entreprise de lancer un produit pour qu’il trouve son public, et la moindre percée technologique relançait le marché.

A l’ère du marketing de l’offre, la technologie détenait un certain aplomb sur les usages. Les usagers, plutôt dociles, étudiaient le guide d’emploi du nouveau magnétoscope ou du nouveau caméscope avant de les mettre en marche : la technologie valait le coup que nous apprenions à nous en servir.

Aujourd’hui, nos besoins matériels sont majoritairement satisfaits, l’innovation technologique est un processus continu et l’offre s’est tellement démultipliée qu’elle n’est plus assurée de rencontrer un public. D’ailleurs, nous ne lisons plus les manuels de nos ordinateurs et smartphones, la technologie se doit d’être intuitive pour avoir une chance de séduire, elle ne dicte plus les usages.

« Avant de penser technique, il faut penser social »

Dans un contexte où l’usager fuit si en deux clics il n’est pas satisfait d’un site, la question des usages et du social devient problématique. Il est désormais impossible de ne plus les prendre en compte au moment d’inventer de nouvelles technologies et de nouveaux produits.

Stephane Hugon nous propose alors de redéfinir l’innovation pour mieux prendre en compte ces nouveaux enjeux. L’innovation serait pour lui « la capacité d’un objet à se laisser approprier par un ensemble de personnes qui vont l’utiliser ».

Stephane Hugon admet bien sûr que les technologies disponibles structurent la manière dont le public se les approprie, que les mutations sociales et technologiques vont de pair et interagissent. Il souhaite cependant mettre l’accent sur les univers sociaux et les imaginaires psychologiques qui vont, à un moment donné, cristalliser avec les technologiques disponibles, pour permettre l’émergence de nouveaux marchés, de nouveaux produits ou de nouveaux usages. Son conseil : avant de mettre au point de nouvelles techniques, il faut commencer par regarder la société.

Une injonction d’autant plus pressante que, pour Stephane Hugon, notre imaginaire social est en pleine mutation, et que ces bouleversements ne sont pas sans effet sur la façon dont les nouvelles générations s’approprient les objets technologiques.

5 angles d’étude des mutations sociales et technologiques

Le sociologue nous a décrit une transformation radicale et profonde des représentations et des attitudes à travers 5 prismes : qui sont les usagers ? Quelles sont leurs voies d’expression identitaire ? Quelles sont leurs valeurs clés ? Quel est l’environnement technique pertinent et légitime pour leur société ? Quelle est l’esthétique sociale qui se déploie dans cette société, c’est à dire quels sont les codes qui font que les gens se comprennent et se sentent appartenir à une même communauté ?

Qui sont les usagers ?

Depuis les années 90, l’usager était considéré comme un individu rationnel, doté de valeur d’autonomie, d’indépendance, d’utilitarisme. Il répondait à la figure de l’adulte.

Aujourd’hui, l’individu rationnel n’est plus au premier plan. La figure de l’adulte s’estompe face à des références plus turbulentes ou plus féminines. « Dans le cinéma américain, on est passé de Rambo à Harry Potter » relève Stephane Hugon. Les utilisateurs se reconnaissent désormais dans des idéaux communautaires, ils s’organisent selon un mode relationnel, ils n’existent plus seuls.

La technologie d’aujourd’hui doit donc se faire vecteur d’imitation, de fusion, elle doit porter des espaces dans lesquels la subjectivité s’expérimente par et avec autrui. Quel que soit le modèle de votre téléphone portable, ce qui importe c’est qu’il vous permette de rester proche de ceux que vous aimer, par exemple. D’après Remy Bourganel, président du jury de la web-jam du Wif, il fallait voir là tout le sens du sujet sur lequel on planché les équipes de web-designer pendant 48 heures : “Je pense à toi”.

Quelles sont leurs voies d’expressions identitaires ?

Jusqu’à récemment, l’authenticité relevait de l’injonction morale: il fallait assumer son identité. Notre culture nous assignait à notre origine biologique et sociale.

Cette sédentarité identitaire est aujourd’hui remise en cause. Nous assistons à une fragmentation des formes subjectives, l’identité devient nomade. Les technologies jouent désormais un rôle de révélateur de notre multiplicité identitaire. Cela se traduit par l’usage de plus en plus courant de pseudos, d’avatars, sur Internet ; mais aussi par le passage du téléphone portable à l’internet mobile. Le portable fixe nos différentes identités dans un seul objet : nous y recevons des appels de notre famille, de nos amis, de nos collègues. Il produit des effets d’assignation identitaire, à la différence du web, qui permet de jouer avec différents masques simultanément, qui autorise le vagabondage identitaire.

Quelles sont les valeurs clé ?

L’idéal de maîtrise et de domination – de soi, des autres, du temps, de la nature – a alimenté nos valeurs occidentales depuis le 18e siècle et à déterminé nos postures de consommateur. Actuellement, de nouvelles valeurs percent cet imaginaire de domestication : le lâché-prise, la fluidité, l’animisme, la fusion.

Le rapport aux objets s’est transformé. Là où nous célébrerions les instruments dotés de qualités fonctionnalistes et utilitaristes, nous attendons désormais des objets agissant, se configurant eux-même, et parfois même, prenant des décisions à notre place.

Quel est l’environnement technologique pertinent et légitime ?

Nous sommes passés du culte de l’index à celui du pouce. L’index montre, il sert à dire le droit, à se distancer par rapport à l’autre, il s’assimile au bâton de pouvoir. Le pouce induit à rapport différent à l’objet, il va mettre fin à notre culture de la télécommande pour pousser des valeurs plus ludiques, des valeurs de fluidité et de proximité.

Les objets existent désormais dans la promesse d’un rapport à autrui, ils deviennent relationnels. Ils ne servent plus à rien sur le plan fonctionnel mais deviennent nécessaires sur le plan social et acquièrent des fonctions totémiques ou magiques, comme des parures. Les cadeaux virtuels échangés sur Facebook, les badges sur Foursquare en sont de bons exemples.

Quelle est l’esthétique sociale ?

Nous sortons progressivement du mythe du progrès, du culte de l’activisme pour aller vers des valeurs plus collaboratives et communautaires. La culture martiale de la réforme de soi-même perd de sa pertinence, les habitudes managériales des entreprises changent aussi avec l’apparition de concepts tels que le bottom-up ou le management par projets.

Quand hier la technique devait nous permettre d’augmenter notre distance par rapport au monde et par rapport aux autres, elle doit aujourd’hui véhiculer un esprit « wiki » et « mashup ».

Face à la démultiplication du savoir disponible et accessible sur Internet, nous ne connaitrons plus jamais la page blanche, nous ne partons plus de rien, nous ne serons plus jamais « le premier à ». La surcharge informationnelle nous oblige à travailler à plusieurs, à remixer ce qui a déjà été fait. La génération des digital natives, génération du spam, est en quête de pertinence et non d’exhaustivité, elle est habituée à rechercher la différence entre deux versions d’une même information, et non plus l’information en elle même.

Bien sûr Stephane Hugon n’a fait que dresser deux idéaux-type. Dans la réalité, les modèles cohabitent et glissent progressivement de l’un vers l’autre.

La brillante leçon de Stephan Hugon invite néanmoins tout entrepreneur à ne pas seulement étudier le marché, les besoins et les usages, mais aussi les valeurs ainsi que les imaginaires sociaux.

Illustration CC Flickr par m-c et Cristiano de Jesus

]]>
http://owni.fr/2010/06/07/ce-que-nos-technologies-revelent-de-notre-societe-et-reciproquement/feed/ 16
Fabrique du datajournalism #2 : nous sommes prêts! http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/ http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/#comments Tue, 01 Jun 2010 10:24:53 +0000 Caroline Goulard http://owni.fr/?p=17125 Now, it’s on !

Un développeur, un statisticien et une graphiste : l’équipe datajournalisme d’OWNI a subitement pris de l’ampleur ce matin.

Premier test pour les new-comers de la soucoupe : après une rapide mise au parfum sur l’actualité de la semaine, trois sujets ont été retenus – le blocus israélien à Gaza, Roland-Garros et le sommet Afrique-France – et les huit datajournalistes mobilisés ont eu quinze minutes pour produire un mini-cahier des charges pour chaque projet.

Quatre heures plus tard, sur les écrans de l’open space, on pouvait voir :

-Un défilé de cartes, « France à quelle Afrique tu parles ? » : pour chaque sommet Afrique-France depuis 1973, quels étaient les pays représentés par leurs chefs d’États ? Quelle carte de l’Afrique ces données dessinent-elles ? Une visualisation en forme d’archipel à géométrie variable, en fonction de l’évolution des relations diplomatiques.

-Une infographie interactive liée à une base de données interrogeable sur les pays vainqueurs de Roland-Garros, de Wimbledon, de l’Open d’Australie et de l’US Open, par épreuve, et depuis 1990 : quelle est la couleur nationale du podium ? Quels sont les pays qui ont émergé dans le monde du tennis ces derniers années ?  Quels sont ceux qui sont sortis des palmarès ? Une visualisation avec des petites balles de tennis, déclinable à l’envie avec des ballons de basket, de foot, de baseball, etc., et les statistiques qui vont avec.

-Une visualisation sous forme de jeu de l’oie : comment traiter de façon ludique un sujet critique, avec le parcours de deux habitants de Gaza : Talal, l’entrepreneur, et Ahmad, le fonctionnaire : prix des clopes, accidents sanitaires, marché noir, taxes du Hamas, bakchich pour arriver à bon port, etc.

La fabrique du data #2 se poursuit par un passage en revue des projets dans les cartons.

@martin_u: motivé comme jamais sur ce genre de projet

Les projets déjà réalisés à améliorer

« Authentique ou retouchée » : côté développement : une V2 sur les rails, et côté éditorial une traduction geek-français et français-anglais à prévoir. Ce widget attire toujours plus de 1.000 utilisateurs par mois, assez pour qu’il deviennent intéressant de le doter d’un vrai petit écrin avec une url dédiée, et des fonctionnalités spécialement pensées pour les journalistes qui ont besoin de vérifier la provenance de photos crowdsourcées.

« Où je vote » : les élections sont passées, mais le crowdsourcing continue, 75% des données sont désormais qualifiées, un bel effort qui mérite d’être salué.

« Lycées.eu » : moins de quinze personnes ont utilisé cette application. Nous réfléchissons à la façon de la relancer car l’outil est potentiellement riche.

« La crise grecque en datajournalisme » : un vrai succès qui nous a donné l’idée de lancé une Data TV, sous forme de rendez-vous hebdomadaire de décryptage de gros volumes de données grâce aux gadgets Google Motion Charts. Qu’en pensez-vous ?

Les projets dans les tiroirs

« Le media ring » : le moins qu’on puisse dire, c’est que l’équipe ne manque d’idées pour questionner la popularité de nos médias dans les réseaux sociaux. Façon combat de boxe, avec une petite application où l’on pourrait réunir virtuellement les équipes de supporters-followers-Ilikers et vérifier… laquelle a la plus grosse. Façon widget pour site d’information : nous aimerions ajouter quelques stats au dessus des traditionnels boutons « partager sur Facebook », « partager sur Twitter », etc. Et si on se met à rêver, on pourrait même vous proposer une application Amazon-like du style « les lecteurs qui ont twitté cet article ont aussi twitté celui là » : merveilleux pour mettre en valeur des archives et capt(iv)er les lecteurs sur un site.

« Éoliennes » : Christine Tréguier, journaliste à Politis, mène depuis plus d’un mois une enquête sur le prix de l’énergie selon ses différents modes de production. Nous nous apprêtons à illuminer son travail par quelques visualisations. Le résultat sort bientôt sur OWNI.

« La vie en prison vue par les données » : projet un peu laissé de côté par manque de matériau, nous comptons le relancer sous forme de web-docu.

Les nouveaux projets

« Appli vélib cassés » : vous n’avez qu’à prendre en photo un vélib cassé ou une station vide, nous agrégeons les données pour vous fournir une carte en temps réel de l’état des vélos et du réseau à Paris.

« Clean your Facebook » : une petite appli pour nettoyer les photos où vous avez été taggués, vos updates de statuts et autres wall-plaisanteries, ça vous tenterait ? Le droit à l’oubli, ça vous intéresse ?

« Les liens entre les hautes sphères du CAC 40 » : la très chouette visu d’Alternative Eco nous a donné plein d’idées : nous aimerions réaliser un graph relationnel des liens entre les membres du CAC 40 : écoles fréquentées, rémunération, présences dans les conseils d’administration, etc.

« Visualiser les subventions versées par le conseil régional d’Île-de-France » : l’article de H16 nous a mis l’eau à la bouche, on reviendra dessus avec de la visu.

« La réforme des retraites en visu » : plusieurs problématiques nous semblent pertinentes : scénario de réforme des retraites en France, comparaison entre l’âge légal de départ à la retraite et l’âge réel, panorama européen des systèmes de retraite, etc. Les données ne manquent pas, nous cherchons un partenaire pour nous aider à avoir un regard « clair » sur la situation.

« Presse papier vs presse sur le web : quel circuit de distribution ? » : une infographie montrant le trajet d’un article depuis sa conception par une entreprise de presse jusqu’à son appropriation par un lecteur, sur le papier et sur le web. Notre idée est de démontrer que le web peut décupler vos contacts avec votre public.

« Les Big Brother Awards : découvrez-les par les données » : nous avons un magnifique projet d’interface pour les archives des Big Brother Award : une visualisation de plusieurs centaines de dossiers sous forme d’éco-système navigable par thème et par acteur. A l’arrivée, une visualisation capable de raconter l’évolution de la société de surveillance en France.

« La carte des morts aux frontières » : 3.700 points à placer sur une à partir de ce très riche document. Histoire de traiter de sujets importants pour nous, et pas foncièrement LOL.

Et bien sûr, puisque la soucoupe n’a pas embarqué que des datajournalistes, nous vous préparons des dossiers, des analyses et des archives pour agrémenter tous ces projets.

Il ne vous reste plus qu’à guetter les retombées de cette riche journée sur les pages d’Owni.fr, ou ailleurs.

Vous êtes journaliste, développeur ou graphiste, et vous avez des idées de visualisation autour de base de données interrogeables ? N’hésitez pas à nous contacter (contact[at]owni.fr)

Vous faites partie d’un média et souhaitez coproduire l’un de ces projets ou une autre coproduction? Contactez-nous (contact[at]owni.fr) !

Illustrations CC Flickr par Extra Ketchup

]]>
http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/feed/ 2
#Opendata 1/2: ||Les bons ingrédients pour une ouverture des données réussie http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/ http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/#comments Mon, 31 May 2010 06:47:14 +0000 Caroline Goulard http://owni.fr/?p=16981 Un consortium d’ONG et de bailleurs de fonds internationaux a récemment commandé un rapport sur l’open data sous l’égide de la Transparency and Accountability Initiative.

L’étude finale, l’Open Data Study, rédigée par Becky Hogge, a été publiée en mai 2010 par l’Open Society Institute (institution fondée par George Soros). Elle explore les politiques d’ouverture des données publiques aux États-Unis et au Royaume-Uni, et cherche à en tirer des conséquences pour mener des initiatives similaires en dehors des démocraties occidentales.

A l’origine de cette démarche, il y a la conviction que l’ouverture des données publiques peut apporter d’importants atouts économiques et sociaux. Pour l’auteur du rapport, rendre disponible des données géographiques, budgétaires, sociales dans un format permettant leur réutilisation, permet d’améliorer les services et de créer de la croissance économique.

Data.gov & data.gov.uk : quelles leçons en tirer ?

Les Etats-Unis et le Royaume-Uni ont récemment adopté des démarches volontaristes sur l’opendata en lançant les deux portails www.data.gov et www.data.gov.uk.

L’exemple britannique : data.gov.uk

Data.gov.uk est un portail donnant accès à un ensemble de données collectées et entretenues par le gouvernement et les institutions publiques britanniques. Actuellement data.gov.uk héberge environ 3 200 bases de données et une cinquantaine d’applications dérivées.

Comment en est-on arrivé là ?

Premier geste fondateur en direction de l’opendata : en juin 2009, le Premier Ministre britannique Gordon Brown annonçait que Tim Berners Lee s’apprêtait à rejoindre son gouvernement comme conseiller.

Mais l’arrivée de celui présenté comme le principal inventeur du World Wide Web ne suffit pas à expliquer le mouvement d’ouverture des données au Royaume-Uni.  Depuis déjà plusieurs années, le gouvernement britannique subissait une pression de la société civile, en particulier d’un groupe de responsables de sites web politiquement engagés, pour délivrer ses données de façon ouverte, dans un format lisible par les machines.

Face à ces acteurs politiques et citoyens mobilisés pour l’ouverture des données, quelques agences gouvernementales ont opposé une forte résistance. En particulier, l’agence de cartographie, l’Ordonance Survey (l’équivalent de notre Cadastre), car une partie de son financement provenait justement de l’exploitation commerciales des données publiques géographiques.

Data.gov.uk a été officiellement lancé en janvier 2010. Le site a été perçu comme une victoire de la communauté pro-opendata. Le Royaume-Uni voit désormais fleurir les sites web et les applications basées sur les données libérées, en particulier sur les données cartographiques liées aux codes postaux, autour de la dernière élection générale de mai 2010.

L’exemple américain : data.gov

Data.gov est un portail du gouvernement américain donnant accès aux bases de données crées par le gouvernement fédéral américain et par ses agences.

Il a été lancé en 2009, avec deux objectifs.

Tout d’abord, la volonté d’impulser une communication bottom-up et de faire émerger de nouvelles idées de gouvernance, en renforçant la transparence des services publics, la participation des citoyens, et la collaboration entre l’Etat et ses administrés.

L’ouverture des données publiques a aussi été pensée comme un moyen d’améliorer l’efficience des agences gouvernementales.

La plupart des agences gouvernementales américaines numérisaient déjà les données dont elles disposaient. Data.gov a été conçu comme un outil pour les aider dans leurs missions de service public.

Comme au Royaume-Uni, l’influence de la communauté des civil hackers a joué un rôle important. Ces citoyens engagés ont réutilisé dans leurs sites web des bases de données publiées par le gouvernement pour les présenter de façon enrichie et plus accessible.

Peut-être en réponse à ces initiatives citoyennes, les CIOs (Chief Information Officers) de certains Etats américains –dont le district de Columbia- ont commencé à rendre publiques leurs bases de données. C’est d’ailleurs le directeur technique du district de Columbia, Vivek Kundra qui a été par la suite embauché par Obama au poste de CIO fédéral en mars 2009.

Ces premiers pas en faveur de l’opendata ont trouvé un écho important lorsque le Président Obama a pris ses fonctions à la Maison Blanche. Il a justement consacré un de ses premiers memorandums à l’ouverture et à la transparence.

Après une phase de recherche et développement, pendant le printemps 2009, data.gov a été lancé le 21 mai 2009.

Il contenait initialement 76 bases de données provenant de 11 agences publiques. Craignant que l’élan vers l’opendata ne retombe et que trop peu de données ne soient publiées, Obama a adopté un décret, le 8 décembre 2009, obligeant chaque agence gouvernementale à publier au moins 3 bases de données de qualité.

Aujourd’hui, la comparaison entre les deux plateformes – data.gov.uk et data.gov – ne joue pas en faveur des Etats-Unis : le portail britannique propose déjà trois fois plus de données, alors que son homologue américaine a six mois d’avance. Et data.gov.uk a fait le choix de formats standardisés favorisant le développement du web sémantique, à la différence de data.gov.

Je vous renvoie aux articles de Flowing Data et RWW pour de plus amples comparaison entre ces deux plateformes.

Les trois acteurs clés de l’ouverture des données

L’Open Data Study tire une leçon intéressante de ces observations : aux Etats-Unis comme au Royaume-Uni la conduite de l’ouverture des données a nécessité l’intervention de trois catégories d’acteurs :

  • La société civile, et en particulier un petit groupe de « civil hackers » très motivés
  • Des fonctionnaires gouvernementaux de peu d’influence, mais compétents et engagés
  • Les hautes sphères du pouvoir, guidées soit par une pression extérieure (dans le cas du Royaume-Uni), soit par le climat réformateur d’une toute nouvelle administration (dans le cas des États-Unis)

En écho aux propos tenus par Tim Berners Lee dans l’entretien qu’il a accordé à l’auteur de cette étude :

It has to start at the top, it has to start in the middle and it has to start at the bottom.

1/Dans une logique bottom-up, la société civile a imposé des exemples de bonnes pratiques et à mis sous pression les gouvernements. Ainsi, data.gov.uk et data.gov n’auraient sans doute jamais été créées si des citoyens engagés n’avaient pas déjà développé des applications telles que TheyWorkForYou.com (au Royaume-Uni) ou GovTrack.us (aux États-Unis), des cartes des accidents de vélo, ou des sites répertoriant les dépenses publiques.

TheyWorkForYou et GovTrack.us ont tous les deux été lancés en 2004, par des groupes de bénévoles qui voulaient faciliter le suivi de l’activité politique des parlementaires. Tous deux s’appuient sur des données déjà publiées sur des sites officiels tels que le Hansard au Royaume-Uni ou celui de la Library of Congress aux Etats-Unis, pour les présenter dans un format plus accessible, avec un moteur de recherche, et un espace de débat.

Les auteurs de ces deux applications sont donc passés outre les copyrights protégeant les bases de données originales. GovTrack.us agit également comme une plateforme de données pour d’autres sites citoyens.

Les citoyens bénévoles à l’origine de TheyWorkForYou (régroupé sous le nom de mySociety, fondée par Tom Steinberg), et de GovTrack.us (regroupés sous le nom de Civic Impulse, fondée par Josh Tauberer) s’identifient eux-même come des « civic hackers », c’est à dire des personnes qui utilisent les outils des technologies numériques pour enrichir la vie citoyenne ou résoudre des problèmes civiques. Ils vivent leur activité comme un engagement démocratique.

En France, nous avons aussi nos « civic hackers », chez Regards Citoyens, les éditeurs de NosDéputés.fr (notre équivalent du TheyWorkForYou britannique) et chez la Quadrature du Net (“La loi, c’est du code, donc ça se hacke“).

2/ Les bonnes pratiques citoyennes n’auraient pas suffit si elles n’avaient pas trouvé un relais auprès des fonctionnaires des échelons intermédiaires du pouvoir. Ces acteurs avaient eux aussi un intérêt à l’ouverture des données publiques, dans laquelle ils voyaient une opportunité pour rendre leur travail plus efficient et mieux compris.

Au Royaume-Uni plus particulièrement, la société civile et la communauté des administrateurs publics se sont alliés autour des problèmes de licences posés par la ré-utilisation des données. Leur coopération leur a permis de construire solide base d’expérience et de buts communs. En 2007, le Cabinet Office (l’organe chargé de coordonner les stratégies entre les différents ministères) a commandé un rapport sur l’ouverture des données publiques à Tom Steinberg, le fondateurs de TheyWorkForYou, et à Ed Mayo, le directeur du National Consumer Council (l’organe chargé de représenter les intérêts des consommateurs). L’étude finale, la Power of Information Review, met en avant les opportunités tant démocratiques qu’économiques de l’opendata.

La retombée la plus marquante du travail réalisé par Steinberg et Mayo sur la Power of Information Review a sans doute été le lancement du concours Show Us a Better Way. Un prix de 20 000£ a été mis en jeu pour le meilleur projet de réutilisation des informations du secteur public. Le concours a attiré environ 500 contributions, et a été gagné conjointement par 14 projets, dont le site WhereDoesMyMoneyGo qui rend compte de comment sont utilisés les impôts collectés par les pouvoirs publics.

L’émulation citoyenne autour de ce concours a constitué un argument formidable pour convaincre les agences gouvernementales de libérer leurs données, en particulier l’Ordonnance Survey de renoncer à monétiser ses données géo-spatiales (sujet déjà traité sur mon blog ici).

3/ L’expertise de ces fonctionnaires et administrateurs publics, a donné confiance aux leaders politiques dans la réussite de stratégies d’ouvertures des donnés publiques. Les dirigeants ont ainsi eu les moyens et la motivation pour passer outre l’inertie institutionnelle.

Le rôle des hautes sphères du pouvoir a surtout consisté à donner une dimension politique et démocratique à des problématiques jusque là perçue comme très technologiques.

L’existence de données : la base du succès

A côté de ce schéma à trois poles d’influence –société civile / administration publique / leaders politiques – l’Open Data Study relève un dernier facteur de réussite des stratégies d’opendata aux Etats-Unis et au Royaume-Uni : l’existence de données publiques nombreuses et fiables. Il y a dans ces pays une longue tradition de collecte de données publique, menée par des agences des fonctionnaires très compétents, disposant d’une relative autonomie et de ressources.

La France partage se solide socle de donnée avec les pays anglosaxons grâce à l’Insee. Le blog de Captain Dash consacre un très bon post à ce sujet, je vous conseille donc de lire “Insee… doesn’t ring a bell? That’s France at its top

Dernière remarque soulevée par l’Open Data Study : l’absence des utilisateurs finaux dans le processus de mise en place de l’ouverture de données. Bien sûr, l’audience des applications telles que TheyWorkForYou ou GovTrack.us ont joué un rôle, mais le plus souvent la notion d’utilité publique à pris le dessus sur la prise en compte des utilisateurs.

Lire la suite de cet article: “L’internationale de l’Opendata?”

Illustrations CC Flickr par Eric Fischer et daveypea

]]>
http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/feed/ 2
#opendata 2/2: L’internationale de l’opendata ? http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/ http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/#comments Mon, 31 May 2010 06:47:04 +0000 Caroline Goulard http://owni.fr/?p=17022 Cet article continue l’analyse du rapport de Becky Hogge publié par l’Open Society Institute. On s’intéresse ici aux conditions qui font qu’un pays décide de libérer ses données.

Conditions d’exportabilité de l’ouverture des données

La seconde partie du rapport de Becky Hogge étudie les conditions de réussite d’une transplantation de la stratégie d’ouverture des données en dehors des démocraties occidentales.

Pour cela l’auteur de l’étude a conduit des entretiens avec un grand nombre d’experts – juristes, responsables de systèmes informatiques, spécialistes de la transparence fiscale ou de la gestion budgétaire, représentants de la société civile, etc., – de différents pays -Inde, Kenya, Tanzanie, Afrique du Sud, etc.-.

Grille de questionnement pour évaluer les possibilités d’implantation d’une stratégie d’opendata

Le rapport préconise bien sûr de porter attention aux trois principaux niveaux d’influence dans la première partie de cet article :

  • Les sociétés civiles locales s’approprient-elles déjà les bases de données gouvernementales existantes ? Quelle est la culture technologique de la société civile ? Existe-t-il des groupes de « civic hackers » ? Existe-t-il des mouvements anti-corruption dans le pays ? et peuvent-ils devenir des partisans de l’opendata ?
  • De quelle influence disposent les échelons intermédiaires du pouvoir ? S’intéressent-t-ils à l’ouverture des données ? Y ont-ils intérêt ? Où en est l’e-gouvernement ? Les sphères intermédiaires de l’administration sont-elles en relation avec la société civile ?
  • Les dirigeants politiques considèrent-ils l’opendata comme une source d’avantage politique ? Quels leaders politiques gagneraient à l’ouverture des données ? Lesquels y perdraient ?

Il introduit également un quatrième acteur : les bailleurs de fonds internationaux.

  • Quel niveau d’implication des bailleurs de fond internationaux dans le budget du pays ? Les donateurs sont-ils eux même transparents sur l’argent versé ? L’administration rend-elle des comptes sur l’utilisation des aides internationales ? La transparence a elle été posée comme condition à l’octroi d’aides financières ?

Il insiste sur l’importance de la collecte des données et leur statut juridique.

  • Existe-t-il une collecte de données publiques institutionnalisée ? Les données sont-elles mises à jour régulièrement ? Sont-elles numérisées ? Le sont-elles dans un format ouvert et lisible par les machines ? Sont-elles protégées par copyrights ? Font-elles déjà l’objet de transactions commericales ? Quelles sont les lois du pays concernant la propriété intellectuelle ?

Enfin, le rapport recommande d’étudier le besoin de données des utilisateurs finaux.

  • A quel point la presse est-elle libre dans le pays ? Trouve-t-on facilement de l’information sur l’activité gouvernementale sur Internet ? Existe-t-il des groupes de citoyens qui pourraient avoir usage des données libérées ? Quel est le niveau de pénétration de l’internet et du téléphone mobile dans le pays ?

Les barrières à l’instauration d’une politique de libération des données

L’Open Data Study pointe également certaines réserves. Tout d’abord, une partie des experts interrogés ont souligné que dans certains pays aux législations fragiles ou récentes, une stratégie de libération des données publiques pourrait parasiter le combat pour le droit à l’information.

D’autres ont fait valoir que dans les pays en voie de développement économique, l’ouverture des données publiques était loin d’être un levier prioritaire pour améliorer la croissance.

Beaucoup d’experts sont sceptiques sur la disponibilité des données publiques, et dans un format numérique. Il n’existe pas partout de gros volumes de données qu’il suffirait de libérer. Bien souvent la matière première fait défaut, elle n’existe pas où elle est de mauvaise qualité (format papier, problèmes orthographiques, approximations).

L’International Budget Partnership rapporte que 80% des pays ne rendent pas suffisament compte de leurs dépenses budgétaires. Cet organisme militant pour l’accès du public aux données budgétaire fournit aussi une carte des pays les plus transparents.

Déterminer des fenêtres d’opportunités

Aux Etats-Unis comme en Grande-Bretagne, l’ouverture de portails de données publiques a été favorisée par l’agenda politique.

L’Open Data Study passe en revue quelques typologies de la vie politique d’un pays qui se prêtent particulièrement bien à une stratégie d’ouverture des données publiques :

  • Le contexte d’une toute nouvelle administration portée au pouvoir par un mandat populaire pour remplacer un régime corrompu ou politiquement désavoué peut jouer en faveur de l’opendata.
  • Dans les pays en rapide croissance économique, l’ouverture des données publiques peut être perçu par les dirigeants comme un moyen de lutter contre la corruption, obstacle à l’efficience économique (le rapport prend l’exemple de la Chine)
  • La pression régionale peut aussi jouer un rôle, par exemple en Malaisie qui a conscience d’être à la traîne de ses voisins en matière de transparence.
]]>
http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/feed/ 5
Quatre voies du datajournalism http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/ http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/#comments Wed, 07 Apr 2010 10:27:56 +0000 Caroline Goulard http://owni.fr/?p=11781 J’ai eu l’impression, ces derniers jours, de répéter plusieurs fois la même chose à des personnes différentes (ce qui est un vrai plaisir quand il s’agit de datajournalism). D’où l’idée d’articuler ici ces quelques éléments récurrents.

2152798588_724f8a2f1c

Photo CC par Ian-S sur Flickr

Finalement, le datajournalism ou journalisme de données, peut difficilement se résumer à un type de contenus ou à un type de démarche. J’ai identifié quatre dimensions, et pour chacune les compétences nécessaires à sa mise en œuvre :

1-COMPRÉHENSION : le datajournalism permet de mieux comprendre le monde.

Pour cette visualisation des succès au box office américain depuis 1986, l’équipe du nytimes.com a particulièrement travaillé sur la forme des courbes, et leur couleur.

Le datajournalism, c’est de la visualisation d’information. C’est une des composantes du traitement rich media (tel que le définit Alain Joannes), une des applications du journalisme visuel. Dans cette première logique, le datajournalism permet de faire comprendre par l’image certaines idées bien mieux que ne le feraient des mots.

Le datajournalism fait ici appel aux compétences des graphistes et aux connaissances en sémiotique visuelle ou en sémiologie graphique : pour que chaque forme et chaque couleur fassent sens instantanément.

Pour faire comprendre une affaire d’espionnage politique à Madrid, elpais.com a mis au point une visualisation animée et interactive.

Mais le datajournalism va au delà de l’infographie car il ne s’adresse pas uniquement à l’intelligence visuelle, il travaille également sur l’intelligence cinétique. En datajournalism la visualisation est forcément interactive. Elle doit permettre à l’internaute de jouer avec les données, de manipuler la visualisation. Plongé dans une posture active, l’usager appréhende et mémorise plus facilement l’information.

La datajournalism ne pourra donc pas se passer des compétences d’un interaction designer. Ni de celles d’un ergonome.

2.PERSONNALISATION : le datajournalism permet de personnaliser la vue sur le monde

Gapminder permet de visualiser à la demande les relations entre différents indicateurs statistiques mondiaux.

Le datajournalism, c’est aussi de l’information à la carte. Un des moyens de répondre à la fragmentation des audiences.

La visualisation de données consiste à bâtir une interface graphique pour accéder à une base de données. Cela permet bien sûr de proposer un aperçu de gros volumes de données, d’en faire jaillir le message essentiel.

Mais cela ouvre également la possibilité d’interroger n’importe quelle partie de cette base de données, et de la rendre accessible et compréhensible instantanément. Ainsi, une des dimensions de l’interactivité consiste à rendre la visualisation librement paramétrable.

Une application de datajournalism peut alors répondre à toutes les attentes particulières des internautes autour d’un thème d’information.

Les savoir-faire d’un architecte de l’information deviennent ici utiles.

3.INVESTIGATION : le data journalisme permet d’éclairer autrement le monde.

En analysant un document de 458 000 pages sur les notes de frais des députés britanniques, le Guardian a révélé des abus dans l’utilisation des fonds publics britanniques.

Le datajournalism est également un outil d’investigation. Les bilans de la Cour des comptes, les rapports du FMI, les statistiques de l’OCDE, etc., contiennent énormément de matériaux pour le journalisme d’investigation. Seulement, il faut savoir faire parler ces données.

C’est-à-dire qu’il faut prendre le temps de les lire, qu’il faut savoir les interpréter, qu’il faut des outils pour appréhender des tendances à partir de gros volumes de données, qu’il faut avoir l’idée de croiser une base de données avec une autre, etc., pour faire apparaître des informations jusque-là ignorées.

Interroger les données plutôt que les témoins est un art encore très délaissé par les médias français. Peut-être parce que cela suppose d’emprunter des outils et des méthodes aux sciences (voir l’article de RWW France) : pour extraire de l’information d’immenses bases de données, il n’y pas d’autres moyens que de construire des modélisations, que d’utiliser des outils de gestion de la complexité.

Impossible de réaliser ce genre d’investigation sans statisticiens.

4.PARTICIPATION : le datajournalism permet de participer à la description du monde

Avec l’aide de 200 internautes, l’équipe d’Owni.fr a géolocalisé les bureaux de votes français et a rendu cette base de données gratuite, ouverte et libre.

Enfin, le datajournalisme suppose parfois de faire appel au crowdsourcing pour collecter les données et pour les qualifier.

Lorsque la base de données n’existe pas, lorsqu’il est matériellement impossible qu’un petit groupe de personnes collecte toutes les données sur un sujet, la force du datajournalism réside dans sa capacité à fédérer la participation des internautes pour obtenir des données à faire parler.

Cela nécessite un gros travail d’animation de communauté.

Il faut encore mentionner deux compétences indispensables au datajournalism, et transversales à ces quatre dimensions.

Tout d’abord les savoir-faire des développeurs. Développeur axé back office et data, pour construire et gérer les bases de données, mais aussi développeur axé animation, flash, et front office.

Et pour finir, pas de datajournalism sans travail d’éditorialisation.

Par éditorialisation j’entends : problématisation, inscription dans le débat public, storytelling, hiérarchisation, définition d’un angle de traitement de l’actualité et d’un message à délivrer. Vous remarquerez que l’esquive volontairement la référence au journalisme.

Je suis persuadée qu’il n’y a pas besoin de se définir comme journaliste pour être capable de remplir ce rôle d’éditorialisation.

Maintenant, est-ce que ce travail d’éditorialisation est du journalisme? Je vous laisse en débattre.

]]>
http://owni.fr/2010/04/07/quatre-voies-du-datajournalism/feed/ 31
La Fabrique du DataJournalism http://owni.fr/2010/03/20/la-fabrique-du-datajournalism/ http://owni.fr/2010/03/20/la-fabrique-du-datajournalism/#comments Sat, 20 Mar 2010 16:54:52 +0000 Caroline Goulard http://owni.fr/?p=10503 Le 16 mars chez 22mars. 20 owninautes, héticiens, ou iepétiens (et 1 chien). 3 heures de réunion. 9 projets. Récit de cette journée marathon par Caroline Goulard. Bienvenue dans la Fabrique du DataJournalism !

im1

L’équipe :

Ce mardi là, l’open-space de la soucoupe accueillait donc :

by_media_diet

Première étape : quelles idées ?

Remue-méninge, fond de tiroir, on vide les poches, on pose tout sur la table : on recueille 9 projets de data journalism ayant traversé de près ou de loin l’univers de la soucoupe ces derniers mois.

Les réalisations :

Authentique ou retouchée ?

L’application développée par Nicolas Kayser Bril pour Owni et les Inrock permet d’utiliser les outils des informaticiens légistes pour démasquer les images retouchées par ordinateur. L’outil a généré entre 10 000 et 15 000 utilisations, mais il lui manque peut-être un tutorial ou un scénario ludique pour qu’un large public s’en saisisse.

Oujevote?

Une application Facebook est née à partir des données recueillies par l’équipe de data-journalistes d’Owni, avec l’aide  de 200 internautes. Une première étape vers une carte détaillée des bureaux de votes, vers des statistiques électorales géolocalisées ou vers des services sur smartphone.

> La carte des villes sous vidéosurveillance

Projet porté et initié par Jean-Marc Manach au sein du Post.fr. La carte est prête, fruit de l’enquête de Jean-Marc et de la participation des internautes, en attente d’être publiée. Un co-branding avec les équipes de la soucoupe afin d’apporter des ressources au projet est à envisager.

Les idées à concrétiser :

> Visualiser l’immigration, les expulsions, les SDF ou les morts de la rue

Des données à agréger depuis différentes sources,  à géolocaliser à toutes les échelles – de la rue à l’Europe -, à placer sur une timeline, à décortiquer en graph social, etc. Bref, des données à faire parler. De la matière première journalistique et un vrai service à proposer aux professionnels (et pro-am) de l’information.

> Le media ring

Nous voulons agréger au sein d’un même univers différentes visualisations sur les médias, dont l’infographie sur le poids de la presse au kg réalisée par Elsa Secco, l’application « C’est qui qui paye pour mes infos ? » réalisée par Nicolas Kayser Brill, et un comparateur de popularité des médias sur les réseaux sociaux (en particulier en fonction des fans et interactions sur Facebook). Il existe des Google fights, à nous d’inventer à quoi ressembleront des « medias fights ».

> Statistiques juridiques

La base de données Legifrance recense les décrets d’application adoptés ou non, pour chaque loi. Une visualisation bien faite permettrait de matérialiser le décalage entre l’adoption d’une loi et sa mise en application. Cette même base de données pourrait même se révéler très riche pour produire des statistiques sur les lois votées, si seulement ses données étaient mieux structurées. Imaginez quelles histoires nous pourrions raconter à partir de données sur les lois sécuritaires…

> L’index boursier personnalisé

Avez-vous déjà croisé un index boursier agrégeant des valeurs par secteur industriel ? Nous non. Et pourtant l’idée semble pleine de promesses : comment évolue la cotation en bourse de l’industrie de la sécurité ? De l’industrie des OGM ? Et si on vous laissait la possibilité de choisir vos valeurs pour créer votre indice boursier personnalisé ?

> Le comparateur de prix géo-localisé

Les prix des biens de consommation près de chez vous, accessibles en un clic, et faciles à visualiser.

> Qui passe à la TV?

A partir du baromètre de la diversité établi par le CSA, il serait possible de calculer et de visualiser la probabilité de passer à la télé selon ses caractéristiques sociales. Et donc de vous montrer quelles est votre chance de connaître un jour votre quart d’heure de gloire cathodique. L’absence de statistiques ethniques en France rendrait complexe un profilage précis.

Deuxième étape : quels projets ?

L’équipe définit trois filtres : un critère de rentabilité économique, un critère de pertinence éditoriale et/ou sociétale et un critère de réalisme. Chaussés de ces nouvelles lunettes, nous auscultons chaque projet, comme si chacun était une entreprise autonome, avec un marché, des opportunités et des voies de sortie à définir.

3 idées ont résisté à cette épreuve (d’autres sont en cours d’audit avec un « next step » sous 30 jours) :

-       le media ring

-       l’index boursier personnalisé

-       la visualisation de l’immigration, des expulsions, des SDF, des morts de la rue

> Ça vous donne envie ?

Une demi-heure de travail plus tard, après avoir imaginé des success stories, des retour sur investissement et des visu bankable, dur atterrissage de la soucoupe : « Au fait, il est où le journalisme de données, dans tout ça ? » (merci Jean-Marc /-) ).

Promis, on le garde à l’horizon. Mieux, on en fait l’un des diverss réacteurs d’Owni !

Prochain “grand raout data du 50ter rue de Malte” > première semaine de mai / on vous tient informé ici.

Et voir sur le même sujet l’interview donnée par NKB à Paul Bradshaw.

Image: visualisation de la pyramide des usage par Wired, qui commence à dater un peu,mais tourne en ce moment.

]]>
http://owni.fr/2010/03/20/la-fabrique-du-datajournalism/feed/ 22
Prix de la presse au Kg : la presse française bien plus chère http://owni.fr/2010/03/09/prix-de-la-presse-au-kg-la-presse-francaise-bien-plus-chere/ http://owni.fr/2010/03/09/prix-de-la-presse-au-kg-la-presse-francaise-bien-plus-chere/#comments Tue, 09 Mar 2010 17:26:27 +0000 Caroline Goulard http://owni.fr/?p=9755 Titre original :

Prix de la presse au Kg : la presse française bien plus chère que la presse étrangère

Webdesigner et étudiante en quatrième année à l’Hetic, Elsa Secco a réalisé une visualisation à partir de données fournies dans un article de Philippe Douroux,  “Aux États-Unis, la presse pèse trois fois plus lourd et coûte moins de 2€/Kg”.

La visualisation d’abord, réalisée par Elsa Secco, à partir des données fournies par Philippe Douroux dans son très bon article « Aux Etats-Unis, la presse pèse 3 fois plus lourd et coûte moins de 2€/Kg« .

Elsa Secco est webdesigner et étudiante en quatrième année à l’Hetic.

visualisation

Quelques précisions sur sa réalisation ensuite :

ELSA : « C’est la première visualisation que je réalise, et je voulais vraiment m’éclater, qu’elle soit, avant tout, fun et accessible.

J’ai tout de suite eu l’idée de représenter les données par des plumes, double-métaphore pour illustrer le poids et l’écriture.

Le plus laborieux a été de croiser l’image et les mathématiques. Il fallait absolument que les proportions soient respectées, pour que le lecteur comprenne instantanément ce qui est comparé et analysé. J’ai donc passé un moment à trouver la bonne échelle et faire des règles de 3 !

Ensuite, j’ai étudié plusieurs possibilités de schémas, je ne dis pas que le mien est le meilleur, mais je voulais aussi le mettre dans le contexte de l’illustration, comme si des plumes tombaient du nid de l’oiseau.

D’ailleurs je suis assez fière de mon oiseau, car il a une tête assez grotesque. :) «

Et pour finir, je ne peux pas m’empêcher de vous livrer les quelques commentaires que ces données m’inspirent.

L a presse française, coûte, en moyenne 11,30€ le Kg alors qu’aux Etats-Unis elle coûte moins de 2€ le Kg, selon les calculs de PhDx dans son récent article sur slate.fr.

D’accord, vous allez me dire : quel sens ça a de comparer le prix au Kg de la presse ? J’y vois deux vertus pédagogiques :

Premièrement, comparer les prix au Kg, c’est mettre en lumière deux phénomènes très importants dans la perte d’attractivité de la presse papier française :

  1. La presse française offre moins de contenu que certains titres étrangers (par exemple, les très copieux Washington Post et New York Times)
  2. La presse française est plus chère que la presse étrangère.

Pour lutter contre des difficultés endémiques ou une crise économique conjoncturelle, certains titres ont amoindri leur rédaction et/ou leur pagination, tout en augmentant le prix d’achat. Comment s’étonner que les lecteurs désertent ? A l’origine des difficultés de la presse quotidienne française, il n’ y a pas seulement une transformation de la demande, un bouleversement des pratiques de lecture, il a aussi la faible attractivité de l’offre, et la visualisation d’Elsa montre bien cela.

Deuxièmement : cette référence au prix au Kg nous fait prendre conscience de la matérialité de la presse papier. Un journal c’est de l’encre, du papier, des camions pour le transporter… Et tout cela à un coût (plus de 60% des charges  d’exploitation d’un titre). Des coûts qui ne se retrouvent pas dans la presse en ligne.

Certains considèrent comme un paradoxe que bien des lecteurs, qui acceptaient de payer hier pour leur journal, ne conçoivent plus aujourd’hui de payer pour de l’information en ligne. Calculer le prix de la presse au Kg suggère une explication : les lecteurs ne payaient déjà pas pour l’information au temps des journaux imprimés, ils payaient pour le papier, l’encre, l’essence dans les camions et le salaire des porteurs.

> Article initialement publié sur databasejournalism

]]>
http://owni.fr/2010/03/09/prix-de-la-presse-au-kg-la-presse-francaise-bien-plus-chere/feed/ 78