OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Recherche sérendipité désespérement [2/3] http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/ http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/#comments Sun, 14 Aug 2011 15:38:57 +0000 Ethan Zuckerman http://owni.fr/?p=76211 Suite de l’article d’Ethan Zuckerman autour du concept de sérendipité, qui peut être définie comme la capacité à découvrir des choses par hasard. Après s’être attardé dans la première partie sur les liens entre urbanité et sérendipité, l’auteur analyse ici la manière dont nous cherchons l’information en ligne et revient sur les origines du terme “sérendipité”.

Les liens de cet article sont en anglais.


Information en ligne: une chambre d’échos?

En 1993, Pascal Chesnais, chercheur au laboratoire Médias du MIT, a conçu un logiciel appelé “Freshman Fishwrap”. Utilisant un ensemble de sources en ligne disponibles à l’époque, Fishwrap permettait aux individus de produire un journal numérique personnalisé, comprenant la mention de leur ville d’origine ou leur sport préféré et filtrant les nouvelles moins intéressantes. Nicholas Negroponte encensa le projet dans son livre Being Digital, le considérant comme partie intégrante du futur personnalisé envisageable dans l’ère du numérique.

L’universitaire Cass Sunstein considérait le “Daily Me” comme une menace plutôt qu’une promesse [PDF]. Dans son livre, Republic.com, il redoute qu’Internet fonctionne comme une chambre d’échos où les individus ne rencontreraient que des vues en accord avec les leurs. Sunstein s’inquiète que dans un tel environnement nous puissions assister à une polarisation politique accrue et à un déplacement des opinions modérées vers les extrêmes.

Beaucoup des réponses académiques à la critique de Sunstein ne se sont pas efforcées de contredire l’argument selon lequel l’isolation mène à la polarisation, mais ont plutôt essayé de démontrer qu’Internet n’est pas aussi polarisant qu’il ne le croit. Matthew Gentzkow et Jesse Shapiro ont étudié les lectures en ligne de milliers d’internautes américains et ont conclu que même si certains sites sont très partisans, les sites d’information les plus visités par les internautes (Yahoo ! News, CNN, AOL News, MSNBC) le sont à la fois par des utilisateurs de droite et de gauche. Leur conclusion tend à démontrer qu’Internet est peut être plus polarisé que la plupart des médias mais suggère que cette polarisation est moins importante que ce que l’on pourrait craindre, et moins importante que ce que l’on rencontre dans nos communautés physiques.

Je m’intéresse moins à la polarisation droite/gauche américaine qu’à la polarisation nous/eux au niveau mondial. À partir des données collectées par Gentzkow et Shapiro, l’équipe de Slate a développé une infographie qui montre la polarisation partisane des petits sites, alors que les plus grands ciblent un public plus large. Je l’ai complétée avec quelques légendes et des cadres jaunes qui montrent quelles sources d’information proviennent d’autres pays que les États-Unis. Vous noterez qu’il n’y a pas beaucoup de jaune sur cette image – la plus grande source d’information internationale, en nombre de pages vues, est la BBC, qui est probablement le site d’information le plus visité sur tout le Web. (Vous noterez aussi que la BBC attire surtout des lecteurs de gauche – avec 22% de lecteurs conservateurs pour 78% de libéraux.)

Les Américains ne privilégient pas particulièrement les sources d’informations locales aux sources internationales. J’ai analysé les préférences médiatiques de 33 pays en utilisant les données de Doubleclick Ad Planner et j’ai découvert que la préférence américaine pour les sources d’informations domestiques (93% contre 7% lorsque en mai 2010) est en réalité assez basse comparée aux 9 autres pays avec le plus grand nombre d’internautes. Les pays avec plus de 40 millions d’internautes ont généralement un biais très important pour les sources d’informations locales – en moyenne 95% des gens les préfèrent. En comparaison, les Américains ont presque l’air cosmopolites.

Ces données ne disent rien de notre appétit pour les informations traitant de l’international mais montrent plutôt notre préférence pour des contenus pensés pour nous et nos compatriotes. Il est possible que nous recevions énormément d’informations sur l’international par Yahoo ou CNN, même si nous avons de bonnes raisons de penser le contraire. (Ces 30 dernières années, l’organisation anglaise Media Standards Trust a observé une forte baisse dans le pourcentage de journaux anglais spécialisés sur des sujets internationaux, et une recherche menée par Alisa Miller de Public Radio International suggère que les médias américains se concentrent bien plus sur les sujets de divertissement que sur l’actualité internationale.)

Cliquer ici pour voir la vidéo.

Ce qui me frappe dans ces données c’est que des sites d’informations internationaux comme la BBC, le Times of India ou le Mail and Guardian sont faciles d’accès (il suffit de cliquer) et ne posent pas le problème de la barrière de la langue. Le biais “local” pour des supports d’informations nationaux semble donc très fort.

Les réseaux sociaux comme mécanismes de sérendipité?

Le risque de ce genre d’isolation est de passer à côté d’informations importantes. J’ai la chance, grâce à mon travail sur Global Voices, d’avoir des amis tout autour du globe, et j’entends souvent parler d’actualités importantes, soit grâce à notre travail sur le site, soit au travers des préoccupations de mes amis sur les réseaux sociaux. Fin décembre 2010, il devint clair que quelque chose de très inhabituel se produisait en Tunisie – des amis comme Sami Ben Gharbia couvraient les manifestations qui se déroulaient à Sidi Bouzid et se propageaient dans le reste du pays. Ces amis s’interrogeaient sur les raisons pour lesquelles aucun média extérieur à la région ne couvrait la révolution en cours. Je suis entré en action avec l’un de mes article de blog publié au moment le plus opportun – le 12 janvier, j’ai écrit “Et si la Tunisie vivait une révolution, alors que personne n’y prête attention ?” (“What if Tunisia had a revolution, but nobody watched ?“)… beaucoup de personnes m’ont appelé après que Ben Ali a fui le pays deux jours plus tard.

La révolution tunisienne a pris par surprise les services secrets et diplomatiques autour de la planète. Ça n’aurait pas du être le cas – une multitude d’informations avait été publiée sur les pages Facebook tunisiennes, et rassemblées par des groupes comme Nawaat.org et diffusée sur Al Jazeera (d’abord sur ses services en arabe). Mais ce passage d’un monde où l’information est dominée par des super-puissances à un monde multi-polaire est difficile à assimiler pour les diplomates, les militaires, la presse et les individus. Et si je suis honnête quant à ma vision du monde, je doit reconnaître que je n’aurais jamais entendu parler de cette révolution naissante si je n’avais pas eu des amis tunisiens.

Comme tout le monde, je vis un changement dans ma façon de m’informer sur le reste de la planète. Avant Internet et pendant ses premières heures, les nouvelles internationales provenaient surtout des médias traditionnels – télévision, presse quotidienne et magazines. Il y avait – et il y a toujours – des raisons de se méfier des “curateurs” , mais il y a un aspect fondamental de leur travail qui, à mon sens, doit être préserver alors que nous inventons de nouveaux modèles d’organisation de l’information. Implicitement, les “curateurs” décident de ce que nous devons savoir sur le monde. Les très bons “curateurs” ont souvent une vision du monde plus ouverte que la plupart des individus, et les médias dirigés par de bons “curateurs” nous forcent souvent à nous intéresser à certaines personnes, certains lieux et problèmes que nous aurions autrement ignorés.

D’un autre côté, les “curateurs” sont forcément biaisés, et la possibilité de trouver des informations qui correspondent à nos centres d’intérêts et à nos préférences est l’une des choses que le Web moderne a rendu possible. Les moteurs de recherche me permettent d’apprendre beaucoup de choses sur des sujets qui m’intéressent – le sumo, la politique africaine, la cuisine vietnamienne – mais il est fort possible que je ne prenne pas connaissance de sujets importants parce que je prête plus attention à mes intérêts qu’aux informations sélectionnées par des professionnels. Il nous faut des mécanismes qui permettent d’ajouter de la sérendipité à nos recherches.

Une nouvelle tendance est apparue. Celle de créer des outils qui nous guident vers des nouveaux contenus selon les intérêts de nos amis. Des outils tels que Reddit, Digg et Slashdot forment des communautés autour d’intérêts communs et nous dirigent vers des sujets considérés comme intéressants et valant le coup d’être partagés par la communauté. Twitter, et surtout Facebook, fonctionnent à un niveau bien plus personnel. Ils nous montrent ce que nos amis savent et ce qu’ils considèrent important. Comme l’explique Brad DeLong, Facebook offre une nouvelle réponse à la question “Que dois-je savoir ?”; à savoir : “Tu dois connaître ce que tes amis et tes amis d’amis savent déjà et que tu ignores.”

Le problème, bien entendu, est que si vos amis ne savent pas qu’une révolution a lieu en Tunisie ou ne connaissent pas de super nouveau restaurant vietnamien, vous n’en entendrez probablement pas parler non plus. Connaître ce que vos amis connaissent est important. Mais à moins que vous ayez un réseau d’amis remarquablement divers et bien informé, il y a des chances pour que leur intelligence collective ait des failles. L’éditorialiste du Guardian Paul Carr a raconté une anecdote intéressante qui s’est produite lors d’un séjour à San Francisco. Alors qu’il rentrait à son hôtel il fut stupéfait de voir que sa chambre, comme le reste de l’immeuble, n’avait pas été
nettoyée. Les employés de l’hôtel protestaient contre la loi sur l’immigration SB1070 en Arizona. Alors que le sujet était largement couvert sur Twitter, Carr n’en avait pas eu vent par son flux. Cela lui fit réaliser qu’il vivait dans “[sa] propre petite bulle Twitter composée de personnes comme [lui] : ethniquement, politiquement, linguistiquement et socialement.” On peut se demander si cette bulle est capable de nous apporter la sérendipité que nous espérons rencontrer sur le Web.

Aux origines de la sérendipité

D’où vient le terme de “serendipité”? Robert K. Merton lui a dédié un livre, écrit avec sa collaboratrice Elinor Barber et publié après sa mort. Cela peut sembler  étrange pour un sociologue de renom de s’y intéresser, mais il faut se souvenir que l’une de ses contributions à la sociologie a justement été l’examen des “conséquences inattendues”. Au premier abord, la sérendipité semble être le côté positif de ces conséquences : l’heureux accident. Mais ça n’est pas ce que ce terme voulait dire à l’origine. Le mot a été forger par Horace Walpole, un aristocrate britannique du 18e siècle, 4e comte d’Oxford, romancier, architecte et célèbre commère. On se souvient surtout de lui pour ses lettres, rassemblées en 48 volumes, qui donnent une idée de ce à quoi ressemblait le monde à travers les yeux d’un aristocrate.

Dans une lettre écrite en 1754, Walpole raconte à son correspondant, Horace Mann, comment il fit une découverte inattendue mais utile, grâce à sa grande connaissance de l’héraldique. Pour expliquer son expérience, il fait référence à un conte perse, Les Trois Princes de Serendip, dans lequel les trois principaux personnages “faisaient continuellement des découvertes par accident et grâce à la sagacité, de choses qu’ils ne cherchaient pas.” Le néologisme de Walpole est un compliment – il se congratule à la fois pour son ingénieuse découverte et pour la sagacité qui a permis cette trouvaille.

Bien que le concept soit utile, le terme “sérendipité” n’est devenu courant que ces dernières décennies. Jusqu’en 1958, d’après Merton, le mot n’est apparu que 135 fois sur papier. Durant les quatre décennies suivantes, il est apparu à 57 reprises dans des titres de livres et il a été utilisé 13 000 fois par des magazines rien que dans les années 1990. Une recherche Google fait apparaître 11 millions de pages avec ce terme. Des restaurants, des films et des boutiques de souvenirs arborent ce nom. Mais très peu de pages sur les découvertes inattendues faites grâce la sagacité.

Merton était l’un des plus grands promoteurs du mot, décrivant “le schéma de la sérendipité” en 1946 comme une façon de comprendre les découvertes scientifiques inattendues. La découverte de la pénicilline par Fleming en 1928 a été provoquée par une spore de champignons Penicilium qui avaient contaminé une boîte de Petri dans laquelle se développaient des bactéries de Staphylococcus. Si l’apparition de spores de moisissure dans la boîte était un accident, la découverte, elle, était le fait de la sérendipité – si Fleming n’avait pas cultivé les bactéries, il n’aurait pas remarqué les spores de moisissure isolées. Et si Fleming n’avait pas eu une connaissance approfondie du développement des bactéries – la sagacité – il est fort peu probable qu’il aurait relevé les propriétés antibiotiques des Penicilium et ainsi générée l’avancée la plus importante de la première moitié du 20e siècle dans le domaine de la santé.

Selon Louis Pasteur, “dans les champs de l’observation, le hasard ne favorise que les esprits préparés.” Pour Merton la sérendipité émerge à la fois d’un esprit préparé et de circonstances et structures qui mènent à la découverte. Dans le livre The Travels and Adventures of Serendipity , Merton et Barber explore les procédés de découverte dans un laboratoire de General Electric dirigé par Willis Whitney qui encourageait un environnement de travail fondé autant sur l’amusement que sur la découverte. Un mélange positif d’anarchie et de structure apparaît nécessaire à la découverte et une planification exagérée devient une abomination puisque “la règle de ne rien laisser au hasard est vouée à l’échec.” (L’analyse du livre de Merton et Barber par Riccardo Campa est conseillée à ceux intéressés par les questions de sérendipité et de structure.)

L’idée que la sérendipité est un produit à la fois d’un esprit ouvert et préparé et des circonstances qui mènent à la découverte se retrouve dans l’histoire racontée par Walpole en 1754. Les trois princes étaient très instruits sur les questions de “moralité, de politique et sur toutes les connaissances convenues en général” mais ils ne firent pas de découvertes inattendues avant que leur père, l’Empereur Jafar, ne les envoyât “parcourir le Monde entier pour qu’ils puissent apprendre les manières et les coutumes de chaque nation.” Une fois que ces princes bien préparés rencontrèrent les circonstances favorisant la découverte, ils firent des trouvailles sagaces et inattendues. (Pour plus d’informations sur la traduction de 1722 en anglais des Trois Princes de Serendip vous pouvez lire ce post de blog.)

Lorsque nous utilisons le terme “sérendipité” aujourd’hui c’est souvent pour parler d’un “heureux accident”. La partie de la définition qui se concentre sur la sagacité, la préparation et l’aspect structurel a sombré, du moins en partie, dans l’obscurité. Nous avons perdu l’idée que nous pouvons nous préparer à la sérendipité à la fois personnellement et structurellement.

J’ai peur que nous comprenions mal comment nous préparer. Et comme mon amie Wendy Seltzer me l’a fait remarquer, si nous ne comprenons pas les structures de la sérendipité, le phénomène devient aussi peu probable que le simple hasard.


Article initialement publié sur le blog d’Ethan Zuckerman

Traduction : Marie Telling

Illustrations CC FlickR par Truk, estherase, atoach
Image de Une Loguy

]]>
http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/feed/ 7
Éruption solaire en images http://owni.fr/2011/06/09/eruption-solaire-en-images/ http://owni.fr/2011/06/09/eruption-solaire-en-images/#comments Thu, 09 Jun 2011 09:31:07 +0000 Xavier Demeersman http://owni.fr/?p=35116

La spectaculaire éruption solaire du 7 juin 2011 a été capturée par différents satellites et observatoires du Soleil, multipliant ainsi les points de vue et les informations chères aux physiciens.

Le célèbre satellite SoHO qui a déjà couvert un cycle solaire (le précédent, cycle 23) a lui aussi livré ses images et vidéos de l’énorme éruption solaire. Sur la vidéo ci-dessous, ont peut découvrir l’éjection de masse coronale propulsant des particules solaires à des vitesses supérieures à 1 200, voire 1 600 kilomètres par seconde ! L’image est brouillée par la « déflagration » électro-magnétique, les particules heurtant le capteur.

Cliquer ici pour voir la vidéo.

Eruption solaire classe M 2.5 photographiée par SDO

Le satellite Solar Dynamics Observatory (SDO) a sans doute capturé les plus belles images de la gigantesque éruption solaire, fort de caméras observant à très haute résolution. Les détails sont à couper le souffle ! Cette éruption extraordinaire n’est, cependant, pas l’une des plus puissantes. Elle est, toutefois, diablement spectaculaire ! Les scientifiques estiment qu’elle s’est déployée dans un volume équivalent à 75 fois la taille de la Terre !

En vidéo ci-dessous, l’énorme éruption solaire enregistrée par SDO.

Cliquer ici pour voir la vidéo.

La pair de satellites STEREO A (Ahead) et B (Behind) offrent aux chercheurs une vue stéréoscopique sans équivalent de la couronne solaire. Latempête classée M 2.5 ne leur a évidemment pas échappée. Ainsi peut-on découvrir (et re-découvrir) l’éjection de masse coronale ou CME (Coronal Mass Ejection) qui a suivie l’éruption. Notre étoile, de la taille du cercle blanc au milieu du disque noir, est cachée par un coronographe afin de mieux discerner son environnement appelé couronne solaire. D’énormes quantités de particules solaires sont éjectées dans l’espace. Les images sont brouillées par les salves de vent solaires provenant de la violente tempête électro-magnétique ! Un effet qui peut très bien perturber tout système électriques et électroniques sur Terre, selon l’intensité de la tempête.

CME photographiée par les satellites Stereo A et B (cliquez pour voir les vidéos)

Cliquer ici pour voir la vidéo.

Suivez l’activité solaire sur le site Solarham.

En découvrir plus sur la page de la NASA consacrée à cette spectaculaire éruption solaire.


Article initialement publié sur le Cosmographe.

Crédit photo et vidéo : NASA/SDO/SoHO/STEREO.

]]>
http://owni.fr/2011/06/09/eruption-solaire-en-images/feed/ 2
Les particules surfent sur la vague http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/ http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/#comments Wed, 01 Jun 2011 09:06:40 +0000 Roud http://owni.fr/?p=35016 La mécanique quantique est le domaine de la physique à la fois le plus mystérieux et le plus popularisé auprès du grand public. Lorsqu’elle a été inventée dans les années 20, ses propriétés mathématiques parraissaient si étranges que de nombreux débats philosophiques ont eu lieu pour comprendre l’implication de cette physique sur la notion de réalité même.

Ce qu’il y a d’étonnant dans la mécanique quantique est qu’elle donne une vision fondamentalement incertaine du monde. Les particules quantiques se comportent tantôt comme une onde, tantôt comme une particule, une observation ne donne pas un résultat déterminé, mais probabiliste.

A cela s’ajoutent des effets bizarres comme le principe d’incertitude d’Heisenberg, spécifiant qu’un observateur peut modifier la nature de l’expérience physique simplement en la regardant, ou encore le paradoxe du chat de Schrödinger … Vous avez probablement entendu parler de ces interprétations qui, quoique bien définies mathématiquement, donnent un parfum très ésotérique à la physique quantique et la rendent quelque peu inaccessible au commun des mortels. Faut-il inventer une nouvelle philosophie, une nouvelle vision du monde et de la réalité pour comprendre notre univers ? (Ou notre multivers ?)

D’un point de vue purement scientifique, une école de pensée, dite de Copenhague, a fini par s’imposer. C’est en réalité une certaine école du renoncement : fi de ces histoires de dualité onde-particule, il est inutile de se poser des questions sans fins. La formule symbole de cette interprétation est le fameux “shut-up and calculate” de Feynmann, i.e. :

Ne te pose pas de questions et calcule.

L’idée est que le monde quantique reste incommensurable, incompréhensible pour nos cerveaux primitifs d’homo sapiens, le monde est tout simplement différent à petite échelle, et la seule beauté mathématique de l’équation de Schrödinger peut nous permettre de comprendre ce qu’il s’y passe.

Ondes et particules

Einstein (parmi d’autres) n’accepta jamais cette interpétation. Il propose avec Podolsky et Rosen un argument en 1935, appelé “paradoxe EPR”, visant à réfuter l’interprétation de Copenhague, théorie dite “non-locale”. L’illustration la plus connue de cette non-localité est ce qu’on appelle l’intrication quantique : des particules quantiques semblent pouvoir interagir à très grande distance, comme si la réalité physique d’une particule défiait l’espace en s’étendant en plusieurs endroits simultanément. Einstein pensait que c’était impossible et que des théories locales à “variables cachées” pouvaient tout expliquer.

Dans les années 60, John Bell propose une formulation mathématique de ce paradoxe EPR, les “inégalités de Bell”, ouvrant la voie à des tests expérimentaux du paradoxe, réalisés in fine pour la première fois par Alain Aspect, qui montre effectivement que la mécanique quantique les viole (10.000 fois plus vite que la lumière). L’école de Copenhague triomphe : cette violation prouve qu’il n’y a pas de théories locales à variables cachées pouvant rendre compte de la mécanique quantique, et donc qu’il est inutile de tenter de dépasser la froideur mathématique de l’équation de Schrödinger, seule façon de décrire le monde à petite échelle. L’interprétation s’impose définitivement, est enseignée dans les universités, le débat semble clos (en tous cas pour les non-experts un peu éclairés dans mon genre).

Mais le diable est dans les détails : la violation des inégalités de Bell montre que la mécanique quantique est une théorie “non-locale”, comme le veut l’interprétation de Copenhague, mais elle ne montre pas pour autant que l’interprétation de Copenhague est valide (en particulier son aspect purement probabiliste). Or certains physiciens, et pas des moindres, ont continué à travailler sur des théories qui, contrairement à l’interprétation de Copenhague, ont le bon goût d’être déterministes et non probabilistes : De Broglie et Bohm ont ainsi développé une théorie dite de l’onde porteuse, ou onde guide. On peut résumer en quelques mots cette théorie de la réalité : un système quantique n’est ni une particule, ni une onde mais la conjugaison d’une particule littéralement “portée” par une onde, un peu comme un surfeur sur une vague. Lorsque l’on explore alors les propriétés de la matière, on est tantôt en interaction avec une particule, tantôt en interaction avec l’onde, d’où la fameuse dualité observée en mécanique quantique.

Cette théorie a également le bon goût d’être non-locale : l’onde porteuse s’étend à tout l’univers, et donc on peut interagir avec la particule “à distance” via une action sur sa propre onde porteuse. Elle n’est donc pas nécessairement en contradiction avec les expériences de violation des inégalités de Bell dont on parle ci-dessus. Le plus gros problème, qui hérisse le poil de nombreux physiciens, est cette non-localité, et cette théorie ne s’est pas imposée, trop ésotérique. Ironie de l’histoire, l’un des grands défenseurs de cette théorie n’est autre que John Bell lui-même, l’homme qui par ses travaux a indirectement tué le paradoxe EPR.

Transportons-nous maintenant au début des années 2000. Changeons de domaine : place à la physique de la matière dite “molle”, place à cet élément étrange et commun … l’eau.

Cliquer ici pour voir la vidéo.

(Pour les non-anglophones, une version sous-titrée de cette vidéo est disponible sur dot sub)

Grâce aux progrès dans l’acquisition des images, on peut filmer en temps réel ce qui se passe lorsqu’une goutte d’eau tombe sur une surface libre. On observe alors un phénomène tout à fait fascinant dû à la tension de surface (la même propriété physique à l’origine des effets de capilarité) : lorsqu’une goutte tombe sur une surface d’eau, elle va pouvoir “rebondir” plusieurs fois sur celle-ci. Au moment des rebonds, elle va en plus créer une petite onde autour d’elle. Au bout du compte, l’énergie se dissipe, la goutte se stabilise à la surface avant de fusionner avec celle-ci. Dans cette petite expérience très simple, notez qu’on a deux ingrédients intéressants : une “particule” (la goutte), et une onde (créée par la goutte qui tombe), l’onde étant bien sûr en interaction avec la particule via les lois de la mécanique des fluides. On n’est pas très loin de l’image de Bohm-De Broglie, le seul “problème” étant la dissipation d’énergie qui entraîne la stabilisation de la goutte et sa fusion avec la surface.

La solution paraît rétrospectivement simple : injecter de l’énergie dans le système

C’est l’idée qu’ont eu Yves Couder (de l’université Paris VII) et son équipe : en faisant “vibrer” la surface d’eau, on peut arriver à entretenir le rebond de la goutte, qui sautille ad vitam aeternam, générant une onde dans sur la surface de l’eau. Mieux, en ajustant un peu les paramètres, on peut arriver à ce que l’onde soit déphasée par rapport au rebond de la goutte, ce qui a pour conséquence de transformer la goutte rebondissante en goutte voyageuse, “marcheur” allant bien droit. L’onde générée par le rebond est ainsi transformée en “onde porteuse”, un peu comme dans la théorie de Bohm-De Broglie ! Encore mieux : si on commence à mettre plusieurs gouttes ensemble, non seulement celles-ci bougent, mais elles vont pouvoir interagir via l’onde se propageant à la surface de l’eau. Une vidéo vaut mieux qu’un long discours :

(Vidéo en Supplément de Dynamical phenomena:  Walking and orbiting droplets, Y. Couder, S. Protière, E. Fort & A. Boudaoud, Nature 437, 208(8 September 2005); on notera la différence de moyens entre les télés américaines et les labos français)

Les choses vraiment amusantes et dérangeantes peuvent alors commencer : étant donné ce système dual onde-particule, déterministe et macroscopique, sa physique ressemble-t-elle à la physique quantique ?

A ce jour, Couder et son équipe ont essayé plusieurs expériences, et de façon assez fascinante ont réussi à reproduire plusieurs effets quantiques. Toutes ces expériences reposent sur l’interaction du système goutte/onde avec l’équivalent macroscopique d’un mur, en l’occurrence ici une zone où on empêche la goutte de se propager par rebond (en modifiant la profondeur locale du bassin). Les effets suivants ont été observés : Couder et Fort ont reproduit avec leur système les figures de diffraction de la très fameuse expérience de fentes d’Young expliquée ci-dessous :

Cliquer ici pour voir la vidéo.

Feynman a dit un jour que cette expérience est un “phénomène impossible, absolument impossible, à expliquer de façon classique et qui est au fondement même de la mécanique quantique”. On peut donc affirmer aujourd’hui que Feynman avait tort sur le premier point. L’expérience de Couder explique le paradoxe quantique suivant : on peut envoyer une seule goutte qui passe par une seule fente tout en ayant des interférences sur l’écran.

Comment ? L’idée est que l’onde porteuse qui guide la goutte rebondissante par une fente va interférer avec son homologue passant par l’autre fente , du coup, elle va guider et localiser in fine la goutte sur une seule bande d’interférence constructive de l’onde. Ce qui est très impressionant est que cette expérience de Couder et Fort reproduit exactement, de façon tout à fait classique, l’expérience montrée par Dr Quantum ci-dessus : on envoie une à une des gouttes (comme Dr Quantum envoie des électrons) et la statistique des trajectoires individuelles des gouttes sur le long terme reproduit la figure de diffraction des ondes ! L’aspect probabiliste sur les trajectoires dans ce système classique vient quant à lui vraisemblablement d’une dynamique chaotique au moment où la goutte passe par la fente. Inutile d’invoquer un changement de nature de la goutte qui se dédouble en multivers quand elle passe les fentes !

Interférences dans les statistiques de position de la goutte dans l'expérience de Fort-Couder

Interférences dans l'expérience quantique des fentes d'Young

Une goutte peut “traverser” un mur par l’équivalent macroscopique d’un effet tunnel - cet effet de mécanique quantique qui fait qu’une particule peut jouer les passe-murailles :

Last but not least, modulo une jolie analogie entre champ magnétique et vecteur rotation, une quantification est observable dans ce système : des “marcheurs” placés dans une bassine tournante sur elle-même ne peuvent aller n’importe où et se localisent précisément à certaines distances du centre, tout comme les niveaux d’énergie d’une particule quantique sont eux-mêmes discrets.

Quantification des localisations de la goutte (panneau de droite)

La plupart des effets “quantiques” reposent donc sur une interaction très forte entre la goutte et l’onde qui la guide. Comme l’explique Yves Couder lui-même :

Ce système où une particule est guidée par une onde se distingue des modèles théoriques d’ondes pilotes par le fait que tous les points récemment visités par le marcheur restent des sources d’ondes. La structure du champ d’onde forme donc une “mémoire” du chemin antérieur parcouru par la goutte.

Cette notion de mémoire de chemin est l’effet crucial, non local, nouveau par rapport à la théorie de De Broglie-Bohm, qui explique tous les comportements quantiques. Du coup, on peut se demander si ces expériences ne constituent pas les prémisses d’une révolution conceptuelle dans la mécanique quantique, car loin de simplement reproduire les résultats bien connus du monde quantique, elles suggèrent des nouvelles pistes de réflexions, des concepts, voire des expériences permettant de mieux appréhender l’infiniment petit.

Peut-être que le monde quantique sera in fine différent de cette image simple, mais les leçons épistémologique de cette série d’expériences n’en sont pas moins vertigineuses. D’abord, elles rappellent l’importance cruciale de la réalité expérimentale, trop souvent oubliée par les théoriciens. La nature sera toujours plus intelligente que nous. Ensuite, elles mettent en exergue le danger potentiel de trop se focaliser sur le formalisme, certes puissant, certes efficace, mais qui peut amener à occulter en partie la réalité même.

Extrapolons : imaginons que ces expériences aient quoi que ce soit à voir avec le monde quantique, on peut alors dire adieu au principe d’incertitude d’Heisenberg par exemple. Que penser alors de nombreuses “philosophies” développées autour de ce principe ? Enfin, il est fascinant de voir que cette physique des gouttes rebondissantes est un phénomène complexe, multi-échelle, avec mémoire, un phénomène typiquement émergent en somme. Se pourrait-il que la physique quantique, théorie phare du XXième siècle, échoue en définitive à donner une vision simple de la réalité par excès de réductionnisme ?

Post-Scriptum :
tout cela pose également des questions sur l’enseignement de la physique. J’avais déjà déploré dans un billet précédent l’accent mis sur la physique quantique au détriment de la physique classique des systèmes complexes, cette série d’expériences montre bien l’absurdité de la chose (et oui, moi je veux la peau de Sheldon Cooper).

Bêtisier : en rédigeant ce billet, je suis tombé sur un communiqué du CNRS de 2005 parlant de ces expériences. Pour le CNRS, donc :

Ce genre d’étude est relié aux applications industrielles qui font intervenir des gouttes, par exemple les imprimantes à jet d’encre.

On parle ici de révolution scientifique potentielle, de changement profond de notre connaissance du monde, et le CNRS parle imprimante à jet d’encre. C’est digne du petit jeu auquel on jouait dans ce billet et en commentaires.

Références

Couder Y, Protière S, Fort E, Boudaoud A (2005) Dynamical phenomena: Walking and orbiting droplets. Nature 437:208.

Couder Y, Fort E (2006) Single-particle diffraction and interference at a macroscopic scale. Phys Rev Lett 97:154101-1–154101-4.

Eddi A, Fort E, Moisy F, Couder Y (2009) Unpredictable tunneling of a classical wave-particle association. Phys Rev Lett 102:240401-1–240401-4.

Bush JW (2010) Quantum mechanics writ large Proc. Natl. Acad. Sci. USA 2010 107 (41) 17455-17456


Article initialement publié sur Matières Vivantes sous le nom “La nature de la réalité”.

Photos Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par zedamnabil

]]>
http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/feed/ 33
Comment jouer avec de l’eau liquide à -15°: la surfusion http://owni.fr/2011/05/10/comment-jouer-avec-de-leau-liquide-a-15%c2%b0-la-surfusion/ http://owni.fr/2011/05/10/comment-jouer-avec-de-leau-liquide-a-15%c2%b0-la-surfusion/#comments Tue, 10 May 2011 14:19:14 +0000 Science étonnante http://owni.fr/?p=34794 C’est bien connu, l’eau gèle à 0°C. Ce sont les lois de la thermodynamique qui nous le disent. Et la thermodynamique, c’est une science sérieuse !

Et pourtant dans certains cas, la nature a des réticences à suivre les lois de la thermodynamique : avec quelques précautions, il est ainsi possible de refroidir de l’eau à des températures inférieures à 0°C, sans qu’elle gèle !

Surfusion et solidification

Pour réaliser cet exploit, il faut refroidir l’eau très précautionneusement, par exemple dans un extérieur calme ou un congélateur bien isolé des vibrations. Si vous avez de la chance et du doigté, vous pourrez obtenir de l’eau liquide à -15°C ! C’est ce qu’on appelle l’état de surfusion.

L’explication réside dans le fait que même en dessous de 0°C, la réaction de congélation de l’eau ne se déclenche pas spontanément : elle a besoin d’une perturbation pour démarrer. Cette perturbation peut être une vibration, une impureté, un choc, etc.

En revanche, comme nous allons le voir, dès que la solidification a pu démarrer quelque part dans le liquide, elle se comporte comme une réaction en chaîne et se propage rapidement dans tout le volume d’eau disponible.

Rien ne vaut une belle vidéo pour illustrer ça. Youtube en regorge alors ne nous privons pas. Sur celle-ci l’expérimentateur (qui a oublié sa blouse blanche) possède une bouteille d’eau liquide qui a été refroidie en dessous de 0°C.

Cliquer ici pour voir la vidéo.

Comme vous avez pu le voir, ça n’est que quand l’eau de la bouteille touche les glaçons qu’elle se solidifie. La solidification n’est pas instantanée, mais elle est assez rapide ! Les glaçons du verre jouent ici le rôle d’amorceur de la réaction en chaîne. Mais en secouant la bouteille ou en la tapant contre la table, on aurait obtenu le même phénomène.

Stabilité et métastabilité

Pour expliquer ce comportement bizarre, il faut savoir que quand on affirme que l’eau est solide en dessous de 0°C, on ne décrit pas vraiment l’état dans lequel se trouve l’eau, mais l’état dans lequel elle devrait se trouver. Encore faut-il que le processus de transition vers cet état puisse se dérouler ! Et comme nous l’avons vu, pour se dérouler il lui faut commencer avec une petite perturbation.

Pour comprendre cette situation, prenons une analogie mécanique. Si vous placez une boule sur la pente d’une vallée,  elle sera dans une position instable et elle va descendre dans le creux de la vallée, qui est sa position stable.

Mais si la pente est rugueuse ou avec un creux intermédiaire, il se peut que notre boule reste coincée ailleurs que dans le fond. On parle alors de position métastable. Il faudra à notre boule une petite perturbation pour se sortir de cette position et rejoindre le fond de la vallée.

L’eau se comporte de manière analogue. Au-dessus de 0°C, l’état liquide est stable et si je perturbe mon eau, rien ne se produit. Quand je la refroidis en dessous de 0°C, l’eau surfondue devient métastable : elle peut demeurer ainsi quelques temps (comme la boule dans le creux intermédiaire), mais dès qu’une perturbation suffisante est appliquée, l’eau est ramenée dans son état stable : la glace.

Différents types de perturbations

Plusieurs types de perturbations peuvent être utilisées pour faire démarrer la solidification de l’eau surfondue. Le contact avec un glaçon représente la perturbation idéale, car il constitue alors une amorce de la réaction en chaîne, en formant un germe autour duquel la solidification peut se produire.

Un cas très spectaculaire est illustré dans la vidéo ci-dessous : l’eau se solidifie dès qu’elle touche la glace dans le bol.

Cliquer ici pour voir la vidéo.

La perturbation la plus courante est la vibration. Comme votre congélateur vibre un peu, c’est cela qui fait que vous ne récupérez jamais de l’eau surfondue dans votre bac à glaçons. Le choc est également un bon déclencheur. C’est lui qui est à l’origine de certaines pluies verglaçantes, quand des gouttes d’eau de pluie surfondue impactent le sol et se solidifient.

Le déclenchement par choc est également un des principes des chaufferettes à main. Elles contiennent un liquide surfondu (de l’acétate de sodium) qui se met à cristalliser en cas de choc. La réaction de cristallisation est exothermique, ce qui réchauffe nos mains !

Enfin autre perturbation utilisable : la détente d’un gaz dissous dans le liquide. En d’autres termes : prenez une bière, mettez là au congélateur quelques heures (attention, sans vibrations !) et ouvrez la délicatement. A l’ouverture, le CO2 dissous dans la bière se met à dégazer, et cela déclenche la solidification de votre bière en surfusion. Supercool en soirée !

Pour les furieux : le petit creux qui fait que l’état liquide est métastable signifie qu’il y a une barrière énergétique à passer pour rejoindre l’état solide. Cette barrière est due au fait que la nucléation d’une phase solide dans la phase liquide est coûteuse en terme d’énergie de surface de l’interface solide-liquide. Mais dès qu’un noyau assez grand a pu se former, ce coût de surface devient faible devant le gain en volume dû à l’énergie de fusion : la réaction en chaîne démarre. Mais le phénomène est encore mal compris, et il y a de récentes recherches sympathiques sur le sujet.


>> Article initialement publié sur Science étonnante un blog de C@fé des sciences

>> Photo FlickR CC Paternité Nico Nelson

]]>
http://owni.fr/2011/05/10/comment-jouer-avec-de-leau-liquide-a-15%c2%b0-la-surfusion/feed/ 5
La spirale du y?n-yáng décryptée http://owni.fr/2011/05/03/la-spirale-du-yin-yang-decryptee/ http://owni.fr/2011/05/03/la-spirale-du-yin-yang-decryptee/#comments Tue, 03 May 2011 07:51:44 +0000 El Jj http://owni.fr/?p=34733 YY_Fermat

Le tàijí tú : symbole de la dualité y?n-yáng

A quoi ressemble exactement la frontière entre le bien et le mal ? Qu’est ce qui sépare fondamentalement le froid du chaud ? Comment distinguer le sombre de la clarté ? Seuls trois mathématiciens chevronnés pouvaient s’attaquer à la résolution de ces mystères. Leur réponse est sans appel : c’est la spirale de Fermat !

Les taoïstes me contrediront sûrement, mais le yin et le yang, c’est ce qui décrit comment les forces contraires de la nature sont interconnectées et interdépendantes. Elles apparaissent dans les écrits de Lao Tseu, au chapitre 42 du Tao Tö King. Sans doute par goût esthétique, Zhu Xi a popularisé le Taijitu, la représentation graphique bien connue du yin et du yang.

Oui, mais… Comment représenter au mieux ce Taijitu ? Quelle est la courbe qui sépare au mieux le yin du yang ? C’est la question que se sont posée Taras Banakh, Oleg Verbitsky et Yaroslav Vorobets (deux mathématiciens Ukrainiens et un Américain), avant de trouver une réponse en 2009.

YYs

Qui sera le meilleur yin-yang ?

Mais de quoi on parle ?

Il s’agit donc de trouver une courbe ? (la courbe qui ressemble à un S) qui sépare le yin du yang de la manière la plus harmonieuse possible. Que doit-on attendre d’elle ? Les trois mathématiciens proposent 6 hypothèses, mêlant des arguments esthétiques et philosophiques.

A1 : ? sépare D en deux parties identiques, D étant un disque d’aire 1 (ie., de rayon 1/??)
Il ne faudrait quand même pas que le yin soit plus fort que le yang !

A2 : ? traverse tout cercle concentrique à D exactement deux fois
Là, c’est par soucis d’esthétisme (ce qui oblige, au passage, ? à passer par le centre du disque).

A3 : Tout rayon de D coupe ? exactement une fois (ou 2, si on compte le centre)
C’est une hypothèse un peu plus discutable, mais c’est philosophiquement intéressant : tout rayon a une partie yin et une partie yang.

A5 : ? est une courbe lisse
Déjà, parce que c’est plus joli comme ça, et surtout, ça évite tout un tas de cas dégénérés (Et personne ne voudrait d’un Taijitu dégénéré).

A6 : ? possède des coordonnées polaires algébriques
Qui voudrait d’une frontière irrationnelle entre le yin et le yang ? L’équation de la courbe ne devra faire intervenir que des polynômes.

Avec ces 5 hypothèses, tout une famille de courbes se dégage : les spirales. Mais laquelle choisir : D’Archimède ? De Fermat ? D’or ? Logarithmique ?

L’hypothèse de la symétrie

Il faut donc une dernière hypothèse, assurant un équilibre entre symétrie et asymétrie.

A4 : ? sépare D en deux ensembles parfaits
C’est la moindre des choses que le yin et le yang soient parfaits…

On va appeler “symétrique” un sous-ensemble B du disque qui est sa propre image par une symétrie d’axe un diamètre du disque. On peut “symétriser” un ensemble quelconque en prenant son intersection avec son image.

YYsymetries
L’ensemble délimité par la courbe rouge est symétrique (dans le sens de l’article), contrairement à celui délimité par la courbe verte.
En intersectant l’ellipse bleu clair avec son image, on trouve un sous-ensemble (bleu foncé) symétrique.

On dit alors qu’un sous-ensemble A de D est parfait si son aire vaut 1/2 et que tout sous-ensemble symétrique de A a une aire d’au plus 1/4.

Non seulement, il existe des ensembles parfaits (c’est la moindre des choses), mais surtout, cette propriété possède un corollaire particulièrement intéressant : l’intersection entre un ensemble parfait et son symétrique par rapport à une droite a une aire valant toujours 1/4 (l’aire du symétrisé vaut la moitié de celle de l’ensemble parfait).

YYparfait
L’ensemble en rouge est parfait : l’aire de son sous-ensemble symétrisé (en violet) par rapport au diamètre vertical vaut la moitié de l’ensemble rouge. Un applet est disponible là-bas, pour faire tourner le diamètre.

L’hypothèse prend donc tout son sens : en demandant au yin (resp. le yang) d’être un ensemble parfait, on demande lui demande de posséder une dualité parfaite symétrie/asymétrie, et ce, dans tous les sens possibles. On ne peut pas mettre plus de dualité !

La courbe du Taijitu est donc…

La spirale de Fermat, d’équation polaire ?²r²=? ! ou, d’équation cartésienne [±?(t/?²).cos(t), ±?(t/?²).sin(t)]. Et c’est la seule courbe (à une rotation près) qui vérifie les 6 hypothèses. Telle est la conclusion Banakh, Verbitsky et Vorobets.

YYspiraleFermat
La spirale de Fermat. En prenant un cercle plus ou moins grand, on trouve plusieurs types de Taijitu.

Le coefficient ?², c’est juste pour respecter l’hypothèse A3. En modifiant ce coefficient, on peut faire spiraler plus ou moins le Taijitu, et, par exemple, faire en sorte que chaque rayon coupe ? exactement deux fois.

Et en vrai ?

Le symbole du yin-yang apparaît dans le drapeau sud-coréen, et donc, a déjà été normalisé. Plutôt qu’une spirale de Fermat, le choix s’est porté sur deux demi-cercles de rayon 1/2. Au moins, la courbe et le bord du cercle sont tangents.

YYcds
Les dimensions normalisées du drapeau de la Corée du Sud.

En remontant dans l’histoire des drapeaux du pays, on retrouve celui de 1882, featuring… une spirale de Fermat !

YYcds1882
L’ancien drapeau de la Corée du Sud


Sources :
Le Yin et le Yang sur Images des mathématiques, article duquel je me suis (très) grandement inspiré.
Fermat’s spiral and the line between Yin and Yang, l’article original de Banakh, Verbitsky et Vorobets.

>> Photo FlickR CC AttributionNoncommercialNo Derivative Works Laurence & Annie

>> Article initialement publié sur Choux Romanesco, vache qui rit et intégrales curvilignes , un blog de C@fé des sciences

]]>
http://owni.fr/2011/05/03/la-spirale-du-yin-yang-decryptee/feed/ 2
Jeunes artistes : laissez-les chanter http://owni.fr/2011/04/29/festivals-les-jeunes-a-la-remorque-festivals-musique/ http://owni.fr/2011/04/29/festivals-les-jeunes-a-la-remorque-festivals-musique/#comments Fri, 29 Apr 2011 16:13:09 +0000 Claire Berthelemy http://owni.fr/?p=60049 Shaka Ponk, Yodelice, Lavilliers, Louis Chedid, Catherine Ringer, Keren Ann, Archive, BB Brune, AaRON, Katerine… tous vont se partager les scènes des différents festivals cette année. Leur notoriété semble plus importante que la découverte de jeunes pousses. Pourtant, les faire jouer coûte cher. Plus cher que de nouveaux talents.
Les tourneurs, qui organisent les tournées de ces artistes, expliquent cet état de fait par la notoriété du chanteur ou du groupe, qui permet le plus souvent aux programmateurs de rentrer dans leurs frais.

Aux Francofolies de la Rochelle, le ratio découverte/tête d’affiche est sensiblement le même chaque année: 15 pour 40. Les Premières Scènes Franco sont des scènes découvertes. Au nombre de douze environ cette année, ce sont des jeunes qui sortent du Chantier des Francos, inconnus du grand public. Du côté du festival, on affirme que :

Certains débutent dans le milieu et d’autres un peu moins mais, en général, il faut être curieux pour déjà les connaître ou les avoir entendus.

Entre la norme et la réalité parfois, il y a comme un grand écart. Au programme de cette édition 2011 des Francofolies, les Twin-Twin, qui bénéficient d’une certaine exposition, sont par exemple classés “découverte”. Mais aussi Mélanie Laurent, Zaz ou Ours, les deux derniers étant pour les programmateurs de “jeunes talents”, découverts l’an dernier au cours du festival. Le pari de lancer quelques jeunes talents semble dans ce cas réussi.

Et les retours sur investissement largement supérieurs à ceux escomptés. Sur les 130 concerts cette année, les artistes de la grande scène – ceux qui remplissent les salles le restant de l’année – vont jouer sur cinq scènes différentes par soir pendant quatre soirées. Pour le 14 juillet, ces privilégiés seront au nombre de six. Soit environ 26 chanteurs et/ou groupes mis en concurrence avec ces jeunes inconnus “à connaître”. Sans compter quelques artistes déjà plutôt médiatisés sur les quatre autres scènes. La programmation compte en effet plus de 40 chanteurs ou groupes dont la renommée est déjà faite et une quinzaine de véritables découvertes.

Money Money Money, must be funny

Parmi les artistes confirmés, les plateaux (salaires, cachet de l’artiste et les frais de route entre autres) sont élevés, sans que les artistes gagnent forcément des sommes pharamineuses. Un tourneur explique qu’avec un plateau évalué à 15.000 euros, il revient en moyenne 2.000 euros à l’artiste. Rien à voir avec le cachet que touche un débutant. Les prix de plateaux demandés par les tourneurs aux programmateurs de festivals sont “gonflés”. Sur l’ensemble des personnes contactées par OWNI, aucune ne donnera de montant précis: point de transparence pour les “grands” artistes.

Izia aux Solidays 2010

La raison principalement invoquée repose avant tout sur l’argument selon lequel“personne ne sait combien l’artiste touche pour un concert de tournée classique”. La négociation se joue alors sur le nombre de spectateurs potentiels. En effet, l’artiste se produisant en festival devant plusieurs milliers de personnes demandera à toucher plus qu’au cours des concerts du reste de l’année, ayant lieu le plus souvent dans des salles pouvant contenir beaucoup moins de spectateurs.

Come on, die young

Pour un jeune talent, le festival d’été est souvent le meilleur moyen de toucher beaucoup de monde d’un seul coup et, parfois, de lancer ainsi sa carrière. Le parcours des festivaliers en goguette permet souvent d’attirer l’attention de certains vers la scène découverte. Quitte ou double pour l’artiste en question. Son tourneur négocie sa présence le plus souvent en démarchant et en présentant son poulain. En amont des festivals, c’est lui qui invite les organisateurs aux dates de son artiste, qui envoie des mails et serre des mains lors des soirées, et ce bien longtemps avant la date d’ouverture des festivals. Parce qu’il y croit, il n’a pas forcément à l’esprit la rentabilité. Un booker – terme anglais désignant un tourneur – explique qu’il est “obligé de prendre 15 % mais que sa marge n’est pas vraiment très élevée”.

Prenant l’exemple d’un artiste – qu’il ne souhaite pas citer -, il estime qu’il “coûte” 2.500 euros au total. Pour une date de quatre musiciens dont un chanteur, et deux techniciens (un ingénieur du son et un régisseur), il propose à l’organisateur du festival un prix de plateau. Dans ce prix de plateau sont compris les salaires, le cachet de l’artiste et les frais annexes. Le tourneur explique que :

Parfois, tu es au delà de ce que tu vas pouvoir récupérer sur la date en elle-même puisque tu vas peut-être dépenser plus que ce que ça va te rapporter. C’est juste une indication pour l’organisateur du festival.

Ces 2.500 euros tiennent compte des 170 euros brut du cachet de l’artiste (environ 80 euros net). Un technicien lui “coûte” 100 euros net soit environ 210 en incluant les charges salariales. On arrive selon lui à près de 1.000 euros de masse salariale. Si on ajoute l’ensemble des frais liés à la logistique (location du camion, péage, nourriture), le pari de la jeune découverte l’endette – à court terme – de 2.000 euros.

Un pari risqué, donc. Se tourner vers les artistes côtés et reconnus représente l’assurance de ne pas perdre trop pour le tourneur et les programmateurs. S’investir pour faire découvrir un artiste se joue en amont du festival et implique un plan marketing visiblement plus complexe que pour une tête d’affiche. Il s’agit d’insister, de procéder avec méthode en partant du petit concert du coin au festival régional et enfin, à la gloire. Les festivals sont toujours vus comme des tremplins, l’idée étant pour les promoteurs de gérer le développement de leur artiste sur le long terme, pas de rentrer dans leurs frais dès le départ.

Mais entre les dépenses engendrées et l’assurance de pouvoir placer un artiste dont on sait qu’il va remplir l’espace ou le carré d’herbe devant la scène, le choix est fait. Celui de faire venir la foule. Et ce même si l’artiste plébiscité peut coûter cinq à dix fois plus cher que la jeune pousse enthousiaste.

> Illustrations Flickr CC J0k, Shugga

> Retrouver nos articles dans le dossier Festival : C’était mieux avant ?et Festivals cherchent finances

Image de Une Mick ㋡rlosky

]]>
http://owni.fr/2011/04/29/festivals-les-jeunes-a-la-remorque-festivals-musique/feed/ 4
Quand le web tue la frustration http://owni.fr/2011/04/19/quand-le-web-tue-la-frustration/ http://owni.fr/2011/04/19/quand-le-web-tue-la-frustration/#comments Tue, 19 Apr 2011 07:41:10 +0000 xochipilli http://owni.fr/?p=34580 Nos processus non conscients font l’essentiel du boulot -décider, bouger, ressentir, percevoir, juger, croire etc. Notre conscience planifie en amont et refait l’histoire après coup, mais sur le moment elle se contente de résister aux mille et une tentations qui s’offrent à chaque instant. Mais comment fait-elle ?

La récente crise américaine a montré à quel point nous résistons difficilement aux tentations de la consommation à crédit. La nature ne nous a pas dotés d’un système mental spontanément capable de refuser des gratifications immédiates -s’acheter une maison, consommer des sucreries ou fumer une cigarette- au nom des conséquences futures, financières, médicales ou autres. Il faut croire que ce genre de stoïcisme n’avait pas une grande utilité adaptative pour les premiers hominidés, trop heureux de manger tout ce qui leur tombait sous la main.

A défaut de l’inné, c’est donc grâce à l’apprentissage qu’il a fallu acquérir ce self-control.
Comme l’explique Antonio Damasio :

l’insuffisante éducation de nos processus non conscients explique par exemple pourquoi nous sommes si nombreux à ne pas réussir à effectuer ce que nous sommes censés faire en matière de régime alimentaire et d’exercice physique. Nous pensons que nous avons le contrôle mais ce n’est pas souvent le cas, les épidémies d’obésité, d’hypertension et de maladies cardio-vasculaires le montrent bien. Notre biologie nous incite à consommer ce que nous ne devrions pas, tout comme les traditions culturelles qui en proviennent et ont été façonnées par elle, ce qu’exploite la publicité. N’y voyons pas un complot. C’est naturel. Peut-être est-ce justement le lieu d’apprendre à se doter d’habiletés érigées en rituels.

Cette dernière phrase m’a donné à réfléchir. C’est vrai que les rites civils ou religieux ont en commun de toujours mélanger contraintes (une date et un rituel précis, un cadre vestimentaire particulier), plaisirs (un bon repas, un moment agréable) et frustrations (jeûne, interdits alimentaires ou horaires à respecter). Les rites participeraient-ils ainsi à notre apprentissage social de résistance à la tentation?

Trois exemples culturels où la frustration est un plaisir

Et si, plus généralement, l’art et la culture participaient de cet apprentissage grâce à leur part de “frustration plaisante” ? En y réfléchissant l’idée tient peut-être la route. Je vous ai parlé de la dopamine qui nous procure une délicieuse giclée de plaisir quand on résout une grille de Sudoku. En réalité, cette fameuse dopamine commence son travail au moment même où nous nous attaquons au problème. Le seul fait d’anticiper le plaisir de trouver nous fait déjà plaisir. Vous avouerez que c’est quand même un peu strange comme comportement. Ca me rappelle l’histoire du fou qui trimballe une énorme valise bourrée de trucs inutiles, juste pour le plaisir d’être soulagé quand il la pose par terre. C’est pourtant exactement ce qui se passe: on finit par prendre plaisir dans le seul fait de chercher la solution. Plus c’est difficile, meilleur c’est ! La frustration fait apparemment partie intégrante du plaisir du cruciverbiste.

Même mécanisme pour la sexualité, ou plus exactement pour l’érotisme qui en est la construction culturelle. Ben oui ! Qu’est-ce que l’érotisme si ce n’est l’art de dérober l’objet du désir en même temps qu’on le dévoile ? Comme pour les mots croisés, notre acculturation est telle qu’un déshabillé sexy nous fait bien plus d’effet qu’une nudité complète. Ici encore, le comble du raffinement sexuel passe par une subtile dose de frustration.

Troisième exemple : le plaisir musical dont je vous ai parlé dans ce billet. Dans un morceau de musique, une des manières classiques de créer l’émotion consiste à attirer l’oreille vers une conclusion qui se dérobe au dernier moment. En jazz, c’est flagrant. Tout l’art du solo consiste à différer la résolution d’une improvisation. Lorsqu’enfin le musicien conclut en revenant à la tonique, les applaudissements ressemblent à une forme de libération des auditeurs, après une longue attente. Même chose en littérature: qu’est-ce que Shakespeare nous aurait raconté si Hamlet avait tué son oncle dès le premier acte, des blagues Carambar ? Par définition, la construction littéraire consiste à retarder le plus longtemps possible un dénouement attendu. Une vraie histoire de sado-maso je vous dis ! Pour apprécier, le public doit être (légèrement) frustré dans ses attentes.

Internet : anti-frustration ou zapping permanent ?

Si les rituels et la culture traditionnelle semblent bien nous aider dans cette voie, la technologie fait exactement l’inverse : sa raison d’être est de nous simplifier la vie, de supprimer les contraintes et nous faire gagner du temps. Au lieu de nous habituer à tolérer une certaine frustration de nos envies, l’idéal technologique se trouve quelque part du côté de la disponibilité permanente, de l’instantanéité et de la gratuité. Avec la révolution numérique l’impatience a repris ses droits sur notre cerveau, que ce soit pour communiquer, suivre l’actualité ou trouver une info n’importe où, n’importe quand. Dans un fameux article de 2008 (Is Google making us stupid?), Nicholas Carr s’inquiète de l’impact d’un tel bouleversement sur nos habitudes mentales. Il est si gratifiant de cliquer sur un lien hypertexte pour obtenir une réponse, que l’on finit par ne plus lire autrement qu’en butinant superficiellement l’internet de site en site. L’internet a bouleversé nos habitudes de lecture au point que Nicholas Carr s’avoue incapable de lire un livre entier. Et il s’effare de voir sa capacité de concentration dégringoler dans un environnement saturé de sollicitations. Je ne sais pas vous, mais perso je ne rêvasse plus trop en attendant le métro, tant il est tentant de jouer avec mon smartphone. Comblés par les écrans interactifs, nous en deviendrions accros, comme ces rats de laboratoires qui s’administrent de la dopamine directement dans le cerveau en appuyant frénétiquement sur un levier.

Et c’est vrai qu’on considère souvent la génération Y – celle qui est née avec un écran dans les mains – comme incapable de rester longtemps concentrée sur une seule tâche (sauf un jeu vidéo bien entendu) tant elle a été biberonnée au zapping permanent. En revanche, ils ont développé une étonnante habitude de faire plusieurs choses en même temps, tchattant sur plusieurs conversations à la fois, tout en regardant la télé et en consultant Facebook. A défaut de patience, auraient-ils acquis le don du multitasking? Un tel recâblage neuronal serait d’autant plus surprenant que le cerveau humain est réputé ne pouvoir accorder son attention qu’à une seule chose à la fois.

Le mythe du multitasking

Pour essayer de comprendre comment ces jeunes geeks engrangent l’information et la mémorisent, des chercheurs de Stanford ont comparé leur performances cognitives avec celles d’individus un peu moins branchés. Dans une première tâche (celle de gauche ci-dessous) on leur présentait successivement deux images avec deux rectangles rouges entourés de plusieurs rectangles bleus. Les participants devaient ignorer les rectangles bleus et indiquer simplement si les deux rectangles rouges avaient changé de position entre les deux images. Lorsqu’il y a peu de rectangles bleus parasites, les geeks (HMM dans le graphique) sont aussi doués que les autres (LMM) mais leur performance s’écroule dès qu’il y en a beaucoup. Comme s’ils étaient incapables de ne pas prêter attention à ces motifs de distraction.

Source : Cognitive Control in Media Multitaskers [Pdf]

Que les geeks aient du mal à ne pas se laisser distraire, voilà qui ne surprendra personne. Les chercheurs se sont donc demandés s’ils avaient une meilleure mémoire de travail que les autres. On pourrait en effet imaginer que le multitasking requiert une bonne capacité mémoire pour pouvoir garder le fil de tout ce que l’on fait simultanément. Malheureusement les geeks multitâches s’avèrent moins bons que les autres à repérer les répétitions parmi une séquence de lettres qu’on leur présente (figure de droite). Ils s’emmêlent les pédales lorsque cette répétition est éloignée dans le temps et voient des répétitions là où il n’y en a pas (modalité “3-back” sur le graphe).

Bref, c’est le bazar dans leur tête. Les geeks sont-ils, au moins, doués pour passer rapidement d’une tâche à l’autre ? Même pas : lorsqu’on leur présente une combinaison d’une lettre et d’un nombre (2B par exemple) en leur demandant juste avant de classer soit le nombre (pair/impair) soit la lettre (voyelle/console), ils réagissent plus lentement et font plus d’erreurs que les autres, sans doute car ils ont du mal à s’abstraire de l’information parasite. Pour les chercheurs de Stanford, ils ont tellement l’habitude d’être attentifs à tout ce qui se présente à l’écran qu’ils ont du mal à prioriser la pertinence des alertes. Ils seraient du coup plus sensibles aux distractions (ce que confirme cette autre étude) et auraient plus de mal à focaliser leur attention uniquement sur ce qui a de l’importance.

Après des siècles de pratiques rituelles et culturelles passés à apprivoiser le sentiment de frustration, l’internet (et la pub) seraient-ils en train de saper notre fragile capacité de concentration et de résistance à la tentation ? Bon, si c’est ça, j’éteins mon ordi et je sors profiter du printemps. Sans mon portable !

Sources
Antonio Damasio, L’autre Moi-même
Science&Vie Junior (avril 2011) : un excellent article sur la manière dont internet reformate notre cerveau

Billets connexes
Synapses en do majeur (3): qui explique comment nos émotions musicales naissent de la légère violation de nos attentes.
Non-sens interdit (2) sur les délicieux effets de la  dopamine.
La tête ailleurs, sur la difficulté à résister à la tentation et à focaliser son attention sur plusieurs choses en même temps.

>> Article initialement publié sur le Webinet.

>> Photo Flickr CC PaternitéPas de modification par ryantron et AttributionNoncommercialNo Derivative Works Amaury Henderick

]]>
http://owni.fr/2011/04/19/quand-le-web-tue-la-frustration/feed/ 7
La mort au trou http://owni.fr/2011/04/18/la-mort-au-trou-noir/ http://owni.fr/2011/04/18/la-mort-au-trou-noir/#comments Mon, 18 Apr 2011 14:55:55 +0000 Phil Plait http://owni.fr/?p=34590 J’ai récemment écrit sur un événement époustouflant : des astronomes capturant ce qui semble être les derniers moments de vie d’une étoile, alors qu’elle était littéralement déchiquetée par un trou noir.

La Nasa a récemment publié de nouvelles photos de l’événement, notamment capturées par le télescope Hubble.

Je sais, ça ne semble pas grand chose au premier coup d’œil. Mais rappelez-vous: vous êtes en train de regarder la mort violente d’une étoile, déchirée par la gravité d’un trou noir… et qui se déroule à 3,8 milliards d’années-lumières de là ! Soit à peu près 40,000,000,000,000,000,000,000 kilomètres; donc le fait de pouvoir le voir dans son intégralité est assez incroyable. Et terrifiant.

Sur l’image en fausse couleur d’Hubble, la galaxie et l’explosion sont signalées. A peu près tout ce que vous voyez sur la photo appartient à une galaxie lointaine, située à un milliard d’années-lumière de plus que le trou noir. Normalement, la galaxie active elle-même serait apparue comme un point, avec au mieux une espèce de nuée autour d’elle, la lueur de milliards d’étoiles étant réduite par l’incroyable distance. Mais la lumière mourante de l’astre a intensifié la lueur de la galaxie de beaucoup. De beaucoup plus.

L’image est une combinaison de lumière visible (blanche), d’ultraviolet (violet) et de rayons-X (jaune et rouge) de l’observatoire Swift de la Nasa, le satellite qui le premier a détecté l’explosion. Alors que les piques n’existent pas en vrai – ils sont juste la cause d’un effet d’optique créé par le télescope -, le cliché n’en évoque pas moins le drame que nous observons.

Et justement, que regardons-nous ?

La luminosité d’un milliard de milliards de Soleils !

Imaginez : ce qui aurait pu être une étoile normale, pas si différente du Soleil, était en orbite autour du centre de cette galaxie lointaine, très proche en réalité de son centre. Au cœur de chaque grosse galaxie repose un monstre: un trou noir supermassif qui pourrait avoir des millions voire des milliards de fois la masse du Soleil. Celui au cœur de cette galaxie sans nom pourrait avoir 500 000 fois la masse solaire.

La gravité d’un tel objet est féroce. Mais il y a pire : la force de la gravité s’affaiblit avec la distance. Cela peut ressembler au bon côté des choses – être plus loin du trou noir signifiant que sa gravité est réduite – mais en réalité, c’est ce qui a provoqué la destruction de cette étoile, car cette chute de puissance peut être très brutale pour un trou noir. Alors que l’étoile approchait de ce puits sans fond, le côté de l’étoile faisant face au tour noir était tiré loin du trou noir. Ce changement d’attraction a étiré l’étoile -cet étirement est appelé “marée” et c’est globalement la même chose qui provoque les marées sur la Terre sous l’effet de la gravité lunaire [ENG]… et quand l’étoile s’est baladée trop près du trou noir, la force de cette attraction est devenu irrésistible, dépassant sa propre gravité interne.

En un flash, l’étoile a été déchirée, et des octillions de tonnes de gaz ionisés ont été éjectés vers l’extérieur ! Cette matière dispersée tout autour du trou noir formant un disque de plasma appelée disque d’accrétion. Des champs magnétiques, frictions et turbulences ont surchauffé le plasma, et ont aussi généré des faisceaux de matière et d’énergie qui ont explosé les pôles du disque, les envoyant loin du trou noir lui-même. L’énergie stockée dans ces faisceaux est incroyable, bien au-delà de notre imagination: pendant un temps, ils auront brillé avec la luminosité d’un milliard de milliards de Soleils !

Au moment où cela s’est produit, le disque formé autour du trou noir nous faisait face, donc l’un de ces faisceaux était plus ou moins directement tourné vers nous. Si nous avions alors été dans cette galaxie, et dans le chemin de ce faisceau, et bien, la Terre aurait filé un mauvais coton. Mais avec une distance de près de quatre milliards d’années-lumière, la flash de lumière était à peine assez brillant pour être vu au travers de gros télescopes.

Et cet événement n’est pas fini. Alors que la matière tournoie autour du trou noir, les turbulences et d’autres forces à l’intérieur du disque forcent la luminosité à changer. Il y a eu plusieurs lueurs, et alors qu’elle s’estompait depuis quelques jours, soudainement le 3 avril dernier la luminosité globale a été multipliée par cinq. Les astronomes continueront donc à observer cet événement spectaculaire pendant quelques temps, certainement jusqu’à ce qu’il s’estompe complètement, hors de la portée de télescopes aussi puissants qu’Hubble.

Au fil des années j’ai étudié certains des événements les plus puissants de l’Univers: des étoiles qui explosent, des déchaînements de rayons gamma, des éruptions de magnétar. Ces souffles cosmiques sont tellement énormes qu’il est impossible de les saisir pleinement avec nos esprits malingres – les comprendre, d’accord, mais réellement les concevoir, non – et il me semble toujours incroyable que certaines choses, là-haut, puissent émettre des quantités d’énergie aussi dévastatrices.

Et je suis très content que cela se passe si loin !


Article initialement publié sur le blog de Discovery Magazine Bad Astronomy, sous le titre “Followup on the star torn apart by a black hole: Hubble picture” traduit par Andréa Fradin

Illustration FlickR CC: AttributionShare Alike thebadastronomer

]]>
http://owni.fr/2011/04/18/la-mort-au-trou-noir/feed/ 3
L’évolution du pénis des mammifères http://owni.fr/2011/04/15/levolution-du-penis-des-mammiferes/ http://owni.fr/2011/04/15/levolution-du-penis-des-mammiferes/#comments Fri, 15 Apr 2011 10:43:31 +0000 vran http://owni.fr/2011/04/15/levolution-du-penis-des-mammiferes/ Chers lecteurs, c’est avec joie que je vous retrouve pour la quatrième et dernière partie de cette série “galerie de membres” consacrée au(x) pénis(ii). Si vous sentez le besoin de vous rafraîchir la mémoire (et après tout ce temps, c’est bien normal), je vous invite à (re)lire les épisodes précédents consacrés respectivement aux arthropodes, sauropsidés et oiseaux chez lesquels nous avions ensemble découvert l’existence d’appendices souvent amusants, parfois terrifiants, mais toujours étonnants. Aussi, pour terminer sur ce sujet, je vous propose une incursion dans un groupe que nous connaissons bien, puisque nous en faisons partie : Les Mammifères.

Profil reproductif, sélection sexuelle et polymorphisme

Comme nous l’avons déjà vu dans les billets précédents, le pénis varie beaucoup en taille, forme et complexité selon les espèces, et les mammifères ne font bien entendu pas exception à la règle. Aussi de nombreuses études se sont attachées à comprendre l’origine de cette étonnante diversité et à identifier des facteurs corrélés avec les caractères génitaux (morphologie de l’animal, environnement etc…). Parmi ceux-ci, les mœurs reproductives occupent une place prépondérante, en particulier dans les cas où les partenaires sexuels sont multiples et pour lesquels on distingues trois profils. Tout d’abord, le profil dispersé correspond à des accouplements occasionnels entre une femelle et quelques mâles isolés vivant dans une zone géographie étendue et se rencontrant par hasard (par exemple chez les araignées).

Le second profil est dit de promiscuité et implique plusieurs mâles et femelles, dans un groupe restreint à la fois socialement et géographiquement (c’est le cas notamment chez certaines espèces d’oiseaux vivants en groupe sur un territoire bien défini). Enfin, le dernier profil est dit de polygynie (littéralement “plusieurs femmes”) et correspond à une organisation sociale de type “mâle dominant” où un seul mâle aura la possibilité de se reproduire avec toutes les femelles du groupe, les autres concurrents étant d’emblée exclus de la compétition, à l’exception des quelques individus rebelles qui copulent dans le dos du patriarche (l’exemple typique est le gorille où les mâles dominants se constituent un harem de femelles qu’il défendront avec véhémence contre les mâles extérieurs). Vous l’aurez deviné, une multitude de stratégies reproductives engendre la sélection de caractères différents et donc une grande diversité morphologique. Sans plus attendre voici donc une petite galerie de portraits sous la ceinture et quelques explications correspondantes (pour agrandir, cliquez sur l’image):

Galerie de membres mammifères. Image : Simmons and Jones, 2007.

Crocs et denticules: A l’instar de la bruche et de son aedeagus épineux, certains penii de mammifères sont bardés de petites pointes kératinisées qui peuvent être utiles à la stimulation de la femelle (chez le chat par exemple, c’est le coït qui déclenche l’ovulation) ou à un ancrage optimal du membre à l’intérieur des voies génitales femelles, le tout n’étant bien sûr pas sans douleur. Plus violents encore, certains penii comme celui du porc-épic sont munis de crochets destinés non seulement à stabiliser la pénétration, mais aussi à blesser les voies génitales femelles lors du retrait pour “décourager” ces dernières d’avoir de nouveaux partenaires et s’assurer ainsi une descendance plus nombreuse (romantisme quand tu nous tiens…).

Organe spiralé: Autre forme, autre technique. Chez le porc, le pénis en “tire-bouchon” (ben oui, après tout, pourquoi se limiter à un côté du bassin quand on peut faire symétrique) présente une certaine élasticité qui lui permet une pénétration profonde et une éjaculation directement dans l’utérus, au plus près des ovules, là encore pour maximiser les chances de paternité.

Extension de l’urètre: Chez le bélier, on observe une sorte de long flagelle qui s’étend au delà du gland. Cette structure originale est en réalité l’urètre, canal destiné à l’évacuation de l’urine. Quel intérêt pour la reproduction? Eh bien lors de l’éjaculation, ce petit appendice membraneux agit comme une spatule et étale la semence du mâle sur le col de l’utérus au gré des mouvements de la bête. Une nouvelle fois, l’avantage réside dans une fertilisation plus efficace.

Verrou gonflable: Autre curiosité chez un animal pourtant très familier, le chien. Les deux protubérances que vous pouvez observer à la base du pénis sur le dessin ne sont pas les testicules mais une structure érectile appelée le bulbus glandis. Il s’agit d’un élargissement du corps caverneux qui augmente de volume à l’intérieur des voies génitales femelles pendant le coït et y coince tout simplement le pénis. Si vous eu l’occasion d’assister à un accouplement canin, vous vous êtes peut être demandé quelle était cette étrange (et probablement douloureuse) chorégraphie qui poussait le mâle à se retourner, dos à la femelle, alors que son membre était encore en place à l’intérieur du vagin (pour plus de détails sur ladite chorégraphie, cliquez ici). Bien que périlleuse et très longue (le couple reste “connecté” entre 5 et 60 minutes), cette manœuvre facilite et prolonge le contact entre le sperme et le col de l’utérus, avec à la clé un grand rendement de fécondation.

Piston: Enfin, le moins drôle de tous, le pénis en piston, partagé par les primates et quelques autres est de forme tout à fait banale, sans protubérances ni forme particulière. Cependant, cette configuration apporte tout de même un avantage, car elle permet de “pomper” la semence des concurrents vers l’extérieur en cas de copulation multiple, un peu à la manière de l’aedeagus écouvillon de la libellule (que ceux qui ont la nausée rien qu’à imaginer qu’on a été sélectionnés pour ça lèvent la main).

La palme de l’originalité: Les Monotrèmes

Une fois n’est pas coutume, c’est dans le groupe des monotrèmes (les “ovipares allaitants” qui se trouvent en position basale dans l’arbre phylogénétique des mammifères) que l’on trouve les caractères les plus étonnants. Mais pour varier un petit peu, cette fois nous ne parlerons pas de l’ornithorynque, mais de son proche cousin, l’échidné à bec court Tachyglossus aculeatus (cliquez sur son nom pour afficher le portrait de la bête).

La particularité de la reproduction des monotrèmes est qu’elle combine des caractéristiques mammifères et reptiliennes. Par exemple, et pour rester centrés sur notre sujet premier, le pénis de l’échidné est destiné exclusivement à l’éjaculation puisque l’animal urine par son cloaque (comme chez les serpents et lézards). Internalisé la majorité du temps, l’organe ne voit le jour que lors de l’érection et peut alors révéler sa forme surprenante. En effet, chez les monotrèmes, ainsi que la plupart des marsupiaux, le pénis est bifide (fourchu).

Mais chez l’échidné, chacune de ses deux partie se divise à nouveau en deux, formant un gland quadruple à l’apparence d’une anémone. A chacune de ses extrémités, l’urètre se termine par une surface percée d’une multitude d’ouvertures (à la manière d’une pomme de douche) destinées à dispenser le sperme. Quatre orifices, c’est beaucoup, d’autant que l’échidné n’en utilise que deux à la fois. Car oui, c’est une autre curiosité (rappelant l’utilisation alternée des hemipenii chez les reptiles), lors de l’érection, deux des 4 extrémités de “l’anémone” se rétractent tandis que les deux restantes entrent en érection. Ainsi, le pénis adopte une forme de fourche à deux extrémités (seulement), parfaitement adaptée à la morphologie du sinus urogenital femelle et délivre efficacement son sperme.

Penii d’échidné à gland quadruple en posture “anémone” (gauche) et fourche bifide (droite). Images : X – Johnston et al.

Conclusion

Ainsi s’achève cette longue série qui je l’espère vous aura appris beaucoup sur l’organe le plus viril du monde animal. Vous pourrez maintenant paraître sérieux et cultivé tout en parlant sexe avec vos amis (attention cependant, l’expérience montre que certaines âmes sensibles sont définitivement réfractaires aux images présentées dans ce petit lot d’articles). Je vous quitte donc (temporairement) en vous souhaitant pour l’occasion du sexe, de la science et du funk bien sûr.

Références:

  • Male Genital Morphology and Function: An evolutionary perspective. M.N.Simmon and J.S. Jones. The Journal of Urology, 2007
  • One sided Ejaculation of Echidna Sperm Bundles. S.D. Johnston et al, 2007.

>> Article publié initialement sur Strange Stuff And Funky Things dans la série Galerie de Membres

>> Photo FlickR CC AttributionNoncommercialNo Derivative Works par kajojak


Retrouvez notre dossier Évolution :


L’image de Une de Loguy en CC pour OWNI

Comment les poissons amphibies ont évolué

Si Jésus Christ est un hippie, Charles Darwin est un punk

]]>
http://owni.fr/2011/04/15/levolution-du-penis-des-mammiferes/feed/ 4
Quand Hal joue à Jeopardy http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/ http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/#comments Tue, 12 Apr 2011 15:07:47 +0000 Duncan http://owni.fr/?p=34531 En février dernier, les amateurs de La roue de la fortune, du Millionnaire et d’Une famille en or ont tremblé : Watson, le superordinateur conçu par IBM avait vaincu les deux champions américains de Jeopardy!. Le combat de l’homme contre la machine franchissait une nouvelle étape. Mais IBM n’en est pas à son coup d’essai. En 1997, il avait conçu l’ordinateur Deep Blue qui avait battu le champion d’échec Gary Kasparov.

Pourtant, curieusement, battre un champion d’échec est plus facile pour une machine que de battre un champion de Jeopardy!. Les principes de résolutions d’un problème d’échec relève de la recherche opérationnelle « relativement »  simple. Les algorithmes utilisés, l’élagage alpha-beta ou l’algorithme Negascout peuvent en effet se résumer en quelques lignes de pseudo-code. Par contre, pour gagner à Jeopardy! la tâche est plus complexe.

Cliquer ici pour voir la vidéo.

Jeopardy! est un jeu de questions/réponses

La réponse est : Qu’est ce que Jeopardy! ?

Jeopardy! est un jeu très populaire aux Etats-Unis qui a eu son heure de gloire en France, avec l’inénarrable Philippe Risoli à la présentation. L’originalité de Jeopardy!  repose sur le fait que la réponse est la question :

Par exemple, le présentateur propose :

  • C’est l’homme le plus classe du monde

Et le candidat doit trouver :

  • Qui est Georges Abitbol ?

Pour être à égalité avec les humains, il a été décidé que Watson ne pourrait se servir que des connaissances stockées dans sa base de données et ne pouvait donc effectuer de recherches sur internet.

Les algorithmes utilisés pour résoudre ce type de problème relèvent donc d’une autre branche du domaine de l’intelligence artificielle que la résolution du jeu d’échec : le natural language processing, qui consiste à analyser correctement le langage humain. L’un des items les plus connus de cette discipline est le fameux test de Turing.

Pour autant, malgré le côté sexy et impressionnant, est-ce-que ce challenge d’IBM est une réelle avancée dans le domaine des intelligences artificielles ? Deux aspects sont à considérer. Pour gagner au Jeopardy!, il faut bien sûr trouver la bonne réponse mais aussi pouvoir répondre avant les autres candidats. Ces deux aspects renvoient à deux questions différentes mais imbriquées.

  • Quels sont les algorithmes utilisés ?
  • Comment ces algorithmes ont été implémentés ?

C’est l’algorithme utilisé par Watson

La réponse est : Qu’est ce que DeepQA ?

D’une manière très très grossière, répondre à une question revient à piocher des mots-clés dans ladite question, puis les mettre en relation par le biais de différents algorithmes pour extraire de la base de données à disposition les informations pertinentes.

Pour parvenir à produire un algorithme convenable, les équipes d’IBM ne sont pas parties de zéro et ont bien évidemment bénéficié de l’état de l’art. Deux outils ont tout d’abord été appliqués au challenge Jeopardy! :

PIQUANT, une première solution de natural language processing développée quelque années auparavant par IBM

OpenEphyra, une autre solution développée par l’Université Carnegie Mellon, en partenariat avec IBM

Toutefois, les performances de ces algorithmes ne satisfaisaient pas aux critères pour gagner. IBM a donc développé un nouvel algorithme : DeepQA

DeepQA est un pipeline modulaire

La réponse est : Quelle est l’architecture de DeepQA ?

A l’image de l’architecture de PIQUANT ou d’OpenEphyra, la clé du succès pour aboutir au résultat escompté est d’avoir conçu DeepQA comme un pipeline complet et modulaire pour y intégrer différents composants. Pour parvenir à cette architecture souple,  le framework Appache UIMA qui intègre ces composants a été utilisé. Il avait été développé quelques années plus tôt par la même équipe.

Le processus de réponse de DeepQA peut alors se décomposer en divers blocs. A chaque étape, des dizaines d’algorithmes différents sont mobilisés. Certains provenant directement de la littérature, certains de PIQUANT ou OpenEphyra, certains ont été améliorés, d’autres ont été imaginés par l’équipe de IBM.

Architecture de DeepQA

En suivant le graphique ci-dessus, le processus de réponse peut être décomposer de la sorte :

  • Analyse de la question (Question analysis) : le système effectue une analyse syntaxique en  extrayant des mots-clés pour déterminer comment la question sera traitée
  • Décomposition de la requête (Query decomposition) : la question est décomposée en sous-problèmes traités séparément
  • Génération d’hypothèses (Hypothetis generation) : le système propose plusieurs réponses possibles en cherchant dans sa base de donnée
  • Filtrage grossier (Soft filtering) : Afin de gérer au mieux les ressources de calcul, un premier tri est effectué pour éliminer les réponses les moins pertinentes
  • Évaluation des hypothèses et des preuves (Hypothesis and evidence scoring) : les réponses candidates restantes sont analysées plus en détail
  • Synthèse finale et classification (Synthesis and Final merging and ranking) : parmi toutes les réponses possibles, le système calcule la confiance accordée à chaque réponse, et classe celles-ci pour obtenir la plus probable
  • Réponse et confiance (Answer and confidence) : la réponse finale est donnée avec un niveau de confiance que le système a calculé

Tout la difficulté a été de gérer ce patchwork d’algorithmes.  C’est pourquoi un gros travail a été accompli pour doter le système d’une métrique mesurant la pertinence des  résultats apportées par les différentes méthodes.

Le code a été porté sur un supercalculateur

La réponse est : Comment la rapidité de Watson a été améliorée ?

La première mouture du code permettait de répondre à une question en 2 heures. Ce qui est bien insuffisant pour vaincre un compétiteur humain. Pour pouvoir répondre en moins de 3 secondes, le code a été porté sur un cluster (IBM bien sûr), regroupement de plusieurs ordinateurs appelés nœuds, travaillant de concert à la résolution du problème.

Le cluster mis à disposition est une belle bête de compétition : 90 noeuds  Power 750 contenant chacun 4 processeurs octo-coeurs de 3.5 GHz ; le tout comportant 2,880 coeurs  et 16 TeraOctet de mémoire RAM pour une puissance théorique de 80 teraflops (soit 80×1012ou 80 millions de  millions d’opérations par seconde).

Lorsque l’on regarde le top500 des ordinateurs les plus puissants au monde, cela le classerait aux alentours de la 110ème place. Cette puissance était d’ailleurs trop importante au regard des besoins. C’est ce qu’affirme Edward Epstein, chef du département « information non structurée » à IBM research, dont dépend le projet Watson. Durant le jeu, Watson n’a utilisé au plus que 30% des processeurs disponibles.

Porter un code sur un supercalculateur et en optimiser les performances et une tâche désormais classique dans la recherche et l’industrie. Cette étape là ne présente pas de verrous technologiques mais demande un travail important et également beaucoup d’astuces.

Afin d’en optimiser les performances :

  • les données ont été mise à disposition en RAM et non sur les disques dures pour accélérer les temps d’accès
  • le code comportant  750,000 lignes a été parallélisé
  • le processus d’allocation de la mémoire, avec une architecture NUMA, a été optimisé

NaN

La réponse est : Est ce que c’est nouveau ?

Au vu de ce qui précède, le challenge Jeopardy! n’apporte pas d’avancées fondamentales dans le domaine théorique du Natural Language Processing. IBM n’a effectivement pas apporté de solution miracle au problème ou d’algorithmes révolutionnaires mais c’est appuyé sur les nombreux travaux qui existaient déjà (y compris ceux de l’entreprise elle-même).

Pour autant, il apporte bien des nouveautés. Produire une machine capable de gagner à Jeopardy! n’avait jamais été réalisé. L’intégration dans un pipeline n’avait jamais atteint ce degré d’efficacité. De plus, ce pipeline et la méthode proposée peuvent être réutilisés pour aborder d’autres domaines moins futiles.

Les limites entre ingénierie et science sont floues mais IBM apporte bien sa  contribution au domaine.  En fait, l’apport d’IBM est conforme au fonctionnement classique de la recherche scientifique.

C’est avant tout un très beau projet de communication

La réponse est : Que représente le le challenge Jeopardy! pour IBM ?

Sous mon clavier le terme de communication n’est pas une critique. Le travail fourni est réel et conséquent et sur bien des points du domaine, il a permis d’apporter des améliorations incrémentales indéniables. Le challenge Jeopardy! a été conçu et conduit comme un projet industriel de recherche dont l’objectif premier est  de faire parler de l’entreprise. La résolution  d’une véritable problématique scientifique vient en second plan.

C’est d’ailleurs le but avoué[pdf] de David Ferruci, le chef du projet Watson :

Roughly three years ago,IBM Research was looking for a major research challenge to rival the scientific and popular interest of Deep Blue, the computer chess-playing champion [..], that also would have clear relevance to IBM business interests.

IBM construit en effet sa stratégie de communication sur une image d’innovation radicale. Cette image permet de conquérir des marchés en faisant parler de l’entreprise. IBM se place ainsi comme un acteur majeur du Natural Language Processing et promet dans un second temps des applications concrètes, comme l’aide au diagnostic médical. Durant ces trois ans, IBM s’est aussi rapproché des acteurs scientifiques du domaines en montant par exemple un workshop sur le sujet en 2008, ce qui lui a permis de rassembler autours de lui la communauté de chercheurs du domaine.

Sur le long terme, une telle stratégie permet d’attirer des talents et des collaborations avec de brillants éléments qui rêvent de travailler avec IBM. En interne, cela est source de satisfaction et de cohésion pour tous les éléments du groupe y compris ceux qui travaillent très loin de ces sujets. Travailler dans une entreprise ayant une bonne image est valorisant. C’est également un élément de motivation et de promotion interne. Il permet de faire miroiter à des ingénieurs, qui ont une tâche routinière au quotidien, l’opportunité de pouvoir un jour rejoindre ce type de projets au sein du groupe.

Dans ce cas là, ne pourrait-on pas dire que Watson est un projet qui permet à IBM de gagner sur de nombreux tableaux ? Tout comme à Jeopardy!, la réponse est dans la question.

Pour aller plus loin :

  • Building Watson: An Overview of the DeepQA Project [pdf], AI Magazine Vol 31, N°3, p. 59-79,  l’article principal utilisé pour ce billet. Rédigé par l’équipe en charge de Watson, il explique leur démarche et le fonctionnement détaillé de deepQA.
  • Le blog d’IBM research

>> Photo Flickr CC-BY-NC-SA PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par jntolva

>> Article initialement publié sur Nanostelia

]]>
http://owni.fr/2011/04/12/quand-hal-joue-a-jeopardy/feed/ 0