OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Dur dur d’expliquer Internet http://owni.fr/2012/09/27/dur-dur-d-expliquer-internet-ovei/ http://owni.fr/2012/09/27/dur-dur-d-expliquer-internet-ovei/#comments Thu, 27 Sep 2012 13:30:18 +0000 Andréa Fradin http://owni.fr/?p=121060

“Il faut secouer le cocotier !” C’est la mission confiée par Jean-Paul Delevoye, le président du Conseil Economique, Social et Environnemental, à la rencontre On vous explique Internet (OVEI), qu’il recevait hier entre ses murs. Chapeauté par la député UMP Laure de la Raudière, l’évènement a réuni une petite centaine de personnes, “internautes” autoproclamés, experts, attachés parlementaires et quelques (rares) élus, invités à papoter autour de grandes problématiques du Net : gouvernance, déploiement du très haut débit et éternelle question de la place du droit sur le réseau. Dans l’espoir d’enfin “assurer le dialogue entre les geeks et les institutions de la République”. Un bon début, même si la République, elle, n’était pas toujours au rendez-vous.

Internet, c’est l’enfer

Seuls trois parlementaires ont ainsi fait le déplacement. Parmi eux, le doyen de l’Assemblée. Des assistants parlementaires, des membres du CSA, de l’Arcep, de l’Hadopi et de la fameuse mission Lescure ont aussi répondu présents. Mais aucun membre du gouvernement. “Internet c’est diffus, ça se retrouve dans tous les domaines d’intervention des élus. Du coup, c’est compliqué de mobiliser les élus”, explique Laure de la Raudière.

Pourtant, tous s’accordent sur la nécessité de ce genre d’initiative. “Internet, ça apparaît comme l’enfer derrière une porte. Mais une fois qu’on l’a ouverte, on ne peut plus s’en passer !”, a lancé Jean-Paul Delevoye, qui appelle à “changer les choses de l’extérieur”. De l’extérieur précisément, Benjamin Bayart, président du FAI associatif FDN et tribun toujours efficace de la cause du Net, s’est directement adressé aux élus en guise de préambule :

Vous ne pouvez pas éviter de prendre des positions idiotes à cause de deux écueils : la peur d’Internet, parce que c’est inconnu, donc ça fait peur, et la technique.

Par analogies concrètes, l’ingénieur télécom a tenté de démontrer l’absurdité de certains réflexes sur Internet :

Demander le filtrage d’Internet, c’est comme exiger l’invention d’un asphalte qui empêche les excès de vitesse. Structurellement. Sauf pour les voitures de flic. Là, on a quand même l’intuition qu’il y a certaines barrières.

C’est sur ce ton pédagogique mais décomplexé que les trois ateliers ont suivi dans des salles au format réduit, pour une meilleure distribution de la parole. Bertrand de La Chapelle de l’Icann (organisation américaine qui attribue les noms de domaine sur Internet), Mathieu Weil de l’Afnic (qui gère les .fr) et Nicolas Arpagian de l’INESJ (Institut national des hautes études de la sécurité et de la justice), expliquant la tension entre l’ordre normatif vertical des Etats et celui plus horizontal des sites Internet ; Eric Freyssinet (chef de la division de lutte contre la cybercirminalité de la Gendarmerie nationale) et Paul Da Silva (web entrepreneur) animant la réflexion sur l’application de la loi sur Internet ; Antoine Darodes de l’Arcep, Raphaël Maunier (opérateur, co-fondateur de France-IX) et Julien Rabier (opérateur, FDN) évoquant avec élus et usagers le laborieux déploiement de la fibre optique sur le territoire. Témoignages, expériences, doutes, craintes : “il n’y a pas de questions naïves dans OVEI”, a rassuré Laure de la Raudière.

En 2012, Internet n’existe pas

Si les participants semblaient enthousiastes, restent tous ceux qui ne sont pas venus. “C’est un succès nuancé”, concède Gaël Bielecki, co-organisateur, avec Bruno Spiquel, de l’événement :

La mobilisation des élus et des cabinets est toujours très complexe.

Evénement trop modeste ou à l’intérêt limité ? Pour Jean-Paul Delevoye, il y a aujourd’hui un “problème” :

Les politiciens sont des machines de pouvoir. Quand ils s’emparent d’une question, ils la tuent. Ils ne s’intéressent plus à la pertinence de cette question mais au croche-pied qu’ils pourront faire au camp d’en face.

“En 2012, Internet n’existe pas”. C’est la conclusion que nous avions tirée d’une enquête de plusieurs mois sur la place du numérique dans la campagne présidentielle de l’UMP et du PS. Pas assez clivant, le sujet n’est pas un appeau à électeurs. Pourquoi alors l’investir ? C’est à ceux qui comprennent Internet auquel il appartient de bouger les choses, estime Jean-Paul Delevoye :

Comment pouvez-vous nous aider à réveiller les citoyens plutôt qu’à chatouiller les électeurs ?

[visu] En 2012, Internet n’existe pas

[visu] En 2012, Internet n’existe pas

Visualiser en un coup d’œil les propositions des candidats sur le numérique. C'est ce que OWNI vous propose en ...

Laure de la Raudière a souhaité un dialogue ouvert, suivant “un esprit républicain et neutre”, qui tranche avec “ce qui se passe au Parlement”. “Sans lobby aussi”, a-t-elle insisté : “si on veut bien comprendre Internet, il faut le faire sans eux !” Et en effet, aucun intérêt commercial n’était directement représenté dans le panel d’intervenants, même si la fondation Free a financé, avec l’Afnic, une partie de l’évènement.

Il semble néanmoins difficile de réaliser un débat transpartisan. Sur Internet aussi, le jeu politicien reprend ses droits : l’élue UMP fait aussi peut-être les frais d’une simple guéguerre droite-gauche, opposition-majorité, en particulier suite au dépôt de sa proposition de loi sur la neutralité du Net. Interrogé par Owni sur l’absence de Fleur Pellerin, la ministre de l’économie numérique, à l’événement, son cabinet explique qu’elle est en déplacement à Marseille. Difficile en revanche de connaître la raison des défections des autres membres du ministère. Hasard, ou boycott politique. Qu’on espère derrière OVEI pour sa prochaine édition.


Toutes les interventions ont été enregistrées et on fait l’objet d’un compte-rendu, à retrouver sur le site de l’OVEI.

Photos sous licences Creatives Commons par D.Clow (CC-bync) et Pierre Beyssac (CC-by) (merci à lui!), remixées par Ophelia Noor pour Owni

]]>
http://owni.fr/2012/09/27/dur-dur-d-expliquer-internet-ovei/feed/ 6
Pour un Internet polisson ! http://owni.fr/2012/06/15/pses-pour-un-internet-polisson/ http://owni.fr/2012/06/15/pses-pour-un-internet-polisson/#comments Fri, 15 Jun 2012 08:17:33 +0000 Guillaume Ledit, Andréa Fradin et Ophelia Noor http://owni.fr/?p=113447

Ouverture de Pas Sage En Seine à La Cantine, passage des panoramas, Paris. (cc) Ophelia Noor

Charges anti-Apple, tee-shirts Telecomix, chiffrement de données et barbes en broussaille : pas de doute, nous sommes bien à Pas Sage en Seine. Trublion reflet du plus institutionnel Futur en Seine, le grand raout numérique organisé en parallèle par la Ville de Paris et la Région Ile-de-France, ce festival donne pendant quatre jours la parole à quiconque souhaite parler d’Internet. Mais de préférence en empruntant les itinéraires bis. Car ici, hors de question de suivre les autoroutes confortables tracées sur le réseau par les mastodontes Apple, Google ou Facebook. Ici, “des gens pas sages du tout rendent visibles, intelligibles et pédagogiques les activités numériques underground ou tout simplement libres.” Pour un résultat gonflé d’impertinence, qui bouscule les standards élaborés par les services que nous utilisons au quotidien sur Internet. Le tout pour notre petit confort. Mais bien souvent au détriment de nos libertés.

Lignes de fuite et bidouillabilité

Cliquer ici pour voir la vidéo.

“L’auteur aurait intérêt à être piraté”

“L’auteur aurait intérêt à être piraté”

Thomas Cadène est un auteur de bédé atypique. Passionné par Internet, il y a créé Les autres gens. Du modèle ...

Un constat qui s’impose avant tout sur le mobile.

”Avec les iPhone, il y a quelqu’un, en Californie, qui contrôle ce que vous avez le droit d’utiliser sur une machine que vous avez pourtant achetée” a alerté Tristan Nitot, évangéliste en chef de la fondation Mozilla en Europe, en ouverture de cette première journée du festival. Nos téléphones intelligents, iPhone, Blackberry et compagnie, nous verrouillent malgré nous dans un cocon aseptisé, où il est impossible de bouger un orteil sans aval préalable des firmes californiennes.

Sur l’AppStore, la plate-forme d’applications pour matériel Apple, pensée, conçue et validée de A à Z par la marque à la pomme, bon nombre de contenus sont ainsi persona non grata. Grand prude devant l’éternel, Steve Jobs a par exemple banni toute forme de nudité de ses joujoux du temps de son vivant. Exit le porn, tout comme des oeuvres de l’esprit autrement moins polémiques ; la BD collaborative française Les Autres Gens en fait par exemple les frais, au détriment de son rayonnement.

Mais le problème ne s’arrête pas à une histoire de fesses. Pour Tristan Nitot,

le téléphone mobile, comme le PC en son temps, c’est l’interface entre l’utilisateur et finalement, le reste du monde. C’est l’interface avec les amis, avec les informations et autres. Ce n’est donc pas neutre si quelqu’un contrôle absolument tout.

La solution ? Ouvrir le capot ! Adepte du sémillant concept de “bidouillabilité”, Tristan Nitot préconise de créer une interface mobile dont le code source serait complètement accessible aux utilisateurs. Taille, forme, couleurs (et bien plus encore) de tout objet affiché sur votre portable pourraient ainsi être modifiées, pour peu d’y consacrer du temps et de ne pas redouter de mettre les mains dans le cambouis. Un projet élevé au niveau industriel par Mozilla (pour le moment sous le nom de “Boot to Gecko”), qui ambitionne de proposer ces téléphones d’un nouveau genre dès le début de l’année prochaine. En partenariat avec l’opérateur Telefonica, ils ne devraient atterrir dans un premier temps que sur le marché brésilien. Mais Tristan Nitot n’exclut pas un futur débarquement européen qui suivrait cette même injonction : créez vos lignes de fuite

L’Internet polisson

T-shirt de geeeeek (cc) Ophelia Noor

Mot d’ordre en forme de fil rouge pour cette première journée de Pas Sage en Seine, où les sales gosses du Net n’ont pas manqué une occasion de troller les différents intervenants. Ou de moquer certaines figues du milieu, sans surprise absentes à l’événement. Orange, Free, Apple ou même Nadine Morano en ont ainsi pris pour leur grade.

Certains n’ont pas hésité à prendre eux-mêmes le micro pour aller défricher des pistes inexplorées. Ainsi, cette conférence de 15 à 16, intitulée “ Pourquoi les poulpes doivent inspirer Internet ?” [on en a fait une vidéo rien que pour vous]. Par amour de la contradiction, de l’humour potache et en estimant que quoiqu’il arrive, toute connaissance est bonne à prendre – pourvu qu’elle aboutisse à 42 [selon les références du milieu, 42 est la réponse au sens de la vie, NDLA].

Cliquer ici pour voir la vidéo.

Sur Internet, sortez couvert !

Mais s’ils ont la blague facile, les cyber-effrontés savent se tenir à carreau. Et passent sans problème d’une ambiance rigolarde à une atmosphère studieuse. Car si la navigation menace d’étouffer la liberté des internautes, elle peut tout aussi facilement mettre leur vie en péril. Savoir hacker n’est alors plus question de prudence, mais d’urgence.

Tunisie, Égypte, Syrie, Pas Sage en Seine est l’occasion de rappeler l’impérieuse nécessité de protéger ses activités sur le réseau, en particulier dans les régimes autoritaires. De ceux qui pratiquent la censure, et tentent de restreindre voire couper l’accès au réseau. Les révolutions arabes en ont fourni plusieurs tristes exemples.

Conférence "Internet c'est nous" avec l'intervention de blogueurs tunisiens - (cc) Ophelia Noor

Elles ont aussi montré à quel point les hackers peuvent être d’un précieux secours. Plusieurs agents ”Telecomix, ce groupement de hackers qui aide les activistes des pays concernés en rétablissant la connectivité ou en leur apprenant à communiquer de façon sécurisée, sont d’ailleurs intervenus au long de la journée. Leurs maîtres-mots ? Chiffrement, anonymisation, proxys, VPN, Tor, protection des données : autant de conseils et d’outils qui ont jalonné ce premier jour de Pas Sage en Seine.

Les témoignages de Tunisiens impliqués dans la chute du régime de Ben Ali ou de Syriens en pleine guerre civile renvoyaient à cette réalité bien sensible, que résume d’une phrase Kheops, de Telecomix :

On parle de cyberguerre, mais ça n’a rien de cyber, ça concerne des vies tout ce qu’il y a de plus réel.

Okhin et KheOps de Telecomix (cc) Ophelia Noor

Une réalité sur laquelle Internet agit, tant dans la possibilité pour les États ou les grandes firmes de traquer les activités de leurs citoyens et utilisateurs que dans les moyens de lutter et d’agir contre ces tentatives de censure. Auxquelles sont souvent confrontées les journalistes, cible privilégiée de cette pédagogie par l’exemple, promue au cours d’une intervention par Reporters Sans Frontières. L’ONG mutliplie en effet depuis un an les points de contacts avec “la communauté hacker”. Et a modifié son slogan en passant de “Pour la liberté de la presse” à “Pour la liberté d’information”.

Un slogan qui résonne avec les fondamentaux de l’éthique hacker, selon lesquels l’information devrait être libre et gratuite. Et l’accès aux ordinateurs illimité et total.

Benjamin Bayart, ministre des Internets

Benjamin Bayart pendant sa présentation. (cc) Ophelia Noor

Clou du spectacle et ultime hack de la journée, Benjamin Bayart, président du FAI associatif FDN, a envoûté l’auditoire avec sa conférence “Liste des courses pour les députés.”

Une sorte de BA B.A de la régulation du Net, décliné en trois points : protection de la neutralité, décapage du concept de propriété intellectuelle et encadrement des fichiers policiers. Un laïus qui peut sembler soporifique par le menu, mais qui a tenu la salle de La Cantine bondée (et hilare) jusqu’à près de minuit – explosant de deux heures le temps imparti. Netévangéliste alternant humour, métaphores et trolling de compétition, Benjamin Bayart mériterait donc un compte-rendu à lui tout seul !

Sur la neutralité des réseaux, l’ingénieur de formation a insisté sur la nécessité d’une “grande loi”, courte et claire. Raillant au passage la politique européenne en la matière, qui détermine assez largement les orientations françaises, qui “croit que la main invisible et divine du marché va tout arranger, faire pousser les cheveux et enlarge [grossir, NLDR] les pénis.” Et rappelant que préserver la neutralité du réseau n’est pas un truc de technicien :

Rien n’empêche aujourd’hui un FAI de filtrer un site. Quel qu’il soit. Si un FAI décide un jour de filtrer un site de presse en ligne, parce qu’il décide qu’il ne lui plait pas trop, rien ne l’en empêche. Rien.

Après avoir fait un tour d’horizon des étranges pratiques des opérateurs sur les services de téléphonie et de télévision fournis dans leur “box”, Benjamin Bayart a appelé à une révision de fond en comble du concept de propriété intellectuelle. Rappelant que lorsque l’on reproduit une œuvre, il ne s’agit pas d’un vol car l’auteur de l’œuvre visé peut toujours en disposer. Et faisant quelques clins d’œil à la Hadopi, qualifiée de “verrue infectée” et inefficace.

Pour finir, l’e-tribun a abordé la question du fichage et de la mise en place d’une identité numérique impulsée par l’État. Une volonté absurde selon lui, dans la mesure où l’individu est seul moteur de son identité, en ligne comme “IRL” ["In Real Life", selon le jargon des connectés, NDLA] . Solution : comme dans la vraie vie, il suffirait de pouvoir prouver son identité “par tous les moyens”. Par exemple, avec suffisamment de témoignages. Mais pas en fournissant un matricule écrit et validé par l’État. Qui sublimerait une bonne fois pour toute l’idée que Big Brother is watching you.

Du coup, à qui d’autres pouvait-on laisser le mot de la fin, qui s’adresse à vous tous, les internautes.

Cliquer ici pour voir la vidéo.


Photographies par Ophelia Noor pour Owni


Retrouvez tous les jours :

- le live de Silicon Maniacs

- les vidéos des conférences sur le site de la Cantine

]]>
http://owni.fr/2012/06/15/pses-pour-un-internet-polisson/feed/ 17
Le retour du peer-to-peer http://owni.fr/2012/02/21/le-retour-du-peer-to-peer/ http://owni.fr/2012/02/21/le-retour-du-peer-to-peer/#comments Tue, 21 Feb 2012 12:37:39 +0000 Fabien Soyez http://owni.fr/?p=98178

En 2009, Arbor Networks, société spécialisée dans la gestion des réseaux, affirmait que le modèle de l’échange de fichiers en peer-to-peer, dans lequel chaque client est un serveur,  était en déclin au profit du streaming.

Le 19 janvier, le FBI a ordonné la fermeture de Megaupload, la plus grosse plateforme de téléchargement direct. Panique sur les réseaux. Cogent et Carpathia Hosting, qui transportaient une partie des flux du site de stockage, ont perdu 30% de leur trafic. Craignant la grande purge, des sites comme VideoBB et Fileserve ont rapidement vidé leurs serveurs. Rapidshare et MediaFire ont de leur côté décidé de faire la police eux-mêmes, et de sévir contre leurs propres clients. Au Washington Pirate Party, succursale du Parti pirate américain, Jeffrey Talada constate :

Ces sites sont comme une hydre : vous en supprimez un, vingt naissent à la place. Si Megaupload est coupable, ils iront hors des États-Unis. Mais il subsistera toujours la même faiblesse : la centralisation.

Pour ce farouche opposant au traité Acta et à la loi antipiratage SOPA, “Megaupload a prouvé qu’un système centralisé était faible. Des millions d’internautes se rendaient chaque jour sur un seul site, il a suffit de le couper pour que tout disparaisse. Cela n’aurait jamais pu arriver avec le peer-to-peer.” Et de prôner un retour aux sources :

Les gens ont-ils jamais quitté le P2P ? Si le gouvernement ferme quelque chose, les gens iront ailleurs, vers quelque chose d’autre, qu’ils connaissent déjà un peu de préférence.

Selon un observatoire de l’usage de la bande passante à travers le monde mis en place par le constructeur de routeurs Ipoque, le niveau de trafic du P2P, s’est brutalement emballé en Europe après le 20 janvier.

Ressuscité, le peer-to-peer.

La semaine suivant la fermeture de Megaupload, les graphiques mis en ligne par Ipoque montraient ainsi des pics atteignant 15% du trafic total de la bande passante européenne. Les courbes se sont désormais stabilisées. Bittorrent et eDonkey constituent les deux protocoles d’échange les plus utilisés. Selon le site Peerates.net, qui publie des statistiques sur l’usage des serveurs eMule, le nombre de recherches effectuées sur eDonkey serait passé de 110 000 au début du mois de janvier à 200 000 après la fermeture de Megaupload.

Retour aux sources

Au parti pirate français, Maxime Rouquet, co-président, constate un “désœuvrement” des utilisateurs du streaming et du téléchargement direct. Pour lui, le salut passe par le P2P. “Avec l’effondrement en bourse de Cogent, on réalise que techniquement la centralisation est une très mauvaise chose.” Benjamin Bayart, président du fournisseur d’accès indépendantFrench Data Network (FDN) précise :

Techniquement, le téléchargement direct, c’est un point hypercentralisé qui diffuse du contenu en masse. Un État a décidé de couper, ça a été extrêmement rapide. Un système ultra-centralisé est très faible. Le P2P lui, est un système de flux individuels. Entre les deux systèmes, c’est comme entre Internet et le minitel : pour ce dernier, si on coupe le système central, on coupe tout. Pour le Net, c’est un peu plus compliqué, on peut difficilement le couper… Le peer-to-peer, tout comme Internet, ne peuvent être mis en panne.

Économiquement, le Peer-to-Peer serait également “la bonne solution” pour des FAI en surcharge : “Quand des millions de personnes téléchargent en masse en téléchargement direct, ça crée un débit énorme, des instabilités très difficiles à gérer. Le streaming, quant à lui, vous fait télécharger plusieurs fois la même chose… Ces deux systèmes sont dramatiques pour la gestion du réseau.” Le président de FDN ajoute :

Le peer-to-peer lui, est un système de flux individuels qui bougent par petits paquets, jamais par gros blocs, il n’engorge pas le réseau, parce que le trafic est réparti. Les FAI et les opérateurs qui le combattaient il y a cinq ans se rendent compte que c’était peut-être une erreur. Tous les techniciens sérieux savent que le P2P est le plus simple et le plus solide des systèmes. Pour qu’un fichier disparaisse, il faudrait qu’il disparaisse de tous les ordinateurs qui le partagent.

Pas de doute pour Benjamin Bayart, “les gens qui regardaient des vidéos sur Megaupload vont se déployer ailleurs et cela va se traduire par un regain d’activité sur le P2P.”

Le 21 janvier, peu après la fermeture de Megaupload, Bittorrent Inc. annonçait avoir atteint 150 millions d’utilisateurs. Le fondateur du parti pirate suédois (Piratepartiet), Rick Falkvinge, prophétise un avenir en peer-to-peer :

Certaines entreprises distribuent déjà des jeux et des mises à jour en utilisant la technologie peer-to-peer, car cela diminue leur consommation de bande passante, et les coûts par la suite. Les gens aiment partager, ils veulent partager, et ils trouveront toujours de nouveaux moyens de le faire. On ne peut pas les stopper.

Certains clients P2P exploitent à fond l’aspect décentralisé du système. Sur TorrentFreak, on redécouvre ainsi Tribler, une solution BitTorrent entièrement décentralisée créée il y a dix ans. Utilisé par quelques milliers de personnes seulement, Tribler serait en passe de devenir un outil clé du peer-to-peer décentralisé. Comme l’explique sur TorrentFreak le docteur Pouwelse, qui dirige le projet : “Avec Tribler, nous avons réussi à ne pas avoir la moindre coupure sur les six dernières années, tout cela parce que nous ne nous appuyons pas sur des fondations branlantes telles que les DNS, les serveurs web ou les portails de recherches”. Les recherches se font d’utilisateur à utilisateur, et selon le docteur Pouwelse, “la seule manière de briser Tribler serait de briser Internet lui-même”.

Parmi les évolutions du peer-to-peer attendues, figure également le P2P caching, “extrêmement bénéfique pour le réseau”, explique Jeffrey Talada, du Washington Pirate Party.

Les FAI conservent les données échangées dans des caches pour accélérer les échanges. Quand un internaute demande une information, plutôt que de la télécharger à l’autre bout du monde, elle est déjà en cache, parce que quelqu’un d’autre l’a déjà téléchargée. Ces caches permettent une grande rapidité et surtout évitent de saturer les réseaux. Mais les mécanismes qui visent les intermédiaires, comme Acta, sont un obstacle au développement de ce genre de système.

Vers un peer-to-peer souterrain

Le retour du peer-to-peer peut-il se faire sans victimes ? Pour Maxime Rouquet, “l’Hadopi ne marche pas, et n’a jamais déconnecté personne. Un relevé d’adresses IP ne sera jamais une preuve suffisante.On est devant une démarche de communication pour faire peur.” La Haute autorité vient pourtant de transmettre des dossiers d’internautes aux procureurs de la République.

Pour les différents partis pirates comme pour Benjamin Bayart, face à la peur du gendarme, ce qui risque d’exploser, ce sont bien les systèmes permettant de chiffrer les connexions, de brouiller les pistes. Rick Falkvinge décrit le peer-to-peer de demain comme un système de plus en plus “souterrain”, vers toujours plus d’anonymat. “Les internautes retourneront vers les protocoles Bittorrent et eDonkey, mais ils utiliseront de nouveaux moyens, pour contrer le pistage”.

Pour éviter aux utilisateurs d’être repérés, le peer-to-peer fonctionne déjà avec plusieurs systèmes d’anonymisation, comme les magnet links.  “Au début, avec Bittorrent, on devait récupérer des fichier torrents, qui contenaient des hashcodes, ou signatures numériques, sur un serveur central, ou tracker, comme The Pirate Bay ou OpenBittorrent. Désormais, on partage les informations entre une multitude de pairs qui se connectent au réseau. Les torrents sont décentralisés, on peut se passer de trackers”, explique Maxime Rouquet, du parti pirate français.

Les magnet links protègent les utilisateurs, car ils ne contiennent que la signature numérique des fichiers partagés, et ne permettent pas de remonter jusqu’à eux. Depuis janvier, The Pirate Bay s’est concentré sur les magnet links pour éviter de devenir le “nouveau Megaupload”.

Maxime Rouquet pense que les internautes risquent d’aller encore plus loin :

Avec des idioties comme Hadopi, on risque de ramener tout le monde au peer-to-peer, mais derrière un VPN, ou réseau privé virtuel, un système permettant de chiffrer sa connexion, utilisé à la base par les activistes dans des pays où règne la censure. En chiffrant sa connexion, on est sûr d’être immunisé contre l’Hadopi et de pouvoir utiliser n’importe quel logiciel de téléchargement sans risques. Avec les VPN, on peut aussi se connecter à des sites verrouillés, comme Hulu, bridé hors des USA pour des questions de droits d’auteurs.

Rick Falkvinge préfère quant à lui parler de Tor , un projet imaginé puis mis en place par des hackers militants il y a déjà dix ans. Le principe est simple : l’internaute installe un logiciel sur son ordinateur, l’active, puis peut surfer anonymement. “A la base, Tor permet de contourner les systèmes nationaux de blocage, donc la censure : les informations transitent dans un réseau de serveurs relais qui empêchent les autorités de remonter jusqu’à vous”, indique Rick Falkvinge. C’est le principe du “routage en oignon.”

Le meilleur du peer

Pour certains, comme Maxime Rouquet ou la Quadrature du Net, la lutte contre le piratage pousse les internautes à sécuriser de plus en plus leur connexion, ce qui peut avoir des effets désastreux sur le réseau.

“Et bien sûr, rien ne sera reversé aux artistes”, complète Benjamin Bayart. Pour lui, “avec le peer-to-peer, tout le monde y gagne. Personne ne gagne ni ne perd d’argent. En général, on cherche quelque chose qu’on n’a simplement pas trouvé ailleurs, ou qui n’est pas abordable. Les gens qui ont de l’argent et qui ne dépensent pas sont une minorité.” Le président de French Data Network conclut :

Si on essaie de bloquer le peer-to-peer, que feront les gens ? Le dernier épisode de Dexter qu’ils cherchaient deviendrait introuvable. Résultat, les gens cesseront de regarder la série. L’œuvre perdra du même coup de sa valeur. C’est exactement comme si on ne diffusait plus une chanson à la radio : c’est une audience de perdue. Le seul moyen de s’assurer que les gens ne téléchargent plus, ça serait peut être de supprimer leur envie pour les œuvres…

Reste une innovation à suivre de près. Celle de Bram Cohen, l’inventeur de Bittorrent. Depuis trois ans, l’informaticien travaille sur un nouveau protocole, sorte de streaming en peer-to-peer, permettant de diffuser en direct du contenu, mais de façon décentralisée : Bittorrent Live. Contacté par OWNI, il explique :

Le streaming est aujourd’hui cher, et il fait face à de nombreux défis techniques. Je savais que l’architecture décentralisée du P2P pourrait résoudre beaucoup de ces défis. Le but de Bittorrent Live, c’est d’avoir une très faible latence, et 99% de offload, c’est à dire 99% de données provenant des pairs. Ce qui signifie qu’aucune infrastructure serveur ou fournisseur d’hébergement ne sera nécessaire. Tous les vendredi soirs, à 20h, les gens peuvent avoir accès à la version beta.

Les internautes peuvent ainsi regarder un concert en streaming sur Bittorrent Live. Pas de détails quant à la possibilité de fusionner le nouveau protocole et celui plus classique de téléchargement, mais d’après Bram Cohen, Bittorrent Live permet, tout comme le protocole open source μTP (pour Micro Transmission Protocol) de son invention, de “réduire les pertes de paquets” et “de limiter les congestions réseau, un avantage pour les FAI.”

Histoire de faire aussi la promotion d’un futur aux couleurs du peer-to-peer :

Les technologies peer-to-peer intéressent de plus en plus d’entreprises et de services. C’est un moyen très efficace de faire circuler des données. Par exemple, Facebook, Twitter et Etsy utilisent le protocole BitTorrent pour l’efficacité du réseau interne. L’éditeur de jeux vidéo Blizzard utilise BitTorrent pour distribuer des mises à jour à des millions de joueurs à travers le monde.

Avec Bittorrent Live, Bram Cohen compte allier ce qui a fait le succès du streaming – regarder une vidéo instantanément – et l’aspect décentralisé et convivial du bon vieux P2P. “Beaucoup de vidéos ne sont toujours pas trouvables sur Internet”, expliquait Bram Cohen le 13 février au Sommet MusicTech de San Francisco. Matchs de foot, concerts, séries, films, la liste des possibilités est sans fin.

Au MusicTech, l’inventeur de Bittorrent lâchait, plaisantant à moitié : “mon but, c’est tuer la télévision.” Bittorrent Live n’en est encore qu’à ses balbutiements, mais Bram Cohen pourrait aussi faire d’une pierre deux coups, enterrant définitivement Megaupload et ses amis.


Photos et illustrations par Jacob Köhler (CC-byncnd) ; AndiH (CC-byncnd) et SFBrit (CCbyncnd)

]]>
http://owni.fr/2012/02/21/le-retour-du-peer-to-peer/feed/ 46
Internet après la fin de Megaupload http://owni.fr/2012/01/21/megaupload-internet-apres/ http://owni.fr/2012/01/21/megaupload-internet-apres/#comments Sat, 21 Jan 2012 18:11:43 +0000 Andréa Fradin et Guillaume Ledit http://owni.fr/?p=95019

Megaupload en une des grands quotidiens français : Le Monde, Libération, Le Figaro. Dans les JT nationaux de TF1, de France 2. Drôle de consécration pour un site de partage de fichiers, certes consulté par des millions d’internautes (de 7 à 15 en France par mois, selon les sources), mais jusque là cantonné aux articles des seuls sites d’info spécialisés. Sa fermeture, opérée dans la nuit du 19 au 20 janvier par le FBI, en a officialisé la popularité. Unanimité médiatique : c’est un “coup de tonnerre dans le monde de l’Internet.” Mais, passé l’orage, de quoi Megaupload est-il le nom ?

Nouvelle hiérarchie des valeurs

MegaUpload à la chaise électrique

MegaUpload à la chaise électrique

Le FBI a ordonné la fermeture de MegaUpload, un réseau de sites longtemps présenté comme l'un des principaux vecteurs du ...

L’effroi est moins à chercher du côté de Megaupload que de sa fermeture spectaculaire. Le site en lui-même n’a pas bénéficié d’un soutien massif. La désolation de millions d’habitués de la plate-forme, inquiets de ne plus pouvoir consulter séries, musique et autres produits culturels aussi aisément sur Internet, n’a pas donné suite à un mouvement d’adhésion. Les Anonymous ont bien riposté en réponse aux autorités américaines (“Le FBI n’a pas pensé qu’il pouvait s’en tirer comme ça, non ?”), l’ampleur du mouvement de soutien est bien moindre que celui qui avait accompagné, en son temps, WikiLeaks.

Benjamin Bayart, expert en télécommunications et défenseur de la liberté sur Internet, relativise : “faire tomber hadopi.fr, même un gamin avec un lance-pierres y arrive. Faire tomber Paypal en revanche [NDLR : le site de paiement en ligne avait été l’objet d’attaques après avoir stoppé toute collaboration avec WikiLeaks], ce n’est pas du même niveau. Au même titre que de nombreux militants en faveur des libertés sur Internet, qui dénoncent depuis longtemps les pratiques illégales et mafieuses de ce genre de plates-formes sur Internet, il souligne même la “très bonne nouvelle” que constitue la fermeture de Megaupload:

Je ne suis même pas certain d’être en désaccord avec la règle : Megaupload était objectivement mafieux. C’est une malfaisance pour la société, la police intervient, tant mieux. Par contre, je m’interroge sur les moyens déployés : pour fermer Megaupload, les autorités américaines ont mis en oeuvre des moyens supérieurs à ceux pour fermer Guantanamo. Le téléchargement illégal est donc jugé supérieur à la torture.

Le dispositif plus que la cible : voilà ce qui inquiète les observateurs attentifs du réseau. Du jour au lendemain, le site a disparu des cartes Internet, sous l’effet d’une décision unilatérale des autorités américaines. Et le couperet est tombé avec une simplicité déconcertante.

L’action, menée en collaboration avec une dizaine de pays à travers le monde, a justifié un communiqué de la Présidence française. Publié tard dans la nuit, la rapidité de la réaction officielle, ainsi que son ton solennel et autoritaire, ont surpris. Certains y ont même vu une erreur politique de la part de Nicolas Sarkozy. Ce qui est sûr, c’est que le chef de l’État a donné une valeur “impérieuse” à la fermeture d’un site bafouant le “financement des industries culturelles dans leur ensemble”. Officialisant ainsi, au même titre que les États-Unis, l’importance de la défense du lobby culturel sur Internet. En ce sens, la coupure de Megaupload peut être vue comme une nouvelle légitimation politique, spectaculaire et sans précédent, des intérêts du monde culturel face à ceux du réseau.

En France, le mouvement de Nicolas Sarkozy est éminemment électoraliste. Manoeuvre du pôle Culture de l’Élysée visant à répondre aux positions du candidat socialiste à la présidentielle, François Hollande, qui affirmait la veille face à des journalistes vouloir “la suppression d’Hadopi”, l’organe en charge de la protection des oeuvres sur Internet. Manoeuvre qui a forcé l’ensemble des candidats à considérer l’affaire Megaupload.

Les clés du net

La coupure brutale, mondiale et unilatérale de cette plate-forme pose une autre question : les États-Unis ont-ils les clés d’Internet ?

Le réseau, que l’on présente comme si difficile à atteindre, a ici été amputé d’une constellation de sites représentant 4% du trafic. Megaupload était l’un des 100 sites les plus consultés au monde. Tout sauf une broutille. Pour Benjamin Bayart, si la coupure est nette et facile, c’est en raison du caractère centralisé de Megaupload :

Megaupload était relativement facile à atteindre : le FBI a débranché tous les serveurs dans des pays où ils disposaient de bons accords. Même si le site avait des serveurs cache [NDLR : des serveurs qui rapprochent les contenus des utilisateurs] sur toute la planète et y compris en France, il suffit de couper la tête pour que ces serveurs ne servent plus à rien.

Au-delà de son caractère centralisé, sa fermeture relève néanmoins aussi de la “bonne volonté des pays”. “Les États-Unis sont intervenus sur les noms de domaines pour neutraliser ce site. Il suffirait de repérer les zones régies par les Etats-Unis et d’inciter les entreprises à aller sur d’autres zones pour leur noms de domaine. Et veiller à ce que l’Icann [NDLR: en charge de la gestion des noms de domaine] n’appliquent pas le droit américain du copyright sur toutes ces zones.”

Megaupload n’est donc pas l’hydre redoutable présentée dans les médias. D’autres sites en revanche, sont beaucoup plus redoutables pour les industries culturelles. “On peut fermer Megaupload. On ne peut pas fermer BitTorent”, poursuit Benjamin Bayart, évoquant une plate-forme populaire d’échange en peer-to-peer. “Pour couper BitTorent, il faudrait intervenir auprès de chacun des utilisateurs connectés. Et donc avoir plus d’agents fédéraux que d’internautes. Ça ne peut pas marcher. Et c’est injustifiable.”

C’est en ce sens que la Quadrature du Net, collectif militant pour la défense des droits sur Internet, voit en Megaupload la “créature” des “industries du copyright”. Un constat partagé par Benjamin Bayart : “cette mafia est le produit des ayant droits. Pas celui du réseau. Ils ont joué avec le réseau, voilà ce qu’ils ont obtenu.” A l’inverse du protocole peer-to-peer, Megaupload et consorts seraient ainsi des aberrations du net, centralisées et donc plus faciles à neutraliser pour les ayant droits. Même s’ils se reproduisent, ces monstres réticulaires sont toujours plus repérables et arrêtables que des millions d’individus interconnectés.

Pas besoin de MegaLoi

Ce qui pose la question des instruments juridiques utilisés pour lutter contre la diffusion illégale d’oeuvres protégées sur le réseau. Pour fermer Megaupload, les autorités américaines n’ont pas fait appel à des lois récentes. A peine font-elles référence au Digital Millenium Copyright Act qui date de 1998.

”On repasse à des moyens plus classiques d’action”, explique Cédric Manara, professeur de droit à l’EDHEC. Dans le cas Megaupload, les autorités s’appuient en particulier sur des procédures relatives au blanchiment d’argent, ou sur l’existence d’une Mega Conspiracy , conspiration qui correspond à une réalité dans le droit américain. Il reviendra à une cour de justice de se prononcer sur la validité de telles accusations.

En droit français, les ayant droits peuvent aussi s’appuyer sur un dispositif existant, l’article L 336-2 du code de la propriété intellectuelle, qui leur permet de demander au juge du tribunal de grande instance de mettre en place toute mesure appropriée pour faire cesser une atteinte à leurs droits. C’est sur la base de cet article qu’a récemment été décidé la fermeture du site de streaming Allostreaming.

Pourtant, dans le même temps, la législation sur les droits d’auteur à l’heure d’Internet continue d’enfler et est présentée comme terriblement complexe et difficile à mettre en oeuvre. Aux États-Unis, note Cédric Manara, sept nouvelles lois répressives ont été mises en place pour protéger les ayant droits au cours des quinze dernières années. Dernier exemple en date de cette inflation législative, les projets de lois Pipa au Sénat et Sopa à la Chambre des représentants, qui ont été reportés sine die. En France, l’Hadopi suscite toujours autant d’interrogation quant à son efficacité.

L’empire Hollywood attaque Internet

L’empire Hollywood attaque Internet

Aux États-Unis, les lobbyistes des industries culturelles soutiennent plusieurs projets de loi pour renforcer les moyens de ...

Encore une question d’architecture des sites explique Benjamin Bayart : “il est très compliqué d’agir sur Internet uniquement quand c’est décentralisé.”

La vulnérabilité de sites centralisés tel que Megaupload pourrait encourager un retour à l’échange de fichiers en peer-to-peer. La guerre entamée depuis les années 1990 contre ce protocole a sans doute provoqué une modification des usages vers le téléchargement direct ou le streaming. Quand Nicolas Sarkozy se félicitait d’une baisse de 35% des échanges de fichiers illégaux en France, Megaupload enregistrait une croissance de ses utilisateurs similaires. Et démontrait simultanément une autre réalité : les internautes, pressés par la peur du gendarme fliquant le peer-to-peer, se sont mis à payer pour accéder à des oeuvres sur Internet. En 5 ans, Megaupload a engrangé 150 millions de dollars grâce à ses comptes premium, facturés entre 10 et 80 euros.

Reste à faire en sorte que ces revenus potentiels reviennent aujourd’hui aux créateurs. C’est l’enjeu de la mise en place d’une offre légale structurée et efficace. Mais là encore, la partie est loin d’être gagnée. Si elle existe pour la musique, avec Itunes, Spotify ou Deezer, pour ne citer qu’eux, elle demeure lacunaire en matière de films et de séries. Sur Megaupload, il était possible de regarder une émission le lendemain de sa diffusion aux Etats-Unis. Pour légaliser cette éventualité, les ayant droits devront accepter de revoir la chronologie traditionnelle des médias, ou accepter la mise en oeuvre d’autres mécanismes de rémunération, comme la licence globale.

Options rejetées, pour le moment.

]]>
http://owni.fr/2012/01/21/megaupload-internet-apres/feed/ 60
Neutralité du net: vers un faux débat ? http://owni.fr/2010/08/10/neutralite-du-net-vers-un-faux-debat/ http://owni.fr/2010/08/10/neutralite-du-net-vers-un-faux-debat/#comments Tue, 10 Aug 2010 11:12:09 +0000 Astrid Girardeau http://owni.fr/?p=24332 Internet est l’interconnexion de 64511 réseaux publics routés par le protocole IP. Et le principe de la neutralité veut que, sur ce réseau, tout contenu, service et application doivent circuler à la même vitesse, sans restriction ni discrimination de la part des tuyaux (opérateurs et fournisseurs d’accès Internet), quels que soient leur source, destination et objet.

En France, depuis quelques mois, rapports, auditions, et consultations se succèdent et s’accumulent à tous niveaux : ministères, autorités, parlement. Seule réelle urgence à l’agenda : la transposition du Paquet Télécom adopté par le Parlement Européen en novembre 2009. Les États membres doivent avoir transposé et publié la nouvelle réglementation en droit interne au plus tard le 25 mai 2011.

Aujourd’hui, le gouvernement semble vouloir aller vite, et légiférer bien au-delà de la seule question de la neutralité du net. Le danger est qu’il veuille satisfaire un peu tous les acteurs (opérateurs, ayants-droits, fournisseurs de contenus, État, etc.), aille dans l’urgence, et sorte un texte compliqué qui oublie ou porte atteinte aux fondamentaux. Pourtant, à partir du moment où certains principes sont respectés, une grande partie des débats est évacuée.

Rapports, consultations et… rapports

En mars dernier, le CGIET (Conseil général de l’industrie, de l’énergie et des technologies) rattaché à Bercy, remet son rapport «La neutralité dans le réseau internet» (pdf). Il est suivi en avril par le colloque “Neutralité des réseaux” (pdf), puis en mai par la consultation publique de l’ARCEP (Autorité de Régulation des Communications Electroniques et des Postes), dont les propositions n’ont toujours pas été publiées. Parallèlement, en mars, le ministère de la culture, via la DGMIC (Direction Générale des Médias et des Industries Culturelles), lance un appel à propositions. Une étude était “attendue” fin avril ; la DGMIC n’a pas répondu à notre demande d’informations à ce sujet.

De son côté, en février, la secrétaire d’État à l’économie numérique Nathalie Kozuiscko-Morizet s’entoure d’un “panel d’experts” et ouvre une consultation publique, dont les résultats ont été publiés en juin. Ceci pour alimenter un rapport demandé par le Parlement. Via un amendement, proposé par la députée Laure de la Raudière (UMP), rapporteur de la loi sur la fracture numérique de novembre 2009. Le 1er août sur Twitter, NKM annonce que ce rapport a été remis la veille aux parlementaires. Elle commente : «Des pistes intéressantes. A discuter à la rentrée». Le rapport n’a pas été publié. Ce sont les députés qui décideront de le rendre ou non public . «Logiquement cela devrait être le cas mais plutôt en septembre car c’est une décision collégiale» a commenté NKM.

De la neutralité du net au filtrage

Samedi dernier, Libération, qui s’est procuré le rapport, en “résume les principales lignes”, développées hier sur Écrans. Elles sont nombreuses, et peu limpides. En clair, ça part dans tous les sens, et loin de la seule question de la neutralité du net.

Pour commencer le rapport ne se limite pas à la neutralité du net, mais englobe la neutralité des réseaux. Internet donc, mais aussi les services de téléphonie, les services audiovisuels, etc. Si tous ces services sont livrés en technologie IP et débouchent sur un même point de terminaison, chacun a ses spécificités (techniques, économiques, etc.). Et donc la première question est de savoir dans quelles mesures le gouvernement compte différencier les pratiques, et réguler ces différents services.

Par exemple, à propos des réseaux mobiles, Libération explique que le gouvernement n’a rien à redire aux limites imposées par les opérateurs telle “l’interdiction des échanges en peer to peer, la consultation des vidéos en streaming ou de la téléphonie sur le web”. Mais à condition que ces restrictions respectent les principes de “transparence et de non-discrimination” écrit le quotidien. “Interdiction” mais “non-discrimination” ?

Il n’exclue pas la mise en œuvre d’offres différenciées” (sur les mobiles seulement selon Libé, partout selon Écrans). Sur Internet, cela signifierait la fin de l’accès illimité (et d’offres simples) pour tous avec un saucissonnage des offres dont la tarification pourrait varier selon le trafic, le débit, ou la qualité des services.

Aussi le rapport estime que la «seule réponse efficace à l’augmentation du trafic à moyen et long terme » est «l’investissement dans de nouvelles infrastructures». Mais encore ? La question auquel le gouvernement va devoir répondre est qui va payer et sous quelle forme : les opérateurs, les fournisseurs de services (dont Google au premier plan), l’État, les abonnés, etc. ?

Le rapport ne s’arrête pas là. Et déborde sur les services. A propos des “moteurs de recherche” et de leurs “algorithmes secrets”, écrit Libération,  “les auteurs préconisent que le gouvernement saisisse la Commission européenne pour aborder la question hypersensible de la neutralité des référencements. Il s’agit encore d’un autre débat — dénommé “search neutrality” aux États-Unis — qui vise essentiellement Google. Et qualifié d‘”asburde” par certains commentateurs outre-atlantique. Les algorithmes étant, selon eux, par nature non-neutres. Comme le note ZDnet, ce point a été soulevé par Orange dans sa réponse à la consultation de NKM. L’opérateur écrit : “90% des recherches (…) en France sont ordonnancées selon les critères de l’algorithme d’un moteur de recherche particulier. C’est sur cet ordonnancement qu’est fondé le modèle économique du moteur. Il est donc difficile de ne pas s’inquiéter de la neutralité de la sélection des informations proposée aux Internautes par ce moteur”.

Transposition du Paquet Télécom

Parallèlement, en mai dernier, la DGCIS (Direction générale de la compétitivité, de l’industrie et des services), rattachée à Bercy, lance une consultation publique sur le projet de dispositions législatives de transposition (pdf) en droit français du Paquet Télécom. En plus d’un règlement, ce dernier est composé de deux directives dont certains articles concernent la neutralité. Une proposition de transposition a été présentée en conseil des ministres, et le processus législatif devrait être lancé à la rentrée. Ceci afin de respecter le calendrier, soit avoir transposé la nouvelle réglementation avant le 25 mai 2011.

Le gouvernement a trois solutions. Soit un projet de loi “normal” examiné par les deux chambres. Soit utiliser les ordonnances, qui lui permettent de prendre directement, et rapidement, des mesures relevant du législatif. Soit encore opter pour une méthode mixte. C’est-à-dire déposer un projet de loi “normal” composé de dispositions législatives ainsi que d’articles d’habilitation. Cette dernière solution semble privilégiée. “On est assez pressé” nous indique le cabinet de NKM. “Et la transposition est très technique et essentiellement réglementaire, elle ne donne pas énormément de marges de manœuvre“. Tout en soulignant que ça sera au Parlement de décider.

Ensuite, si le Parlement juge que la transposition n’est pas suffisante, il pourra, dans un deuxième temps, décider d’aller plus loin en déposant une proposition de loi ou de résolution. Ce qui, d’après la députée Laure de la Raudière, est prévu par la majorité. “Le groupe UMP a prévu de travailler sur une PPL sur la neutralité du net à la rentrée” écrit-elle sur twitter. Ce à quoi le député Lionel Tardy répond : “Faudra bousculer l’agenda…” Selon différentes sources, vu l’agenda parlementaire, cela ne devrait pas être débattu avant la fin de l’année ou début 2011.

Que dit le Paquet Télécom ?

Le Paquet Télécom se limite “essentiellement à la transparence, et au renforcement du rôle” des autorités nationales réglementaires (l’ARCEP donc en France), commente la cabinet de NKM.

En effet, la directive (2009/136/CE) n’interdit pas la discrimination si c’est fait de manière transparente : “les utilisateurs devraient, en tout état de cause, être pleinement informés de toute limitation imposée par le fournisseur de service et/ou de réseau quant à l’utilisation de services de communications électroniques. Ces informations devraient préciser, au choix du fournisseur, soit le type de contenu, d’application ou de service concerné, soit des applications ou services déterminés, soit les deux”.

De son côté l’article 8 de la directive (2009/140/CE) dit : en favorisant la capacité des utilisateurs finaux à accéder à l’information et à en diffuser, ainsi qu’à utiliser des applications et des services de leur choix.» Cet article a été particulièrement débattu au Parlement Européen. Lors de sa première lecture, il assurait une garantie, affirmant : “les utilisateurs finaux doivent pouvoir accéder, diffuser, et utiliser. Dans la version adoptée, les opérateurs ont juste à “favoriser”. Il parlait aussi de limiter ces principes aux contenus/applications/services licites. Ce qui a finalement été supprimé, mais ne manquera sûrement pas de réapparaître dans le cadre de la consultation lancée fin juin par la Commission Européenne.

La neutralité peut-elle être non neutre?

De même, en France, de Brice Hortefeux“Le respect du principe de neutralité des réseaux ne s’applique pas aux sites illicites“‘ — à Pascal Rogard, le directeur de la SACD (Société des Auteurs et Compositeurs Dramatiques ) – «Je n’ai pas de définition de la Net neutralité. Par contre je sais que la Net neutralité ne peut pas être la Net impunité” — certains souhaitent limiter la neutralité aux seuls contenus licites.

Ce que soutient le rapport de NKM : «les agissements illicites (…) doivent être poursuivis et sanctionnés, ce qui peut impliquer la mise en place de dispositifs de filtrage ou de blocage de certains contenus». Parmi ces “agissements illicites”, on retrouve pèle-mêle : “fraudes et escroqueries, délits de presse, atteintes à la vie privée, contrefaçon, piratage des œuvres protégées par le droit d’auteur, diffusion de contenus pédopornographiques, etc.” Pas très surprenant. Le gouvernement croit avoir trouvé dans le filtrage/blocage — et plus particulièrement dans le DPI (Deep Packet Inspection) – le bouton pour contrôler Internet.

Pour d’autres, comme Benjamin Bayart, président du fournisseur d’accès Internet FDN, c’est un contre-sens. Il écrit : cela “revient à supposer que le réseau est capable, en regardant un paquet IP, de décider de la licéité du contenu, et, ayant à coup sur reconnu un contenu illicite, il peut décider d’en faire n’importe quoi. Ce qui revient à supposer que le réseau n’est pas neutre du tout, et analyse très en profondeur tout ce qu’il voit pour décider de ce qu’il fait”. Il ajoute : “Internet n’est qu’un outil. On ne peut pas demander à un outil d’empêcher un usage. (..) La bonne formulation est: le réseau Internet étant par nature neutre, et donc permettant de transporter tous les contenus, comment lutter contre les contenus illégaux ?”

Le secret des correspondances, principal principe ?

Derrière les questions techniques, économiques, stratégiques qui divisent les différents acteurs, se pose un principe central. Celui de la vie privée et du secret de la correspondance des citoyens.

Comme le fait remarquer l’avocat Olivier Iteanu, la neutralité par les opérateurs n’est pas une notion nouvelle dans le droit français. Elle y est même fortement ancrée depuis des décennies. Et souvent associée à celui de confidentialité. Par exemple, l’article 32-1-II-5 du Code des postes et Communications Électroniques parle du “respect par les opérateurs de communications électroniques du secret des correspondances et du principe de neutralité au regard du contenu des messages transmis».

Le secret des correspondances est plus ancien encore. On peut citer Mirabeau et l’arrêté du 5 décembre 1789 selon lequel : “ le secret des lettres doit être constamment respecté”. Aujourd’hui, ce droit, et ses exceptions, sont encadrés par un certain nombre de textes (articles 226-15 et 432-9 du Code Pénal, article L 33-1 du Code des Postes et des Communications électroniques, etc.).

Or, à la discrimination de l’accès et — selon les termes du rapport NKM — au «traitement différencié de certains flux», s’oppose ce droit simple du secret des correspondances. Par exemple, sur le réseau public qu’est Internet, utiliser le DPI à des fins de filtrage, de blocage, de profiling ou de QoS (Quality of Service) implique d’ouvrir tous les paquets IP transitant sur le réseau. En dehors du fait que le réseau français, maillé et décentralisé, n’est pas conçu pour ça, ouvrir les paquets implique d’un côté la responsabilité des opérateurs de l’usage fait par les internautes du réseau, et de l’autre l’atteinte au secret des correspondances des internautes.

Et donc ?

Actuellement, la neutralité est présentée comme terriblement complexe. Noyée sous une multiplicité de paramètres et d’enjeux (coût des infrastructures, pratiques d’interconnexion, services managés, licité des contenus, etc.) certes importants, mais qui sont des éléments séparés ou rapportés à la question de la neutralité du réseau Internet.

C’est pourtant assez simple.

Il s’agit de garantir qu’Internet reste ouvert, libre, neutre, une source d’innovation et de création et un marché concurrent. Soit avant tout s’assurer que les FAI ne privilégient ni ne discriminent pas certains contenus, services et applications. D’un côté, cela implique de comprendre et préserver l’infrastructure d’Internet (dite “de bout à bout”) où l’intelligence est aux extrémités non au cœur du réseau. C’est-à-dire que les tuyaux sont “bêtes” et servent uniquement à acheminer le trafic. Et que les FAI ne sont pas responsables de ce qui y circule. De l’autre côté, cela veut dire que les FAI sont par contre responsables de leurs pratiques, et de leurs abus. Et cela peut être facilement énoncé par la loi.

Donc à partir du moment où le secret des correspondances est respecté, et ces principes (tuyaux “bêtes”, non-responsabilité des FAI sur les usages, mais responsabilité des pratiques devant la loi), cela évacue une grande partie des débats.

——–

Crédits Photos CC FlickR paltelegraph

]]>
http://owni.fr/2010/08/10/neutralite-du-net-vers-un-faux-debat/feed/ 29
Benjamin Bayart : “Internet permet à chacun de construire le savoir de l’humanité” http://owni.fr/2009/11/09/benjamin-bayart-internet-permet-a-chacun-de-construire-le-savoir-de-l%e2%80%99humanite/ http://owni.fr/2009/11/09/benjamin-bayart-internet-permet-a-chacun-de-construire-le-savoir-de-l%e2%80%99humanite/#comments Mon, 09 Nov 2009 17:42:40 +0000 aKa (Framasoft) http://owni.fr/?p=5328 La neutralité du réseau de Benjamin Bayart (extrait du livre La bataille Hadopi)

« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre chorale d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

» Article initialement publié sur Framasoft

» Les licences sont Creative Commons By-Sa et Art Libre

]]>
http://owni.fr/2009/11/09/benjamin-bayart-internet-permet-a-chacun-de-construire-le-savoir-de-l%e2%80%99humanite/feed/ 3