Overblog
Suivre ce blog Administration + Créer mon blog

Présentation

  • : Algérie Pyrénées - de Toulouse à Tamanrasset
  • : L'Algérie où je suis né, le jour du débarquement des Américains, le 8 novembre 1942, je ne l'oublierai jamais. J'ai quitté ce pays en 1962 pour n'y retourner que 42 ans plus tard. Midi-Pyrénées m'a accueilli; j'ai mis du temps pour m'en imprégner...mais j'adore
  • Contact

De Toulouse à Tamanrasset

 

cirque-de-gavarnie.jpg

Le cirque de Gavarnie

L'Algérie, j'y suis né le jour du débarquement des Américains, le 8 novembre 1942. J'ai quitté ce pays merveilleux en 1962, pour n'y retourner qu'en août 2004, soit 42 ans plus tard...
Midi-Pyrénées m'a accueilli. J'ai mis du temps pour m'imprégner de Toulouse mais j'ai de suite été charmé par ce massif montagneux et ses rivières vagabondes que je parcours avec amour...Ah ces chères Pyrénées, que je m'y trouve bien ...! Vous y trouverez de nombreux articles dédiés à cette magnifique région et la capitale de Midi Pyrénées : Toulouse
L'Algérie, j'y suis revenu dix fois depuis; j'ai apprécié la chaleur de l'accueil, un accueil inégalé de par le monde.......L'espérance d'abord ...Une relative désillusion ensuite...Pourquoi alors que le pays a un potentiel énorme...Les gens sont perdus et ne savent pus que faire....Les jeunes n'en parlons pas, ils ne trouvent leur salut que dans la fuite....Est-il bon de dénoncer cela? Ce n'est pas en se taisant que les choses avanceront.
Il y a un décalage énorme entre la pensée du peuple et des amis que je rencontre régulièrement et les propos tenus dans les divers forums qui reprennent généralement les milieux lobbyistes relayant les consignes gouvernementales...
Les piliers de l'Algérie, à savoir, armée, religion et tenants du pouvoir sont un frein au développement de l'Algérie ....Le Pays est en veilleuse....Les gens reçoivent des ….sucettes...Juste le nécessaire... pour que ....rien nez bouge....
Pourtant des individus valeureux il y en a ....Mais pourquoi garder des élites qui pourraient remettre en cause une situation permettant aux tenants des institutions de profiter des immenses ressources de l'Algérie. Le peuple devenu passif n'a plus qu'un seul espoir : Dieu envers qui il se retourne de plus en plus...Dieu et la famille, cette famille qui revêt une importance capitale en Algérie.

Le vent de la réforme n'est pas passé en Algérie tant les citoyens sont sclérosés dans les habitudes et les traditions relevant des siècles passés....La réforme voire la révolution passera....à l'heure d'Internet, on ne peut bâillonner le peuple indéfiniment...Cela prendra du temps mais cela se ferra...
Pour le moment le tiens à saluer tous les amis que j'ai en Algérie et Dieu sait que j'en ai....C'est pour eux que j'écris ces blogs, quand bien même je choisis souvent mes articles dans la presse algérienne....pour ne pas froisser la susceptibilité à fleur de peau de l'Algérien...

Cordialement,
Le Pèlerin

 

 

 

 

Recherche

Archives

10 mai 2010 1 10 /05 /mai /2010 07:30

Hadopi revoit sa communication et tente de ménager la chèvre et le chou

antipiratage.jpg

 

Analyse - Après l’urgence et l’envoi massif d’avertissements, le discours change pour tenter de faire cohabiter deux valeurs : protection et innovation. Le traitement automatique enfin devient une procédure manuelle et un arbitrage par les 3 magistrats de la Commission de la protection des droits. Décryptage.

Entre l'examen de la loi Création et Internet au Parlement et la mise en place effective de la Haute autorité (la Hadopi), et jusqu'à la conférence de presse du 3 mai, le discours officiel paraît avoir été remanié en profondeur.

La dramatisation des débuts (pertes d'emplois, chute de 50% en 5 ans du marché de la musique, 400.000 à 500.000 films piratés chaque jour) a peu à peu été évacuée de la communication officielle.

En février 2009, l'industrie était sinistrée à cause du piratage

L'objectif était alors clair, s'adresser à l'industrie de la musique (et exclusivement à cette dernière), quitte à stigmatiser l'internaute français, pirate devant l'éternel. Et face à l'urgence (justifiée par des chiffres fournis par le secteur de la musique et du cinéma), Christine Albanel, alors ministre de la culture, voyait les choses en grand, en très grand même.

En février 2009, il y a donc désormais plus d'un an, elle annonçait l'envoi par la Hadopi de 10.000 emails d'avertissements par jour, 3.000 lettres recommandées et 1.000 décisions (suspension d'accès par exemple) quotidiennes.

La censure du texte par le Conseil constitutionnel ne viendra pas totalement à bout de la volonté du gouvernement d'afficher ses muscles. Le ministère de la Culture tente de masquer un échec et annonce que neuf tribunaux de grande instance en région, spécialisés dans les dossiers de téléchargement, seront créés.

De 1000 suspensions d'accès on passe à une dizaine

Dans le même temps, les objectifs chiffrés fondent. Une dizaine de coupures par jour sont désormais visés (50.000 dossiers par an est un chiffre également cité). Quant au dispositif de riposte graduée, présenté jusqu'alors seulement sous un angle répressif, il s'orne dans la communication officielle de vertus pédagogiques.

Après l'introduction d'une infraction pour négligence caractérisée passible d'une amende, voire d'une coupure de l'accès à Internet, les qualités pédagogiques d'Hadopi ne convainquent pas vraiment.

Le 3 mai, à l'occasion d'un point d'étape organisé dans les locaux de la nouvelle autorité administrative, la volonté était d'arrondir encore mieux les angles et de véhiculer des valeurs plus positives.

Sans juger de sa sincérité, il est clair que le discours a changé. Mais on pourrait alors reprocher à la Hadopi de vouloir ménager la chèvre et le chou en se disant prête à sanctionner les téléchargements illégaux partout (aussi bien sur le P2P que le streaming et les autres médias) tout en se voulant rassurante en garantissant que les avertissements feront l'objet d'un examen attentif par la commission de protection des droits.

La Hadopi se veut un organe de dialogue et d'ouverture

Avant de démarrer ses missions, la Hadopi tente de se racheter une image, notamment auprès de la presse à qui elle semble reprocher de ne véhiculer que des messages négatifs la concernant. « Hadopi se veut, elle est, elle se doit être bien autre chose que l'image qu'un peu rapidement à mon sens vous tentez de donner d'elle » a annoncé la présidente, Marie-Françoise Marais.

« Quand on parle Hadopi, cela veut dire sanction, flicage, liberticide [...] Je pense que ce n'est pas tout à fait cela. Certains ont même dit que j'étais la mère fouettard du Net » a-t-elle défendu, elle qui s'est volontiers présentée comme une « bouillonnante sexagénaire » conviant les médias à une « conversation avec mamie au coin du feu. »

Evacué donc le répressif, la Hadopi devient pour sa présidente « une autorité de régulation indépendante qui est capable de veiller, explorer, orienter, mais également de dialoguer, de rassembler, et pour se faire de devenir une force de proposition ». Et ce, en se donnant deux valeurs maîtresses : la protection et l'innovation.

Hadopi devient « une troisième voie » avec deux missions, « protéger et promouvoir » a expliqué le secrétaire général de la Hadopi. Une main de fer dans un gant de velours ? Texte sous les yeux, s'efforçant de ne pas donner l'impression de lire le discours bien officiel, Eric Walter formule les commandements d'Hadopi.

« Défendre efficacement et sans faiblesse les droits de propriété intellectuelle, tout en conduisant, oui, une politique active et durable d'explication et de pédagogie sur ce que sont nos convictions et les fondamentaux de la loi. »

Trois magistrats pour plancher sur les signalements : l'envoi massif est enterré

Le nouveau visage de la Hadopi est ainsi celui de l'écoute et de l'ouverture, qui se caractériseront par l'organisation de Labs (six au total), en fait des ateliers d'observation et de discussion. Ces Labs seront animés par un intervenant extérieur, appuyé par un membre de l'autorité administrative.

Si Eric Walter assure que ces ateliers alimenteront la réflexion et le travail du collège de la Hadopi, et iront même jusqu'à influer sur ses actions, cela reste une déclaration d'intention. Rien ne permet de jurer pour le moment que ces Labs déboucheront sur des actions concrètes, ou auront simplement une influence quelconque.

Mais là où le discours a donné le sentiment d'avoir le plus évolué, c'est bien dans la procédure d'avertissement. Plus question ainsi d'expédier de manière automatique des avertissements. Ce travail devient le fruit d'un examen, au cas par cas, par la commission de la protection des droits. La procédure devient dès lors plus humaine en apparence.

La commission est « chargée de recevoir les plaintes des victimes, d'examiner ces plaintes et à tous les stades de la procédure de décider de ce qu'elle va faire. Le traitement n'est pas automatique. A chaque moment, la Commission peut faire ou ne pas faire : envoyer le premier mail, le deuxième, transmettre au Parquet. Au vu de ce que diront les destinataires des premiers ou deuxièmes mails, la commission appréciera » a décrit sa présidente, Mireille Imbert Quaretta.

« C'est une loi d'incitation, de pédagogie, et d'une certaine façon de liberté. La Hadopi va recommander des moyens de sécurisation qui seront appréciés par la commission de protection des droits. La commission, à tous les stades appréciera. Il n'y a rien d'automatique » a-t-elle ajoutée.

Toutefois, cet hypothétique revirement pourrait être un moyen de sauver la face alors que la fiabilité de l'adresse IP comme unique élément d'identification du pirate présumé est largement contestée. En effet, l'IP ne suffira pas. La présidente de la commission insiste. Elle appréciera « selon les circonstances que les gens feront valoir. »

Source ZdNet.fr

Le Pèlerin

Partager cet article
Repost0
6 mai 2010 4 06 /05 /mai /2010 23:36

Multimédias - 10 bonnes raisons d'abandonner Facebookarticle_ban_facebook-297x300.png

 

Voici notre top 10 des raisons pour lesquelles vous feriez mieux d’arrêter d’utiliser Facebook avant qu’il ne soit trop tard:

10. La politique de confidentialité de Facebook s’arroge tous les droits

Commençons par le commencement. La déclaration des droits et responsabilités de Facebook précise que vos contenus leur appartiennent (lisez la section 2.1): “vous nous accordez une licence non-exclusive, transférable, sous-licenciable, sans redevance et mondiale pour l'utilisation des contenus de propriété intellectuelle que vous publiez sur Facebook”.

9. Le PDG de Facebook s’est illustré à plusieurs reprises pour comportement non éthique

Des questions se posent sur l’éthique de Mark Zuckerberg depuis les débuts de Facebook. D’après BusinessInsider.com, il a utilisé des données utilisateurs de Facebook pour deviner des mots de passe d’e-mails et lire des correspondances privées pour discréditer ses rivaux.

Ces allégations, si elles n’ont pas été prouvées et datent un peu, posent néanmoins des questions troublantes sur l’éthique du PDG du plus gros réseau social au monde. C’est d’autant plus gênant que Facebook a par ailleurs déboursé plus de 65 millions de dollars pour mettre fin à une poursuite judiciaire arguant que Mark Zuckerberg aurait volé l’idée de Facebook.

8. Facebook a déclaré la guerre à la vie privée

Le fondateur et PDG de Facebook justifiait en janvier dernier les changements relatifs à la vie privée sur Facebook en expliquant que: “les gens sont devenus vraiment à l’aise avec le fait de partager non seulement plus d’information, mais aussi de manière plus ouverte et avec plus de gens. Cette norme sociale est simplement quelque chose qui évolue au fil du temps”.

En d’autres termes, non seulement vos données appartiennent à Facebook, mais en plus ils ont le droit de les montrer à tout le monde. En soi, ce n’est pas nécessairement non éthique, sauf que…

7. Facebook encourage l’accès à vos données

Ils expliquent aux développeurs comment accéder à vos données avec les API, mais sont beaucoup moins diserts quand il s’agit d’en expliquer les implications aux utilisateurs. Facebook vous incite à partager des informations qu’ils rendent ensuite disponibles publiquement.

Dans la mesure où leur fonds de commerce consiste à monétiser les informations vous concernant dans un but publicitaire, cela revient à gruger les utilisateurs pour qu’ils fournissent des informations à propos d’eux-mêmes aux publicitaires. Voilà pourquoi Facebook est bien pire que Twitter: Twitter a adopté l’attitude la plus simple (et donc la plus crédible) en déclarant tout de go que tous les tweets de tous les utilisateurs étaient publics. Difficile d’être plus clair. Mais pas Facebook. Voilà pourquoi la FTC américaine s’en mêle et les gens les poursuivent (et obtiennent gain de cause).

L’EFF a dressé un excellent historique qui documente précisément les changements de la politique de confidentialité de Facebook.

6. Facebook ne veut pas que ça se sache

Lorsque Pete Warden a démonté à quel point leur système fonctionne (en fouillant parmi toutes les données que les changements de paramétrage de vie privée de Facebook avaient rendues publiques) ils l’ont poursuivi en justice. Pourquoi poursuivre un développeur indépendant? Parce qu’ils ne veulent pas que leurs membres sachent à quel point leurs données sont accessibles.

5. Même vos données privées sont partagées avec les applications

A l’heure actuelle, toutes vos données sont partagées avec les applications que vous installez. Ce qui signifie que vous faites non seulement confiance à Facebook, mais aussi aux développeurs d’applis. Sachant que bon nombre d’entre eux n’ont pas nécessairement votre vie privée comme priorité. En clair, vous devez considérer que vos données -toutes vos données- sont publiques, sauf si vous n’utilisez jamais aucune appli Facebook. Couplé avec l’API OpenGraph, cela signifie que vous ne faites plus simplement confiance à Facebook, mais à tout l’éco-système Facebook.

4. Facebook n’est pas assez compétent techniquement pour qu’on leur fasse confiance

Au delà des questions éthiques, la compétence technique de Facebook ne parait pas suffisante pour pouvoir leur confier des données personnelles. Leur récent bouton “Like” a facilité la tâche des spammeurs. Et ce n’est pas la première fois que Facebook est considéré comme une pépite pour la collecte de données.

Soit ils se fichent un peu du caractère privé de vos données, soit leurs ingénieurs ne sont pas très bons. Ou peut-être les deux.

3. Facebook rend incroyablement difficile la suppression de votre compte

Le jour où vous décidez d’arrêter Facebook, le site ne vous facilite pas la tâche. Ceux qui ont tenté l’expérience savent qu’il n’est plutôt pas évident de vraiment détruire son compte. C’est aussi compliqué que probablement volontaire. De guerre lasse, vous accepterez peut-être de désactiver votre compte. C’est différent d’une suppression pure et simple. Désactiver s’apparente à une déconnexion prolongée, pendant laquelle vos données restent dans le système.

2. Facebook n’aime pas vraiment le web ouvert

Leur API Open Graph n’a d’open que le nom, comme pour mieux dissimuler sa nature fermée. Elle est en réalité complètement propriétaire. Vous ne pouvez utiliser aucune de ses fonctionnalités si vous n’êtes pas sur Facebook. Une implémentation véritablement ouverte fonctionnerait sur n’importe quel réseau social. Dans le même esprit, ils implémentent a minima OpenID pour pouvoir dire qu’ils le supportent, juste pour mieux promouvoir leur alternative propriétaire,  Facebook Connect.

1. Facebook ne sert à rien

Entre les applis pourries, les vieux camarades de classe dont vous n’avez surtout pas envie d’entendre parler et les boulets dont vous aviez oublié l’existence, Facebook est plus pénible qu’utile au quotidien.

Source 20minutes.fr

Le Pèlerin

Partager cet article
Repost0
24 avril 2010 6 24 /04 /avril /2010 07:50

Téléchargements - Plusieurs ayants droit ont adressé leur dossier à la Cnil...

antipiratage.jpg

 

Pour envoyer des avertissements aux internautes, encore faut-il les prendre en flagrant délit de téléchargement illégal. Pour cela, le prestataire nantais TMG a été mandaté afin de collecter les adresses IP de ceux téléchargeant sur des réseaux peer-to-peer comme eMule ou bitTorrent.

Subtilité, les ayants droit doivent obtenir l'autorisation de la Commission nationale de l'informatique et des libertés (Cnil) afin de pouvoir recourir aux services de TMG pour une collecte automatisée. C'est chose faite, d'après le numéro d'Edition Multimédi@ à paraître lundi 26 avril, pour quatre d'entre eux: la Sacem, la SCPP (majors du disque), la SPPF (labels indépendants) et l'Alpa (audiovisuel). Une information confirmée par 01net auprès de la Cnil. Selon le site spécialisé, chaque acteur a fait une demande séparée afin d'éviter le risque d'un refus global.

Les premières lettres d'avertissement doivent être envoyées à partir du 22 juin. Mais depuis quelques jours, plusieurs acteurs français du logiciel eMule ont publié des listes de fichiers qui seraient déjà surveillés par TMG. Contacté par NouvelObs.com, Trident Media Guard dément formellement et affirme «qu'aucun dispositif n'a été mis en place». Qu'à cela ne tiennent, fn face, la riposte s'organise déjà.

Source 20minutes.fr

Le Pèlerin

Partager cet article
Repost0
18 mars 2010 4 18 /03 /mars /2010 11:02

Multimédias - Google et Intel à l'assaut de votre téléviseur
TVGoogle-copie-1.jpg

Selon le «New York Times», les deux travaillent main dans la main avec d'autres partenaires...
Android poursuit sa conquête. L'été dernier, on se demandait combien de temps il faudrait avant de voir le système d'exploitation open source de Google s'attaquer au canapé. Après les téléphones portables, les netbooks et les tablettes, Android va donc tenter de se faire une place dans le salon.
Selon le New York Times, Google travaille notamment avec Intel et Sony pour intégrer son système à des téléviseurs. Soit directement dans le poste, transformé en ordinateur light avec un processeur Atom, soit dans des «box» ou des lecteurs Blu-Ray. Logitech fournirait une télécommande équipée d'un mini-clavier.
Google arrive sur un créneau encombré. Lors du CES 2010 à Las Vegas, pas un constructeur qui ne proposait son modèle de TV connectée. De quoi donner accès à des applications optimisées pour le grand écran comme Twitter, YouTube ou Flickr. Les experts s'attendent à une croissance de 95% du marché cette année.
Tout le monde sur le créneau
Intel s'était déjà allié à Yahoo pour proposer des widgets (petit modules graphiques), mais le système a plutôt fait un flop. Aux Etats-Unis, des start-ups comme Roku et Boxee ont réussi à créer un certain buzz avec des interfaces ultra intuitives –bien plus qu'en connectant son ordinateur à sa télé. Microsoft, via la XBOX 360 ou Apple avec son Apple TV sont également sur le créneau. Au CES, Samsung a annoncé le lancement d'une vaste plateforme d'apps ouverte aux développeurs.
Cette relative fragmentation et jeunesse du marché pourrait être à l'avantage de Google. Sony sera le premier à intégrer Android dans un téléviseur, mais il ne s'agira pas d'une exclusivité: Android (ou Chrome OS) étant open source, chaque constructeur sera libre de customiser le système selon ses besoins. Si Google parvient à se faire une place dans le salon, il serait en position de force pour étendre son emprise sur le marché de la publicité en ligne.
«Big G» dans votre téléviseur, ça vous fait peur?
Source 20mintes.fr Philippe Berry
Le Pèlerin

Partager cet article
Repost0
16 mars 2010 2 16 /03 /mars /2010 00:25

Une première évaluation conteste l’efficacité de la loi Hadopi
antipiratage.jpg

Législation - D’après une étude conduite par des chercheurs français, 15% d’utilisateurs du P2P y ont renoncé suite au vote d’Hadopi. Mais dans les faits le téléchargement s’est simplement reporté sur le streaming et l’hébergement de fichiers comme Rapidshare. En outre, les "pirates" seraient les premiers acheteurs de contenus légaux.
Plusieurs études ont déjà contesté la pertinence de la riposte graduée pour lutter contre le piratage de musiques et de films. Selon une évaluation sur les premiers effets de la loi Hadopi publiée par des chercheurs de l'université Rennes 1 et le groupement d'Intérêt scientifique M@rsouin, l'impact du dispositif français serait peu perceptible.
D'après les auteurs de l'étude (réalisée sur la base d'entretiens téléphoniques entre le 16 novembre et le 23 décembre 2009 auprès de 2 000 individus représentatifs de la population de la Région Bretagne), l'application d'Hadopi pourrait même produire un effet inverse à celui escompté.
Les pirates sont plus nombreux (+3%) depuis le vote d'Hadopi
Comme démontré à plusieurs reprises déjà, l'étude signale que les « pirates numériques » (d'après la terminologie employée dans l'étude), sont pour la moitié d'entre eux des acheteurs de biens numériques.
« Couper la connexion Internet des utilisateurs de réseau Peer-to-Peer pourrait potentiellement réduire la taille du marché des contenus culturels numériques de 27%. Une extension de la loi Hadopi à toutes les formes de piratage numérique exclurait du marché potentiellement la moitié des acheteurs de contenus culturels numériques » estiment les auteurs.
Mais les résultats de ces recherches vont au-delà de ce simple constat, connu et systématiquement nié par les partisans de la loi Hadopi et par l'industrie musicale et cinématographique. Si les chercheurs reconnaissent que la loi peut encore produire des effets (dès l'envoi des premiers avertissements notamment), ils jugent qu'à ce jour l'impact sur les pratiques de téléchargement est minime.
« A peine 15% des internautes qui utilisaient les réseaux Peer-to-Peer avant l'adoption de la loi Hadopi ont définitivement cessé de le faire depuis » peut-on découvrir dans l'étude. Mais aussi que « Bien que le nombre d'internautes fréquentant les réseaux Peer-to-Peer ait diminué, le nombre de « pirates numériques » a légèrement augmenté depuis le vote de la loi Hadopi. »
Le piratage s'est reporté sur le streaming illégal (20%) et l'hébergement de fichiers (9%)
Loin de mettre un terme au piratage, Hadopi, focalisé sur le P2P, a généré une évolution des pratiques, et plus précisément le basculement du piratage sur d'autres sources comme le streaming (par exemple allostreaming) et  le téléchargement sur des sites d'hébergements de fichiers (megaupload, rapidshare,...).
Interrogés sur leur consommation de vidéo et de musique sur Internet, ils sont 20% à utiliser des sites de streaming vidéo illégaux, 9% de l'hébergement de fichiers et 14% téléchargent via le P2P. Les pirates au sens Hadopi (appelés pirates Hadopi dans l'étude) ne représentent donc que 14% des 2000 personnes sondées.
Parmi les pirates Hadopi, 40% ont recours à d'autres sources de contenus, c'est-à-dire le streaming illégal et/ou le téléchargement sur des services d'hébergement comme MegaUpload. D'ailleurs bien peu d'internautes qui téléchargeaient via le P2P ont été influencé dans leur comportement par l'adoption d'Hadopi.
D'après l'étude « seulement un tiers a renoncé à toute forme de piratage numérique, alors que les deux tiers restant se sont tournés vers des pratiques alternatives de piratage. »
47% des pirates au sens Hadopi sont acheteurs de biens numériques
Mais le point le plus important de l'étude est probablement celui relatif à l'achat légal sur Internet. « La moitié des acheteurs de vidéo/audio sur les plates-formes légales appartiennent à la catégorie des pirates. En supposant que les internautes ne modifient pas leur comportement, la loi Hadopi conçue pour soutenir les industries culturelles pourrait paradoxalement, en coupant la connexion Internet des adeptes du Peer-to-Peer, éliminer 27% des acheteurs de vidéo et de musique sur Internet. »
Si comme le souhaite les Pro-Hadopi, la riposte graduée est étendue à d'autres sources que le P2P, l'impact financier négatif pour l'industrie pourrait encore s'amplifier. « En poussant plus loin le raisonnement, une coupure de l'accès Internet de tous les pirates réduirait le nombre des acheteurs de vidéo et de musique sur Internet de moitié. »
Les chercheurs enfoncent encore le clou en distinguant plus finement  les internautes selon leur mode de consommation de contenus. On découvre ainsi que, loin d'être des radins numériques, les pirates Hadopi et non Hadopi, sont les consommateurs les plus assidus de biens numériques légaux.
En effet 47% des pirates Hadopi sont des acheteurs de biens numériques. Cette proportion est de 36% pour les pirates non Hadopi, mais de seulement 17% pour les non pirates. Un résultat qui pour les auteurs de l'étude fait du Peer-to-Peer et/ou du streaming gratuit « un moyen de découvrir et d'expérimenter des artistes ou des oeuvres pour finalement consommer plus et/ou différemment ».
Source ZDN .fr Christophe Auffray
Le Pèlerin

Partager cet article
Repost0
15 mars 2010 1 15 /03 /mars /2010 06:17

Multimédias - Ce que la Hadopi saura sur les pirates
antipiratage.jpg

Un décret d'application publié au Journal officiel le 7 mars précise les données personnelles qui seront récupérées et combien de temps elles seront conservées.

Après la présentation des membres de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi), c'est un nouvel élément concret qui a été dévoilé ce week-end : les données précises que l'autorité antipiratage pourra récupérer et conserver et les conditions dans lesquelles elle le fera.
Paru au Journal officiel le 7 mars, un décret décrit le traitement de données personnelles instauré par la loi et appelé « système de gestion des mesures pour la protection des œuvres sur Internet ». C'est ce système qui va permettre à la Hadopi d'identifier les pirates et de leur envoyer des messages d'avertissement.
Concernant l'infraction elle-même, les agents assermentés des sociétés représentatives ou de gestion de droits (Sacem, SCPP, CNC et autres) pourront enregistrer la date et l'heure de l'infraction (la mise à disposition illégale d'un fichier), l'adresse IP des internautes, leurs pseudonymes, les réseaux de peer to peer (P2P) utilisés, le nom du fichier tel qu'il apparaît sur l'ordinateur de l'internaute (de cette manière, si ce dernier a modifié le nom indiqué sur les réseaux, cela n'aura aucune incidence sur la procédure) et le FAI correspondant à l'accès grâce auquel a été commis l'acte de piratage.
On remarquera que le décret cible explicitement les réseaux de P2P et ne mentionne absolument pas les autres systèmes en vogue actuellement, comme le streaming. C'est déjà ce que laissait entendre au mois de janvier Marc Guez. Le directeur général de la Société civile des producteurs phonographiques (SCPP) expliquait alors que la société TMG aurait pour mission de surveiller les quatre réseaux de P2P les plus fréquentés, sans préciser lesquels.
Deux mois pour envoyer le premier message
Avec toutes ces informations en main, la Hadopi va pouvoir s'adresser ensuite aux FAI et leur demander le nom et les coordonnées (adresse postale et e-mail) de l'internaute soupçonné afin d'envoyer le courriel ou (s'il s'agit d'un cas de récidive) la lettre recommandée d'avertissement. Ce qui signifie aussi que ledit courriel sera à priori adressé à l'adresse fournie par le FAI, même si l'internaute privilégie dans ses usages quotidiens des webmails de type Gmail ou Yahoo!.
La Hadopi stocke aussi des données relatives aux agents assermentés. Elle relève leur nom, la date et la durée de l'agrément qu'ils ont reçu, la date de leur assermentation et l'organisme pour lequel ils procèdent aux relevés d'infraction.
Très important, le décret définit aussi les durées de conservation de tous ces éléments. « Les » durées, car il existe en effet plusieurs modalités selon la situation de l'internaute.
Les données sont ainsi conservées quatorze mois après l'envoi du premier e-mail d'avertissement et vingt mois après que la lettre recommandée a été envoyée aux pirates récidivistes, qui ont déjà eu droit au premier message. Mais la Hadopi n'expédie pas à tous les coups des messages. Si elle n'en a pas envoyé dans les deux mois, elle ne peut pas garder les données au-delà de ce délai.
Dernier élément, la Haute Autorité conserve pendant un an toutes les informations permettant de savoir si le dossier d'un internaute mis en cause par ses services a été consulté, par qui, quand et pourquoi. C'est un garde-fou classique des traitements de données personnelles, mais dont on sait très bien qu'il ne permet pas toujours d'éviter les débordements, comme avec le fichier des infractions constatées Stic
Source 01net .fr Arnaud Devillard
Le Pèlerin

Partager cet article
Repost0
15 mars 2010 1 15 /03 /mars /2010 00:13

Informatique -Tout au sujet des «Spywares» et «Spams» !Sécurisez votre PC
window-7.jpg

Aujourd’hui avec l’Internet, nous avons beaucoup de mal à garder notre ordinateur propre et stable loin des infections et des infiltrations. Pour arriver à cette «symbiose», nous vous proposons, à partir de cette édition, une série d’articles ayant pour but de sécuriser votre machine le plus possible
Les spywares
Qu’est-ce qu’un «Spyware» ou logiciel espion ?
D’une manière générale, les SpyWares sont des fichiers espions introduits dans votre ordinateur à votre insu, généralement avec l’intention première de vous soutirer de l’argent. Au pire, les logiciels espions peuvent prendre le contrôle de votre ordinateur, vous dirigeant vers des pages Web que vous ne voulez pas consulter, télécharger des choses dont vous n’avez aucun besoin, et même de collecter des adresses e-mail, mots de passe et vos informations personnelles. Mais même un cas bénin de l’infection Spyware peut être gênant. Si vous avez déjà été victime de pop up indésirables, ou d’étranges nouvelles icônes à la barre des tâches (près de l’horloge), ou si vous êtes redirigé vers une page Web étrange lorsque vous essayez de vous connecter à l’Internet, alors vous êtes bel et bien infectés. Les Spywares, pour l’essentiel, rassemblent des informations sur vous et vos habitudes en ligne, et envoient cette ces informations à des tiers. Et tout ça sans votre accord, bien évidement! Les logiciels espions peuvent provenir d’une multitude de sources différentes. Mais les Spywares se glissent principalement sur votre PC par la tromperie. Par exemple, supposons que vous recevez cet e-mail : «suite à votre demande, nous voudrons correspondre avec vous», avec un lien qui dit de cliquez dessus si c’est une erreur ou dans le cas où vous n’êtes pas d’accord. Vous serez d’accord que ce message vous a été envoyé par erreur. Pouvez-vous résister à ne pas cliquer sur le lien ? Après tout, quel mal peut-il faire? Eh bien, beaucoup en fait ! La page Web vers laquelle vous êtes redirigé essaie d’introduire quelque chose sur votre PC ! Vous verrez également un inoffensif prospectus fenêtre pop up, vous demandant de cliquer sur un bouton pour continuer. Vous cliquez sur le lien quand même, juste pour vous en débarrasser. En cliquant, c’est ce qui a infecté votre PC ! D’autres sources d’infection Spyware sont les logiciels freeware ou shareware, un système d’exploitation qui n’est pas patché et n’a pas obtenu la dernière mise à jour de sécurité, le téléchargement avec les applications peer-to peer (tels emule ou azureus) et la liste est longue ! Et ne croyez pas que votre logiciel antivirus vous protège, il ne vous sera d’aucune utilité ! Les logiciels espions ne sont pas considérés comme un virus, de sorte que votre anti-virus ne réagira pas. Le Spyware travaillera en arrière- plan comme si de rien n’était. Vous avez trouvé un site qui promet de vérifier votre PC pour l’infection des Spywares et le tout gratuitement. Tout ce que vous avez à faire est de cliquer sur un bouton pour balayer votre PC. Donc, vous téléchargez, scannez, et voilà, il a trouvé quelque chose ! Puis, brusquement, apparaît un message vous dirigeant vers un site Web marchand qui vous permet d’acquérir le logiciel. Sauf, que ce scan ne détecte pas grand chose. Ou s’il le fait, c’est toujours un «faux positif» (quelque chose qu’on vous dit dangereux, mais qui ne l’est pas). Le but est de vous faire peur pour acheter leurs logiciels. Si vous tapez «Détection des logiciels espions» dans Google, la plupart des résultats qui en ressortent sont des programmes.
Attention ! Les plus célèbres en «arnaque» sont les suivants :
SpyAxe
SpySheriff
PSGuard
WorldAntiSpy
Spy Trooper
Razespyware
SpywareNo ou SpyDemolisher
WinAntiVirus ou
WinAntiSpyware 2005
Spyware Bomber
Espérons que vous n’avez pas acquis ou installé l’une des horreurs existantes sur la liste précédente ! Si vous avez installé l’un de ces logiciels, sachez que vous êtes pratiquement sans protection contre les Spywares et au pire ces logiciels sont eux-mêmes des Spywares. Alors, ne faites confiance à personne sur la toile. La meilleure façon de se protéger contre les logiciels espions est de faire confiance à un programme fourni par des compagnies très réputées. Voici les plus connus (et gratuits) des solutions anti-spyware :
Ad-Aware (SE Personal Edition) Spybot Search and Destroy Microsoft Windows Defender Ad-Aware est probablement le plus facile à utiliser des trois. Spybot est bien, mais un peu complexe pour les débutants. Microsoft Windows Defender est très bien aussi, cependant, ce n’est pas le plus simple. Une fois que vous avez téléchargé votre logiciel anti- Spyware, vous devez l’installer sur votre PC. Après l’avoir installé, démarrez le logiciel et faites un scan complet de votre ordinateur. (Ad-Aware à un gros bouton qui dit «Scan» !) Contrairement à un logiciel antivirus, il est recommandé d’avoir plus d’une solution anti-logiciel espion sur votre PC. C’est que les logiciels espions peuvent être très tenaces et difficiles à éliminer, et les anti-Spywares trouvent rarement à 100 % les menaces. En ayant plus d’une solution, vous vous offrez plus de chances de les supprimer.
Les spams - Qu’est-ce qu’un spam?
Qui de nous, un jour, n’a pas été dérangé par les spams. Par spams, nous entendons des courriels (e-mail) non sollicités qui tentent de vous vendre des choses de nature douteuse que vous n’avez certainement pas demandé et, selon toute probabilité, dont vous n’avez aucun besoin. Tout le monde déteste le spam. Il peut encombrer votre boîte aux lettres électronique, menacer la sécurité de votre PC, essayez de vous inciter à ouvrir des pièces jointes dangereuses, et même de rendre la boîte aux lettres totalement inutilisables. Beaucoup de gens ont dû fermer plusieurs adresses e-mail à cause du spam. Comment les spammeurs mettent la main sur votre adresse email? Le spam peut provenir d’une grande variété de sources, et les spammeurs ont de nombreuses techniques pour mettre la main sur votre adresse e-mail. Voici quelques-unes :
- D’une page Web

Si vous êtes inscrit sur un forum public, et qu’à gauche, il y a votre adresse e-mail sur la page, cette dernière va certainement se retrouver dans les mains des spammeurs. Si vous avez votre propre site Web, et que vous indiquez votre adresse e-mail en texte brut, là aussi cette dernière atterrira chez les spammeurs. En fait, n’importe où sur le web où vous laisser votre adresse e-mail ! C’est une source pour les spammeurs. Si vous pouvez la voir, donc eux aussi ils le peuvent. La façon dont ils obtiennent l’adresse est la récolte. Cela se fait avec un morceau de logiciel appelé «Spider» (araignée en anglais). Le seul travail de Spider est le «chalut» (filet de pêche en forme d’entonnoir traîné par un bateau sur le fond marin ou entre deux eaux.) sur le site Web à la recherche d’adresses e-mail. Une fois que le spammeur a suffisamment d’adresses, ils peuvent les vendre à des tiers, et d’autres spammeurs.
- D’un PC infecté
Un grand nombre de virus, ces jours-ci, contiennent le code de «chalu». Si vous avez envoyé un e-mail à quelqu’un qui est infecté, et que cette personne vous a dans son carnet d’adresses, votre adresse sera envoyée au spammeur.
- De votre PC infecté
Si vous avez un virus, il y a des chances que celui-ci contienne un code pour contrôler votre e-mail. Il sera alors contacté par un autre ordinateur et recevoir une liste d’instructions et les adresses email. Ces instructions diront quelque chose comme «Envoyer l’e-mail ci-dessous pour cette liste d’adresses». Votre ordinateur ne fera pas l’envoi de milliers de courriels, mais seulement quelques-uns. C’est parce que votre PC est juste un des nombreux qui sont contrôlés par le spammeur même (appelé botnet).
-Trial and Error
Si vous avez une adresse email basée sur votre nom, et si votre nom est très répandu, alors le spammeur va simplement envoyer des e-mail en essayant de deviner la première partie.
Comment vaincre le spam ?
Vous pouvez vaincre le spam en respectant ces quelques consignes. Ne postez pas votre adresse email sur une page web, à moins que vous la déguisiez en quelque sorte. A titre d’exemple, une adresse e-mail dans ce format est très difficile pour un Spider à lire, mais assez facile pour un être humain: «m.ali @ co.m.ali» Méfiez-vous de donner votre adresse e-mail aux sites Web. Demandez-vous, y a-t-il une déclaration de confidentialité sur le site ? Ne répondez jamais à un courriel envoyé par un spammeur. Si vous le faites, vous indiquez au spammeur que l’adresse e-mail est vivante et active, la chose même qu’il recherchait ! (Rappelez-vous) le spammeur a probablement acheté sa liste à quelqu’un d’autre, et n’a aucune idée si une adresse est active ou non.) Attention au moment d’ouvrir des pièces jointes. Enregistrer le fichier sur votre disque dur d’abord, scanner avec votre logiciel antivirus et seulement ensuite, envisager de l’ouvrir. Si vous ne vous attendez pas à un e-mail avec une pièce jointe, il est plus sûr de le supprimer ! Réglez votre logiciel de messagerie pour afficher un message comme texte et non pas au format HTML. Dans Outlook Express, vous pouvez le faire en cliquant sur Outils, Options dans la barre de menu. Dans la boîte de dialogue Options, cliquez sur l’onglet Lecture. Cochez la case «Lire tous les messages en texte clair». La raison pour laquelle vous devez le faire est que les e-mails en HTML peuvent être très utiles à des spammeurs. Ils insèrent une image qui les informent que l’email a été lu, et donc que c’est une boîte de courrier électronique en direct. Envisagez d’obtenir certains logiciels anti-spam. Les meilleurs d’entre eux sont très bons pour détecter le Spam des e-mails. Voici deux que nous vous recommandons Allume SpamCatcher 4 Cloudmark Nous vous recommandons de commencer avec le premier. Si ça ne supprime pas au moins 90% des spams entrants, désinstallez-le et essayez le second !
Trois failles majeures dans IE depuis janvier 2010
En ce qui concerne Windows Server 2003 et Windows Server 2008, Microsoft rappelle que la configuration positionne par défaut sur haut le niveau de sécurité de zone dans Internet Explorer.
Ce paramétrage réduit les risques d'attaque sur les sites ne faisant pas partie de la zone de confiance. Bloggeur sur ZDNet.com, Ryan Naraine encourage par ailleurs les internautes à envisager une migration vers un navigateur alternatif, et à quelques paramétrages supplémentaires pour Internet Explorer : modification de la fonction Access Control List (ACL) sur iepeers.dll, configurer IE en niveau de sécurité élevé afin de bloquer les ActiveX, ou encore activer DEP pour IE6 SP2 et IE7. Pour Microsoft, cette nouvelle divulgation de faille fait mauvaise presse. Depuis janvier, c'est la troisième vulnérabilité de sécurité majeure dans Internet Explorer qui fait l'objet d'un bulletin d'alerte. En tout début d'année, une faiblesse d'IE6 était exploitée dans des attaques contre des entreprises américaines, dont Google. Le 1er mars, Microsoft mettait en garde les utilisateurs d'IE6, 7 et 8 contre un scénario d'attaque faisant appel à la touche F1 pour exploiter une vulnérabilité. Le 3 février, c'était une faille touchant les versions 6, 7, et 8 d'Internet Explorer, sous Windows XP.
Source zd net
Le Pèlerin

Partager cet article
Repost0
10 mars 2010 3 10 /03 /mars /2010 00:07

La fibre optique en France, ça en est où ?
fibre-optique-copie-1.jpgFibre optique

La fibre optique, cela fait bien longtemps que les français en entendent parler, mais le nombre de foyers raccordés à cette technologie est encore bien restreint. Peut-on espérer enfin avoir une connexion en fibre optique cette année ? Quelles sont les différentes technologies proposées par les opérateurs ? Nous faisons le point sur cette technologie qui traîne quelque peu les pieds sur notre territoire.
Introduction
Internet est un média jeune, mais qui grandit à toute vitesse. La preuve ? Les vitesses de connexions ont été multipliées par presque cent en moins de vingt ans. Modem 56K, Câble, ADSL… La suite ? Le très haut débit, utilisant la plupart du temps la fibre optique.
Les promesses de la technologie sont alléchantes : 100 Mb/s (soit environ 12 Mo/seconde) en download et en upload, de la haute définition à tous les étages et des offres triple play (TV-Téléphone-Internet) de plus en plus alléchantes. Mais aujourd’hui, le calendrier de déploiement reste incertain.
Deux technologies s’opposent
Les choses évoluent, lentement, mais elles évoluent. À l’heure actuelle, cinq fournisseurs d’accès proposent des abonnements très haut débit utilisant la fibre optique : Orange, Free, Numéricable, Darty et SFR-Neuf.
Au 30 juin 2009, on recensait environ 230 000 abonnés au très haut débit : 180 000 utilisant la technologie FTTLA (Fiber To The Last Amplifier soit, en français, fibre jusqu'au dernier amplificateur) de Numéricable et 50 000 le FTTH (Fiber To The Home ou fibre jusqu'au domicile) proposé par Free, Orange ou encore SFR-Neuf.
Précisons que FTTLA correspond à un lien 100% fibre qui arrive jusqu’au pied de l’immeuble, mais auquel l’utilisateur final est raccordé via un câble coaxial classique. C'est actuellement la norme la plus répandue à travers le monde pour le très haut débit.
Le FTTH, quant à lui, reste théoriquement plus performant puisque le chemin parcouru jusqu’à l’abonné est constitué exclusivement de fibre optique. Il offre 1 gbit/sec de débit, contre 100mbits/sec pour le FTTB. C'est donc cette technologie, plus intéressante à long terme, qui est utilisée par Free ou Orange. Son déploiement est, en revanche, beaucoup long et couteux.
Monofibre ou multifibre, quelles conséquences ?
Les FAI semblent relativement peu pressés d’étendre leur accès à la France entière malgré les promesses. France Telecom (Orange, donc), prévoit tout de même un investissement record sur la fibre d’ici à 2015. L’opérateur historique affirme, en effet, vouloir investir deux milliards d’euros dans le très haut débit. Un changement de cap radical, Orange ayant jusqu’à présent freiné cette technologie à cause d’un différend avec les autres opérateurs. Mais très récemment, le 23 février dernier, l’Arcep a joué son rôle d’arbitre en validant les règles qui définissent la mise en place de la fibre sous la norme FTTH.
En résultent une plus grande souplesse et la favorisation de la multifibre défendue par Free. Plus coûteuse à mettre en place que la monofibre, la multifibre permet cependant une meilleure qualité de connexions et une plus grande ouverture à la concurrence. Sa rivale, la monofibre, soutenue jusqu'à présent par France Telecom, force en effet les FAI à se partager la bande passante d'un seul et même "tuyau", alors que la multifibre permet à chaque opérateur de disposer de son propre câblage. Bref, voilà une réelle avancée dans l’accès au très haut débit, le nombre de foyers raccordés à au moins deux opérateurs ayant stagné à 5000 jusqu’à présent
Des régions dans le flou total
D’une manière générale, les FAI promettent d’accélérer les choses dans les années à venir et espèrent démocratiser le haut débit sur l’ensemble du territoire. Des promesses contrôlées par l’Arcep (l’Autorité de Régulation des Communications Electroniques et des Postes). L’organisme estime en effet à 4,5 millions le nombre de foyers situés à proximité d’un réseau de fibres optiques. De même, plus de 700 km de câbles sont désormais installés, hors agglomération parisienne. Le progrès est réel, comparé aux 300 km recensés fin 2008.
Mais l’on constate cependant que les disparités entre les régions sont grandes. Si les grandes agglomérations commencent à se voir équipées fortement en fibres, certains départements sont définitivement mieux lotis que d’autres. Sans surprise, l'Ile de France arrive largement en tête des régions les mieux équipées, quel que soit le FAI. A contrario, des départements pourtant très peuplés comme les Bouches du Rhône bénéficient surtout du soutien de SFR-Neuf pour les réseaux FTTH. Vous souhaitez savoir si la technologie est disponible chez vous ? Le mieux est de vous adresser aux opérateurs ou consulter le site Déploiement fibre.
Cette situation devrait cependant évoluer dans les années à venir. Free nous a, par exemple, précisé qu’il vient d’inaugurer des réseaux FTTH à Montpellier et Valenciennes. Numéricable, quant à lui, nous affirme que son réseau très haut débit reste le plus accessible, quelle que soit la région. Une affirmation à vérifier sur le site du fournisseur.
Au niveau européen
Ce qui est, en revanche, certain c’est que la France est à la traîne par rapport à beaucoup de ses cousins européens. Champions incontestables de l’accès à la fibre optique, la Suède et la Norvège affichent respectivement 10,9 et 10,2 % d’abonnés au très haut débit en juin 2009, d’après une enquête réalisée pour le FTTH Council Europe (http://www.ftthcouncil.eu). Viennent ensuite la Slovénie, Andorre, le Danemark et l’Islande. Loin, très loin derrière, la France ne se classe même pas dans le top 10, avec un taux d’équipement de moins de 1%. D’une manière générale, rares sont les grands pays d’Europe à être massivement présents sur le très haut débit. Il faut attendre la 11e place pour trouver l’Italie et ses 1.5% de pénétration. Ces maigres résultats sont cependant à relativiser, étant donné la faible population des pays en tête. Globalement, on constate que l’Europe est largement derrière les États-Unis et la Chine, avec « seulement » 2 millions d’abonnés à la fibre pour 13 millions de foyers raccordables.
Comment expliquer ces mauvais chiffres ? Sans doute par le fait que nous sommes en pleine période de transition. L’ADSL étant désormais bien implanté, la mise en place de son successeur coûte cher pour des résultats encore peu perceptibles pour le consommateur
Source Tom’s guide
Le Pèlerin

Partager cet article
Repost0
8 mars 2010 1 08 /03 /mars /2010 07:37

Fibre optique : la couverture du territoire pourrait être bien plus coûteuse que prévu
fibre-optique-copie-1

Tags: Chiffres, Fibre optique, coût total, km, desservir, lancés, didier lombard
Stratégie - Selon un rapport de la Datar, conduire la fibre optique jusqu’à chaque habitation et entreprise coûterait 30 milliards d'euros. Un syndicat de France Télécom exige à nouveau la participation des géants du Web.
Grand chantier pour l'aménagement du territoire et la réduction de la fracture numérique, le déploiement de la fibre optique en France est aujourd'hui sur les rails.
D'un côté, les règles du jeu ont été fixées et validées permettant aux opérateurs d'accélérer les déploiements, notamment en zones denses. De l'autre, le gouvernement a décidé d'utiliser 2 milliards d'euros tirés du grand emprunt pour soutenir la couverture.
Concrètement, dans les zones denses, les opérateurs investiront seuls puisque la rentabilité sera très vite au rendez-vous. Dans les zones moyennement denses, des appels à projets régionaux seront lancés d'ici six mois pour encadrer le déploiement de la fibre. Il s'agira d'associer opérateurs et collectivités.
Enfin, dans les zones rurales, le gouvernement a retenu un schéma de cofinancement des projets des collectivités territoriales puisqu'il est acquis que les opérateurs n'équiperont pas ces zones, le retour sur investissement étant loin d'être assuré.
Objectif affiché par l'Elysée : couvrir 100 % du territoire d'ici 2025. Pour autant, les coûts de déploiements pourraient être bien supérieurs à ce qui a été prévu. Et l'Etat pourrait avoir à mettre à nouveau la main à la poche.
C'est ce qui ressort d'une étude menée par Tactis pour la Datar (délégation interministérielle à l'aménagement du territoire et à l'attractivité régionale).Les auteurs estiment d'abord que conduire la fibre optique jusqu'à chaque habitation et entreprise coûterait 30 milliards d'euros décomposés comme suit :
500 000 km pour desservir les 80% de prises situées dans les zones les plus denses : coût 15 milliards d'euros,
300 000 km supplémentaires pour atteindre 95% de taux de couverture : coût 8,5 milliards,
300 000 km pour desservir les cinq derniers pourcents : coût 7 milliards.
L'étude souligne ensuite que sans soutien public, seul 25% à 40% de la population aura le très haut débit. Plusieurs scénarios sont alors possibles...
80% de la population et des entreprises couverts en fibre optique jusqu'à l'abonné (FTTH) : coût total :15 milliards d'euros, financement public à mobiliser : 6 milliards.
100 % de la population et des entreprises couverts : coût total : 30 milliards, financement public à mobiliser : 15 milliards,
100% de la population et des entreprises couverts dont 80% en FTTH, 5% par équipement des sous-répartiteurs et 15% en 4G/LTE : coût total : 18 milliards, financement public à mobiliser : 8 milliards d'euros.
Dans tous les scénarios, l'effort de l'Etat est donc largement supérieur à ce qui est prévu, une couverture à 80% exigera ainsi un investissement trois fois supérieur aux 2 milliards initialement débloqués.
La mise de départ semble donc insuffisante pour soutenir une couverture massive et globale (notamment dans les habitats dispersés). Il faudra donc trouver des ressources ailleurs.
Pour certains, la solution n'est pas compliquée à trouver. La CFE-CGC/UNSA, un syndicat de cadres de France Télécom remet à nouveau sur le tapis le rôle des géants du Web qui profitent de la montée en charge des réseaux sans participer à leurs financements.
"Les subventions liées au Grand Emprunt, seront vraisemblablement insuffisants pour couvrir 70% de la population sous 10 ans. Il devient donc nécessaire de trouver des ressources complémentaires pour financer les réseaux. L'État mettra-t-il en oeuvre son projet audacieux de taxer la publicité sur Internet ? Il serait en effet logique que des « pure players » tels Google, qui bénéficient directement des nouvelles richesses créées par le développement d'Internet, contribuent au financement des réseaux sans lesquels leur activité ne pourrait exister. Au même titre que les chaines de télévision sont taxées pour financer l'industrie cinématographique", peut-on lire dans une tribune de ce syndicat.
Cette position est d'ailleurs depuis longtemps défendue par Didier Lombard, p-dg sur le départ de l'opérateur historique. "Les choses ont changé. Au départ, Internet exploitait un réseau amorti depuis des années, celui de la paire de cuivre. Le problème du retour sur investissement ne se posait pas.", a-t-il déclaré lors d'une conférence en novembre dernier.
"Mais aujourd'hui, les réseaux de nouvelle génération exigent des investissements colossaux, il faut donc trouver un partage équitable avec les éditeurs de contenus et de services".
Le président de l'Arcep, Jean-Ludovic Silicani, s'est également prononcé pour "une réflexion sur la question". Un colloque se tiendra d'ailleurs en avril sur ce thème. Par ailleurs, un rapport gouvernemental devrait être rendu mi 2010 sur ce sujet.
Source ZDNet France Olivier Chicheportiche
Le Pèlerin

Partager cet article
Repost0
8 mars 2010 1 08 /03 /mars /2010 00:25

France - Tout savoir sur la TV numérique
ecran-plat.jpg 

La télévision française cessera d’émettre en analogique le 30 novembre 2011. L’ère du tout numérique arrivant à grands pas, le moment est propice à faire le point sur cette TNT (télévision numérique terrestre) qui envahit déjà beaucoup de petits écrans. Haute Définition, un panel de chaînes étendu, et un rendu audio-vidéo accru, on vous dit tout sur la TNT.
1 Le compte à rebours est lancé. Le 30 novembre 2011,
La télévision analogique classique s’éteindra définitivement en France. Les chaînes hertziennes seront alors exclusivement diffusées en numérique dans l’Hexagone. Fini la télé de « grand papa », notre petit écran est en train de vivre sa plus grande mutation depuis l’arrivée de la couleur dans les années 60. A la clé, ce sont plus de chaînes, une meilleure qualité d’image, de son, et l’accès à la haute définition pour tous les téléspectateurs. L’arrêt de l’analogique va aussi permettre de libérer des bandes de fréquences qui seront réutilisées pour développer le haut débit mobile, la radio numérique et peut-être la télévision mobile personnelle.
2. C’est quoi la TV numérique ?
LCD, Haute Définition, Full HD, HD Ready, TNT… A force d’être abreuvé de termes plus ou moins associés à la notion de TV numérique, le consommateur a de quoi être un peu perdu quand on lui parle de « passage au tout numérique ». Non, les écrans plats HD 1080p ne vont pas devenir obligatoires ! Le passage à la TV numérique signifie que la diffusion hertzienne de la télévision, captée par les antennes râteau, se fera uniquement via un signal numérique et non plus analogique. Autrement dit, la TNT (qui n’a rien de terrestre mais passe bien par la voie des airs) sera le seul mode de diffusion hertzienne. Lancée en mars 2005, elle donne accès à 18 chaînes gratuites, Canal+ en clair, des chaînes locales et des chaînes en haute définition.
TNT
Les émetteurs TDF ne sont pas tous encore convertis à la TNT. Selon le CSA, 89% des foyers sont actuellement couverts ; ils devront être 95% à la fin 2011. Mais il y a d’autres moyens de recevoir la TV en numérique : le satellite, le câble, l’ADSL et la fibre optique. Des alternatives utilisées depuis longtemps dans les zones où les chaînes hertziennes classiques passent mal. Le boom des offres triple play les a bien démocratisées depuis.
3. Une extinction région par région
Pas question d’éteindre d’un seul coup le signal analogique sur tout le territoire… d’autant que le déploiement de la TNT n’est toujours pas terminé. Le passage à la TV numérique s’effectue région par région, plus précisément selon le découpage régional de France 3 (voir le calendrier ci-contre). Le basculement a été préalablement testé sur la ville de Coulommiers (Seine-et-Marne) et neuf communes avoisinantes le 4 février 2009, puis à Kaysersberg (Haut-Rhin) et dans le Nord-Cotentin. Mais c’est l’Alsace qui a véritablement ouvert le bal, en devenant la première région totalement convertie le 2 février 2010.
L’Alsace bon élève
L’Alsace a été choisie pour son taux élevé d’équipement en réception numérique. Seuls 4,9% des foyers alsaciens dépendaient encore de l’analogique deux mois avant le basculement. Cette région frontalière était aussi une zone de choix pour tester les interférences avec les émissions étrangères. Les régions plus complexes à convertir, notamment les zones montagneuses, ont été plutôt reléguées en fin de calendrier.
A noter que la chaîne Canal+ stoppera sa diffusion analogique avant les autres chaînes (elle n’utilise pas le même réseau de fréquences), avec une extinction définitive le 6 décembre 2010 (voir le calendrier anticipé de Canal). Cela n’impactera que ses programmes en clair : Canal envoie bien sûr à ses abonnés payants de nouveaux décodeurs numériques.
4. Faut-il changer d’équipement ?
Si vous recevez déjà la télévision par la TNT ou si vous êtes abonné à une offre TV par satellite, par câble, par ADSL ou par fibre, vous n’avez rien à faire. Dans le cas contraire, il va falloir s’équiper pour accéder à un de ces modes de réception. La solution la moins coûteuse est la TNT.
La plupart des antennes râteau classiques permettent de la recevoir, mais une réorientation peut s’avérer nécessaire. Côté téléviseur, si votre poste n’a pas la « TNT intégrée », ce qui est le cas de tous les écrans depuis mars 2008, vous devez acheter un adaptateur TNT. On en trouve à partir de 20 euros, mais le prix peut dépasser les 200 euros pour les modèles évolués (Haute définition, double tuner, magnétoscope intégré…). Les adaptateurs fonctionnent aussi avec les TV à tube cathodique, tant qu’elles comportent une prise Péritel.
Pas de couverture garantie
Encore faut-il être dans une zone de couverture de la TNT. Le CSA a mis en ligne une carte interactive, pour vérifier la couverture actuelle d’une adresse donnée et à la date du basculement. Mais elle reste théorique. Le signal TNT peut être perturbé par le relief ou certains obstacles en ville. Enfin,  rien ne permet de prévoir que la qualité actuelle d’une réception sera la même le jour J : les modifications de fréquences et de puissance des émetteurs peuvent changer la donne. En effet, certains émetteurs TDF ne seront pas convertis à la TNT pour accélérer le déploiement et réduire les coûts. Selon le CSA, l’augmentation de la puissance d’autres émetteurs permettra de compenser le défaut de couverture.
5. Et si la TNT ne passe pas ?
Certains problèmes de réception de la TNT seront résolus au moment du basculement, lorsque la puissance des émetteurs sera ajustée. Mais fin 2011, 5% de la population resteront hors zone de couverture (régions montagneuses ou peu peuplées). Soit un peu plus que le nombre de foyers qui ne captent pas aujourd’hui la TV analogique (4%). Dans ces zones « blanches », beaucoup utilisent déjà une solution alternative en abonnement payant, le câble, l’ADSL et surtout le satellite. Pour les autres, des offres gratuites ont été lancées au nom du service public pour recevoir les chaînes de la TNT par satellite : TNTSat (groupe Canal+) et Fransat (Eutelsat). L’abonnement est certes gratuit, mais il faudra bel et bien mettre la main à la poche pour le décodeur (entre 100 et 150 euros), la parabole (à partir de 40 euros), voire l’installation (150 euros et plus).
Des aides financières sous conditions
Toujours au nom du service public, le gouvernement a débloqué des aides financières pour participer à l’équipement des ménages. Pour en profiter sans conditions de ressources, il faut habiter dans une zone qui ne sera pas couverte par la TNT (selon les données du CSA). L’aide « à la réception » est alors de 250 euros maximum pour contribuer à l’achat de l’équipement, aux frais d’installation et/ou à la souscription d’un abonnement payant.
Dans les zones de couverture de la TNT, des aides sont accordées uniquement aux foyers exonérés de redevance et dont les revenus ne dépassent pas certains montants. Elles s’élèvent à 25 euros maximum pour l’achat d’un adaptateur et 120 euros pour la réorientation ou l’achat d’une antenne. Les aides sont versées sur présentation des factures, au plus tard dans les trois mois après l’arrêt de l’analogique dans la région.
7. Informer une population entière
Des millions de Français doivent être préparés à cette évolution technologique, qui touche à l’un des objets phare de leur quotidien. C’est la mission du groupement d’intérêt public France Télé Numérique (FTN), financé par l’Etat et les grandes chaînes nationales. Une grande campagne d’information a été lancée l’été dernier à l’échelle nationale sous l’étiquette « Tous au numérique », notamment via des spots TV. Un site web très complet a été émis en ligne et un centre d’appel est accessible au 
0970 818 818
0970 818 818 (numéro non surtaxé).

Sur le terrain, FTN intervient plusieurs mois à l’avance dans les régions pour préparer l’accompagnement des habitants : implication des collectivités locales et des associations sociales, information aux syndics et gestionnaires d’immeubles, agrément des antennistes et revendeurs locaux pour éviter le démarchage abusif, réunions d’information dans les communes, distribution de guides dans les boîtes aux lettres et les commerces, etc.
Accompagner sur le terrain
Des camionnettes FTN sillonnent aussi les régions proches du basculement pour informer les passants. Mais ces mesures ne suffisent pas toujours, surtout pour les personnes âgées. C’est pourquoi FTN implique particulièrement les Centres Communaux d’Action Sociale. Une aide à domicile gratuite est d’ailleurs prévue pour les plus de 70 ans. FTN  a pu aussi compter sur la solidarité des habitants dans les zones déjà basculées, y compris des jeunes, qui se sont improvisés « ambassadeurs du numérique » dans leurs quartiers.
8. Que se passe-t-il le jour J ?
Trois mois avant la date butoir, un message d’avertissement est régulièrement envoyé sur le signal analogique de TF1, F2 et F3 dans la région concernée. Seuls les foyers qui ne sont pas encore équipés pour le numérique voient défiler ce bandeau sur leur écran, par exemple : « Equipez-vous impérativement pour le passage à la télé tout numérique avant le 18 mai 2010. Renseignements au… » pour les Pays de la Loire. Mieux vaut ne pas tarder pour s’équiper, pour prévoir un délai d’installation le cas échéant.
Le jour J, toutes les émissions analogiques et numériques de la zone sont coupées. Les émetteurs numériques sont ensuite rallumés en quelques heures selon le nouveau plan de fréquences déterminé par le CSA. Tous ne seront pas rallumés ; dans certaines zones, une période d’ajustement sera nécessaire pour bien régler la nouvelle puissance des émetteurs restants. Les téléspectateurs doivent alors faire une nouvelle recherche de chaînes sur leur adaptateur TNT et les mémoriser sur l’appareil. Pour les foyers non équipés, ce sera l’écran noir.
9. Premier bilan en Alsace
L’Alsace est la première région à avoir fait le grand saut. Le 1er février dernier, à minuit, la soixantaine d’émetteurs TV de la région ont été éteints. Les 31 émetteurs conservés ont été rallumés dans la journée, sans problème majeur. Trois d’entre eux ont dû être ajustés le jour suivant. Dans la journée du 2 février, FTN a enregistré 4 000 appels sur sa hotline et 10 000 sen trois jours. Un tiers des appelants avaient plus de 65 ans et la moitié des demandes concernaient la nouvelle recherche de chaînes sur l’adaptateur TNT. La « quasi-totalité des situations » a été réglée directement par téléphone selon FTN. Les appels ont notamment conduit à réajuster les émetteurs mal calibrés. Depuis, la hotline a retrouvé son calme.
Capter les chaînes étrangères
Logique, la plupart des Alsaciens étaient déjà pourvus en TV numérique. « Il y a encore quelques cas à régler, où il faut modifier les antennes », témoigne un syndic /gestionnaire d’immeubles de Haguenau, qui gère une centaine de copropriétés. En cause, la vétusté des antennes de certains immeubles mais aussi, une spécificité alsacienne : l’accès aux chaînes TNT allemandes et suisses. Pour les recevoir, plusieurs antennes râteaux doivent être regroupées à l’aide d’un coupleur sur le toit. « Le problème c’est que les antennistes sont débordés en ce moment », poursuit le gestionnaire. « Les copropriétaires s’y sont pris trop tard… ». Qu’on se le dise !
Source Tom’s guide
Le Pèlerin

Partager cet article
Repost0