HADOPI allimenterait-t-elle indirectement des organisation mafieuses

Titre accrocheur, désolé, mais c’est ce qui me vient à l’idée de part les récentes statistiques sur l’utilisation des réseaux de P2P et de part l’article suivant : http://www.zataz.com/news/20372/warez–stro–hq-darkside.html

En effet, les premiers éléments montrent que le français se tournent, depuis l’annonce de HADOPI vers des solutions de type Streaming ou groupes de news pour ne pas être pris la prise ethernet dans la médiathèque … Hors il s’avère que ces nouveaux canaux d’échange ne sont plus du Pear 2 Pear, equitable est gratuit par essence mais son des serveurs centraux, détenant des copiés illicites dont l’accès est payant. Le paiement étant une nécessité pour entretenir le système, ne serait-ce que par les cout de cette infrastructure centralisée.

Dès lors qu’il y a argent, il y a forcément dégagement de bénéfices et donc profits. Comme l’activité est à la base illégale, ces bénéfices alimentent donc une économie soutéraine. Il serait donc utile de se poser la question de quelles type d’économie soutéraine nous parlons, comme les boutonneux de 14 ans qui précédemment gravaient des CD pour les vendre dans la cours d’école ont l’air hors jeux, il me semble plus opportun d’imaginer qu’il pourrait y avoir, derrière, des groupes à tendence mafieuse (même s’il est certain que dans certains pays, ceux-ci peuvent représenter des sociétés totalement honnêtes vis à vis de la législation locale)

Ces société profitent allègrement de la campagne de presse organisée autour d’HADOPI alors que la Haute Autorité n’est pas encore en place. Le système chasse un modèle illégal mais sans réel profit par un système illégal profitable pouvant allimenter des délis bien plus grave pour la société que la simple copie d’oeuvre ; je pense à différents traffic d’armes, drogues, femmes ….

Une enquête seraient intéressante pour savoir ce qu’il en est vraiment, si derrière le fantasme que je peux émettre, il existe une ou plusieures réalités.

Sujet du jour sur Internet Google et notre vie privée

Thème de ce jour google rappelé à l’ordre par la CNIL sur sa gestion des données personnelles. De là on trouve sur Internet de nombreux articles relatifs aux données stockées par Google et rapidement chacun fait le lien avec ses habitudes d’usage des services de Google. Seulement, il y a un point qui me semble oublié et qui relève d’une importance bien plus importante : les google gadgets et publicités

En effet, si Google pouvait se transformer en une énorme machine à tracer, ce serait bien par le biais, non pas de nos comptes enregistré sur leur serveurs mais sur l’ensemble des “sondes” qu’il peuvent avoir sur tous les site ouaib du monde entier. Si vous cumulez à la fois les gadget de type GoogleMap, la publicité GoogleAds et les site qui utilisent le suivi des stats Urchin, vous trouverez une couverture maximale de la toile.
Il est clair que Google n’est pas seul à posséder ces informations, Microsoft ou d’autres acteur de la pub en ligne ont de telles possibilité, seulement, leur emprunte est plus faible sur le web.
Si l’on cumule tous ces points d’entrées recus par google et que l’on s’en sert avec des outils d’analyse adapté, il est simple de tracer votre profil, identifier vos opinions, habitudes, dérives : simple de voir ce que vous cherchez, ce qui attire votre attention par le temps passé sur la page, les liens utilisés…. Tout est possible et imaginable, d’autant que vous pouvez cumuler ses informations avec vos email, vos photos, vos documents, des information de géolocalisation …

Comment s’en débarrasser ? quasiment impossible sans se déconnecter de la toile. Serte il y a des solutions techniques que je ne vais pas détaillées car un peu compliquées mais celles-ci sont tellement contraignantes qu’elles ne peuvent servir à la vie courante. Il ne faut en tout cas pas penser déconnexion sur la page de Google ou alors simple suppression de son compte google, il y a tant d’autres moyen d’avoir accès à votre identification de façon plus ou moins directe ; ne serait-ce que par l’adresse IP présente dans tous échanges et cookies ici utilisable en cross-site.

Comment cela fonctionne ? sur tous les sites utilisant un gadget google ou diffusant une publicité Google vous envoyez une requete directement de votre browser (chez vous) à un des serveurs de google. Par cet envoi, vous passez deux chose : d’une part votre identité au travers de votre IP et des cookies google accessibles et d’autre part l’url depuis laquelle vous faite cet appel : à soir la page consultée ; Ces informations peuvent alors être stoquées dans une base et analysés par la suite.

Quel usage de ces données ? Impossible de le savoir ; pour des actions marketing, c’est clair, mais pourquoi n’iraient-t-ils pas plus loin ? Pourquoi ces données ne pourraient-t-elles pas être exploitées aujourd’hui ou dans le futur par un gouvernement ou exploité par des pirates. Dans la chasse et l’identification de terroristes, pédophiles, ce peut être une arme très efficace ; de là à s’en servir pour d’autres la limite est fine.

Que faire alors ? et bien il n’y a que deux choix : avoir confiance en google est ses homologues, avoir confiance en votre gouvernement et le gouvernement Américain mais aussi se convaincre que l’on ne présente aucun intéret particulier pour ces gens. A part cela, il n’y a d’autres moyens que de se déconnecter.  Quels moyens de contournement autre que la deconnexion du réseau ? La première serait de faire du bruit, c’est à dire utiliser des plugins ou modules qui surfent à votre place de façon alétoire. Cette solution a deux problèmes : avoir un faux profilage peut être pire qu’un vrai et par ailleurs, il est tout à fait possible de détecter des activités de type robot pour les filtrer. La seconde solution, plus radicale, serait de filtrer toutes les IP de google, ce qui est faisable simplement, à condition d’en connaitre toutes les IP mais qui se traduit pas le fait de se couper de nombreux services bien utiles. La dernière solution serait d’utiliser un tiers de confiance, c’est à dire un proxy pour les adresses IP de google. Ce tiers de confiance donnerait son identité à la place de la votre aux services google et pourrait filtrer des cookies. Il ne s’agit toutefois que d’un report du problème puisque ce tiers auraient en sa possession toutes les informations de google. Pour ma part, j’avoue que cette solution me plait si elle est gérée par la CNIL, tant qu’a donner ma confiance autant que ce soit à eux.
Enfin, hier paraissait un article sur la possibilité donnée aux publicitaires ayant des affiches 4×3 de placer des cameras de surveillance permettant de constituer des données marketing telles que l’affluence au abord de la publicité. Ce qui se fait par défaut sur Internet ressemble à la même chose mais avec, en outre, la possibilité d’obtenir le nom de chaque personne voyant chaque affiche et le temps consacré à la regarder…

Google travesti en Big Brother ?

En effet, si Google pouvait se transformer en une énorme machine à tracer, ce serait bien par le biais, non pas de nos comptes enregistré sur leur serveurs mais sur l’ensemble des “sondes” qu’il peuvent avoir sur tous les site ouaib du monde entier. Si vous cumulez à la fois les gadget de type GoogleMap, la publicité GoogleAds et les site qui utilisent le suivi des stats Urchin, vous trouverez une couverture maximale de la toile.
Il est clair que Google n’est pas seul à posséder ces informations, Microsoft ou d’autres acteur de la pub en ligne ont de telles possibilité, seulement, leur emprunte est plus faible sur le web.
Si l’on cumule tous ces points d’entrées recus par google et que l’on s’en sert avec des outils d’analyse adapté, il est simple de tracer votre profil, identifier vos opinions, habitudes, dérives : simple de voir ce que vous cherchez, ce qui attire votre attention par le temps passé sur la page, les liens utilisés…. Tout est possible et imaginable, d’autant que vous pouvez cumuler ses informations avec vos email, vos photos, vos documents, des information de géolocalisation …

Comment s’en débarrasser ? quasiment impossible sans se déconnecter de la toile. Serte il y a des solutions techniques que je ne vais pas détaillées car un peu compliquées mais celles-ci sont tellement contraignantes qu’elles ne peuvent servir à la vie courante. Il ne faut en tout cas pas penser déconnexion sur la page de Google ou alors simple suppression de son compte google, il y a tant d’autres moyen d’avoir accès à votre identification de façon plus ou moins directe ; ne serait-ce que par l’adresse IP présente dans tous échanges et cookies ici utilisable en cross-site.

Comment cela fonctionne ? sur tous les sites utilisant un gadget google ou diffusant une publicité Google vous envoyez une requete directement de votre browser (chez vous) à un des serveurs de google. Par cet envoi, vous passez deux chose : d’une part votre identité au travers de votre IP et des cookies google accessibles et d’autre part l’url depuis laquelle vous faite cet appel : à soir la page consultée ; Ces informations peuvent alors être stoquées dans une base et analysés par la suite.

Quel usage de ces données ? Impossible de le savoir ; pour des actions marketing, c’est clair, mais pourquoi n’iraient-t-ils pas plus loin ? Pourquoi ces données ne pourraient-t-elles pas être exploitées aujourd’hui ou dans le futur par un gouvernement ou exploité par des pirates. Dans la chasse et l’identification de terroristes, pédophiles, ce peut être une arme très efficace ; de là à s’en servir pour d’autres la limite est fine.

Que faire alors ? et bien il n’y a que deux choix : avoir confiance en google est ses homologues, avoir confiance en votre gouvernement et le gouvernement Américain mais aussi se convaincre que l’on ne présente aucun intéret particulier pour ces gens. A part cela, il n’y a d’autres moyens que de se déconnecter.

Quels moyens de contournement autre que la deconnexion du réseau ? La première serait de faire du bruit, c’est à dire utiliser des plugins ou modules qui surfent à votre place de façon alétoire. Cette solution a deux problèmes : avoir un faux profilage peut être pire qu’un vrai et par ailleurs, il est tout à fait possible de détecter des activités de type robot pour les filtrer. La seconde solution, plus radicale, serait de filtrer toutes les IP de google, ce qui est faisable simplement, à condition d’en connaitre toutes les IP mais qui se traduit pas le fait de se couper de nombreux services bien utiles. La dernière solution serait d’utiliser un tiers de confiance, c’est à dire un proxy pour les adresses IP de google. Ce tiers de confiance donnerait son identité à la place de la votre aux services google et pourrait filtrer des cookies. Il ne s’agit toutefois que d’un report du problème puisque ce tiers auraient en sa possession toutes les informations de google. Pour ma part, j’avoue que cette solution me plait si elle est gérée par la CNIL, tant qu’a donner ma confiance autant que ce soit à eux.

Enfin, hier paraissait un article sur la possibilité donnée aux publicitaires ayant des affiches 4×3 de placer des cameras de surveillance permettant de constituer des données marketing telles que l’affluence au abord de la publicité. Ce qui se fait par défaut sur Internet ressemble à la même chose mais avec, en outre, la possibilité d’obtenir le nom de chaque personne voyant chaque affiche et le temps consacré à la regarder…

Xen, accès à la console principale

Au démarrage d’une VM, si cela est configuré, Xen crée une console graphique accessible par VNC. L’ip est localhost (127.0.0.1) et le port 5900 + ID de la VM.
Attention, cette console est celle à regarder en priorité ( versus xen console nomVm ) car elle contient tous les messages du demarrage, alors que la console texte native elle n’a pas certaines informations, en particulier lors des e2fck …

Empêcher le lancement de e2fsck au boot

Lors d’un boot, l’état des disques est vérifié et un e2fsck est lancé. Cette vérification est clairement bénéfique et système et il est déconseillé de l’outrepasser, mais il arrive qu’elle soit bloquante d’autant qu’une réparation demandera un lancement manuel d’un e2fsck sur une console texte dans un environnement très limité. Il est donc possible de demander au système de ne pas effectuer ce test. Pour celà, il faut simplement modifier le dernier digit de la ligne du fichier fstab pour remplacer le “1” par un “0”

Le piège du 2efsck au demarrage des VM

L’histoire commence sur un retour de week-end où mon serveur de VM est en vrac, après un reboot la VM principale ne démarre plus restant bloquée sur une ligne sans signification particulière…
Qu’a cela ne tienne, virtualisation oblige, je peux repartir sur d’ancien backup de la VM et celle-ci repart mais demande quelques reconfiguration (backup un peu vieux) et à chaque reboot de ces VM … crash ! identique et tout autant mystérieux.
Il me faudra 24h et un certain nombre de réinstallation et reconfiguration de VM pour percer le mystère de tout cela : un simple disque demandant un e2fsck avec réparation (et demandant donc un login root en console). Comment ai-je pu manquer cela dans la console !!! et bien c’est très simple, maintenant la console texte n’affiche plus les messages important … il faut se référer à la console graphique accessible par VNC … mon dieu que le modernisme est déprimant !
Bon, deux choses que j’ai apprises hier : la console graphique Xen est accessible avec vncviewer sur l’IP 127.0.0.1 et le port 5900+N où N est l’ID de la VM (plus ou moins en fait). Ensuite, pour éviter d’un disque soit checké au démarrage du système (et donc mette la grouille comme ca) il suffit de mettre à 0 le dernier des digit qui est sur la ligne correspondante dans le fstab.
Note complémentaire d’explication : mes VM backupée démarraient tant que je n’avais pas recopié mon fichier fstab faisant état de ce disque corrompu à mounté. Et seconde note complémentaire, si le système a décidé qu’il y avait un système à checké alors que le périphérique est débranché… et bien il va demander aussi de se loggué en route pour reparrer ce disque qui n’existe pas !

Hadopi, comment y croire ?

Point intéressant lorsque l’on sait que beaucoup des fichiers echangés sur les reseaux de P2P ont un contenu souvent sans rapport avec leur titre. Par ailleurs, si l’on considère qu’un même fichier peut avoir des noms différents d’une machine à l’autre il est difficile de savoir quel est le fichier vraiment téléchargé. Par exemple, admettons que je cherche à télécharger les titres d’un artististe produisant de la musique libre de droit, dont le nom serait “tarte-muche”, mais que d’autres personnes aient choisi, pour le faire connaitre, de nommer ces mêmes fichiers, Madonna ou Rolling Stones, alors que leur contenu est bien celui de ‘tarte-muche”. Comment l’entité Hadopi pourra, en se basant sur le nom, garantir que je télécharge légalement ou non ? Si lors du procés qui arrivera au moins 1 an après j’ai effacé le titre, comment prouver mon innocence, puisque dans ce cas, il semble qu’il n’y ait pas d’enquete, ni de recherche de la preuve ?

Cet exemple pourra faire sourire tellement il semble marginal, mais il n’est pour autant pas improbable et certains pourraient s’amuser à ce petit jeu. Mais il démontre une nouvelle fois le décalage entre lois et technique. Les fichiers P2P sont échangés avec une clef (hash) qui les rend unique de sorte à pouvoir les retrouver sur la toile et non avec un nom. C’est bien cette clef qui devrait être utilisée.

Enfin, il n’a toujours pas été indiqué quels etaient les moyens mis à notre disposition pour prouver notre innocence (pardon, protéger notre réseau (belle blague encore)), encore un point inaplicable de cette lois comme je l’ai indiqué dans un précédent article.

Vers l’usage d’un disque SSD ?

Au début de ce blog, je vous ai présenté ma solution compact flash pour faire office de disque dur,avec un objectif à  l’époque où les premiers SSD faisaient leur apparition : palier au prix prohibitifs de ces équipements. Voila, maintenant les SSD deviennent abordables et la question se pose à  nouveau pour moi … quelques éléments d’informations glanés à  droite et à  gauche.

Pour commencer pourquoi remplacer la solution actuelle, j’ai venté les mérites de la solution compact-flash quelque temps mais j’en arrive à  ce jour aux limites pour plusieurs raisons:

  • La première tient au fait que la capacité initiale de 8Go limite fortement mes capacités d’installation de nouveau packages, l’usage d’un adaptateur sata me permet cependant d’etendre la capacité par l’ajout d’une seconde carte, mais ce serait un investissement finalement peut productif comparé à  l’achat d’un SSD neuf dont le prix baisse maintenant plus vite que la compact flash en perte de vitesse.
  • La seconde tient dans le fait que ma carte CF n’est pas correctement reconnue sous Linux et que pour pouvoir profiter pleinement de ses performance il m’est toujours nécessaire de modifier le noyau. Si au départ cette étape etait par ailleurs rendue nécessaire dans l’usage de ma carte VIA, il en est tout autre avec la nouvelle carte et ne faisant plus cette étape je me retrouve avec des performances disque faible et un mauvais support DMA qui me conduit à  avoir des ralentissements désagréables de mon système.

Bref, le temps est venu de regarder vers une solution plus adaptée et un SSD de petite capacité. Me voila donc enquêtant sur ce qui existe et voici quelques points à  prendre en compte:

  • Il existe deux types de SSD
    • Les SSD de type SLC (Single Layer Chip) sont des composants basés sur une mémoire NAND Flash stockant dans une cellule 1 bit de donnée, leur coûts est normalement plus élevé mais par contre leur temps d’accès est meilleurs et leur longévité tourne autour des 100.000 cycles d’écriture tout en étant plus économes en énergie.
    • Les SSD de type MLC (Multiple Layer Chip) sont de composants aussi basé sur des NAND Flash mais stockant dans chaque cellules plusieurs bits : avec moins de volume pour stocker l’information, ces systèmes sont moins chers mais aussi moins performant sur les autres critères et, entre autre, le nombre de cycles d’écritures supportés avoisine les 10.000.
    • Question prix, on trouve des SLC de 32Go autour de 150€ et des MLC premier de 40Go prix autour de 100€ .. rien de fondamental sur les basses capacités
  • D’un point de vue technique, il ne faut pas se limiter à  la considération du débit théorique annoncé par le vendeur et se reporter à  des tests objectifs et surtout comparatifs. Si les performances en lecture et écritures séquentielles sont bien celles annoncées, les lectures et surtout les écritures aléatoires sont bien en deçà , les accès à  de petits blocs sont eux aussi fortement pénalisés par la technologie : s’il n’y a pas de têtes à  déplacer, il y a tout de même des opérations de nettoyage à  réaliser et celles-ci sont couteuses. De fait, la performance d’un SSD peut passer de 100Mo/s en écriture séquentielle à  20Mo/s en écriture aléatoire. Pour comprendre cela, il faut voir que s’il est possible de lire les données d’une flash octet par octet, il est nécessaire, avant d’écrire un octet de le nettoyer et ce nettoyage ne s’effectue malheureusement pas octet par octet mais bloc par bloc (512Ko par exemple). Si bien que pour écrire 1 octet, il est nécessaire de lire un bloc complet puis de l’effacer entièrement avant de le modifier et de le réécrire totalement. Ainsi plus les données à  modifier sont petites et plus le rapport entre ce qui est utile et ce qui est nécessaire est faible et plus la performance s’écroule.
  • La technologie TRIM permet en parti de combler ce problème : le système d’exploitation informe le SSD qu’un bloc n’est plus utilisé (effacement du fichier) alors le SSD va en tà¢che de fond faire les opérations de ménage qui lors de la prochaine utilisation ne seront plus à  faire. Linux supporte TRIM semble-t-il.
  • Le second point est la compatibilité du SSD avec Linux. Sur ce point je n’ai pas trouvé d’informations intéressante pour l’instant mais je creuse… Normalement, qui dit SATA devrait dire compatibilité, mais chat échaudé craint l’eau froide et mes soucis avec la compact flash me laissent perplexes. Point à  suivre donc !

Je m’intéresse donc à  ce modèle : Mtron Mobi MSD 3500 32 Go au prix de 149€ à  ce jour. Le Mobi 3500 intègre 32Mo de cache et 32Go d’espace de stockage, il est piloté par un contrôleur ARM7 et s’il semble être nativement conçu pour une interface de type PATA il intègre un contrôleur Sata. Les tests vu à  ce sujet montrent que les temps d’accès de 0.1ms et les taux de transfert de 100Mo/s en lecture écriture ne sont pas des arguments marketing. Cependant les tests plus “applicatifs” semblent indiquer que que la performance n’est pas forcement au rendez-vous à  l’usage : si le bench réaliste est meilleur que pour un disque classique, il est en dessous de produits MLC d’entrée de gamme. Autre point intéressant, le petit prix à  un cout, celui de l’énergie avec une consommation pratiquement 3 fois supérieur à  un produit SSD samsung.

Autre SSD de type SLC qui vaut le détour : Mtron Pro MSP 7500 16 Go qui selon les tests vue est l’une des meilleures du marché bien que son prix soit de 200€ pour 16Go ; un peu cher à  mon gout.

Pour le reste, en SLC, c’est, pour moi, hors budget ! Du coup du coté des MLD, il y a un produit auquel je prête attention : Super Talent Ultradrive GX (ME) 32 Go qui pour le prix de 150€ et 32Go aussi annonce des taux de transfert de 230Mo/s en lecture et 160Mo/s en écriture ; malheureusement je n’ai pas trouvé de tests comparatif sur celui-ci mais malgré la technologie MLC, il s’annonce plus rapide que le SLC d’entrée de gamme de Mtron. Autre produit qui attire mon attention : OCZ Vertex Turbo Series 30 Go qui atteint 240Mo/s en lecture et 135Mo/s en écriture (22Mo/s en aléatoire) avec toutefois peu d’écart entre la version normale et turbo. Le prix est autour de 150€. J’ai une petite préférence cependant pour le Super Talent.

C’est finalement l’OCZ Vertex Series 30Go que j’ai acheté ayant trouvé une occasion correcte à  70€ … je vous tiens au courant lorsque ça arrive

Un petit rappel pour ressituer les choses, un disque classique de bonne facture (sata / 7200t) c’est:

  • Lecture pic 100Mo/s
  • Ecriture pic 100Mo/s
  • Temps d’accès autour de 10ms
  • consommation 7w
  • bruit 33 – 35dB

Des conseils pour l’installation sous linux avec TRIM: hardware.fr