Anti-Onde les meilleurs détracteurs d’eux-mêmes …

J’ai toujours adoré les détracteurs du téléphone portable, maintenant du Wifi, ils sont à mon sens les meilleurs détracteurs de leur propre cause, simplement car ils n’ont aucune idée de ce quoi ils parlents et sont d’une hystérie sans limite sur tout ce qui touche à leur sujet d’angoisse…

Car elle est bien là la maladie actuelle de toutes ces personnes, ca s’appele l’angoisse, l’angoisse d’être malade génère la maladie, trouble du someil, douleur … les symptomes classiques de l’angoisse et ceci est tellement vrai que la simple présence d’une antenne, même débranchée va les rendre malade … bien sûr je parle des cas extrèmes, mais simplement car ce sont ceux-ci qui s’expriment dans les médias.

Hors, si risque bien réel il y a, ce n’est pas celui de l’angoisse que l’on soigne à base de zone sans ondes (les camping onde-free apparaissent, c’est très drole …) ou quelques psychotropes, mais des maladies qui appraitront dans 5, 10, 15 ans appelées cancer par exemple ou d’autres troubles divers.

L’action et la communication exercée par ces groupes d’anti ondes et relayé avec délectation par les médias sonne le discredit sur les propos de tous ceux qui nous appellent à la prudence, laissant ainsi libre court à toutes communications de ceux pour qui les ondes sont un gagne pain.

Hier, appliquant le principe légitime de précaution suite aux résultats de quelques études jugées valables par l’agence de sécurité sanitaire, cette dernière demande la limitation des expositions aux ondes. Principe non accompagné d’une normalisation des expositions ou de quelques autres éléments qui permettrait de distinguer une bonne exposition d’une exposition à risque et se limitant donc à des recommandations classiques comme il en est fait depuis deja de nombreuses année. Le legislateur devra donc poursuivre les travaux pour lui donner du sens. Mais sur ce point n’est pas mon propos.

Aujourd’hui, déjà, les associations d’hysteriques et angoissés de tout poil s’insurgent, l’AFSA ment, l’AFSA est vendue aux lobbies hertziens… bla bla bla et les journaliste de relayer ces propos… comme toujours … bref, on n’avance pas et on n’avancera pas ! on ressort toujours les mêmes études contredisant l’AFSA, études que justement cet organisme a étudié et a jugé bonnes ou mauvaises non pas vis à vis de leur résultats mais vis à vis du contexte d’expériementation. Car c’est bien de cela qu’il faut parler, le contexte d’expérimentation, car c’est là dessus que ce joue la justesse et la rigueur scientifique, pas sur les résultat que l’étude procure mais sur la façon dont elle a été menée. Sur ce point je pense que l’AFSA est un organisme de confiance et que si “bug” il y a dans une étude, cela ne signifie pas forcement que les résultat est faux et l’étude mise aux oubliettes, cela signifie que les résultats sont faussés par la méthodologie employée et qu’elle doit être revue par ceux qui l’ont produite… Produire une étude qui dira ce que l’on veut entendre est aussi simple que de produire un sondage qui va dans le sens de son opinion personnelle, il suffit de poser la question de la bonne façon. Le travail de l’AFSA est donc de s’assurer, en quelque sorte, que la question posée etait neutre.

Ou est-ce que je veux en venir ? Si j’écoute les média sur ce sujet, j’entend 50% de scientifiques tenant une position de scientifique, à savoir que tant qu’il n’est pas prouvé qu’il n’y a pas de rique, il en existe un potentiel (avis objectif en l’attente de preuve) mais qu’a ce jour il est non mesurable. J’entends aussi 50% d’hysteriques avec un tres faible bagage scientifique adapté brocarder des études qu’ils ne comprennent pas et tenir des propos d’opinion personnelle sur le sujet. Qu’est ce que l’information et le travail journalistique ? est-ce de relayer des propos un peu comme des news AFP ou est-ce de fournir une analyse objective, je me pose une nouvelle fois la question, en tout cas, face à cela je ne peux que cherche à me forger une opinion personnelle et chacun devra faire de même.

Mon bagage scientifique m’impose de me retrancher du coté de l’AFSA, mais le commun des Français trouvera sans doute plus d’accorche du coté de ceux qui crient au complot economico-politico-je-sais-pas-quoi… Là est le danger car d’une part il propage dans la société une information fausse et discretite la communauté scientifique qui pourtant est bien la seule source de faits mesurables et vérifiables. Mais par ailleurs, il génère dans les masses l’angoisse évoquée au début et propage dans notre société cette maladie auto-imune qui ronge les inquiets installés à coté des antennes.

La question des ondes (mais cela s’applique aux OGM) devrait être abordé de façon serenne et j’aimerai que dans notre société qui se veut évoluée, intelligente, on ne mette pas au même niveau les propos de mère Denise avec ceux d’un groupe de scientifique. Les questions de mère Denise sont les bienvenues et elles sont nécessaires pour faire avancer la société dans un mouvement démocratique. Ses convictions personnelles elles, n’ont aucun intéret pour notre société. Par contre les réponse d’un groupe de scientifiques aux questions de mère Denise sont elle primordiales pour garantir que notre société évolue dans la bonne direction.

Cette histoire, comme de très nombreuses autres, me font poser la question du role du journalisme dans la société et si le journaliste qui cherche la vérité et denonce objectivement existe … la réponse est oui sur Internet (Mediapart entre autre) mais de façon minoritaire. Le journalisme de masse (TF1, F2…) s’enfonce lui dans la médiocrité chaque jour un peu plus,  nous créons un société à deux vitesse, celle de l’accès à l’information, il me semble que nous voyons chaque année un regression sur ce point ; mauvais facteur pour notre démocratie.

Le Cloud Computing

Cloud Computing

Mot sur toutes les lèvres lors du Gartner Summit de Londre sur les Data Center, il n’en reste pas moins qu’il s’agit à ce jour plus d’un concept que d’une réalité. Il existe toutefois plusieurs réalités sous-jacentes à ce concept. Réalité qu’il faudra prendre en compte dans les années à venir et qui peuvent radicalement changer notre contexte d’infrastructure, principalement pour ce qui touche à l’industrialisation des applications et à la consolidation.
S’il y a deux termes à retenir dans la notion de cloud, c’est élasticité et facturation au service. Termes qui vont prendre des conotations differentes si l’on parle de cloud privé (infrastructure dont nous sommes propriétaire) ou de cloud publique (infrastructure que nous achetons comme un service à l’extérieur).
Continue reading

Cloud Computing et applications hébergées

Le cloud computing est le fait de mettre des applications à disposition sur des serveurs et que ces applications puissent être utilisées de n’importe où dans le monde au travers d’un navigateur. Le système permet donc une installation centralisée de l’application, une diffusion immédiate sans installation sur le poste client. Il permet une trés forte scalabilité car les applications peuvent être déployées sur autant de serveurs que nécessaire. En outre, ces sytèmes sont nativement coopératifs : partage de documents entre plusieurs utilisateurs… Utilisant des technologies Ajax/Web2, ils offrent des interfaces graphique similaire à des client lourds (on parle de client riche ici). Une partie du traitement est exécuté coté serveur, une partie coté client. En général, le client exécute les fonctions graphiques (gestion de l’interaction avec l’utilisateur) alors que le backend coté serveur gère les données.
Les google apps sont sans doute les applications les plus évoluées et couvre le nécessaire minimum d’entreprise : traitement de texte, tableur, agenda, mail et partage documentaire. Certaines entreprise comme Tweeter se sont fait connaitre, après avoir eu quelques déboires, pour utiliser ces outils, presque exclusivement dans leur activité.
Le principal problème des applications de type cloud est quelles ne respectent pas une sorte de standard comme des application classiques, ce qui fait qu’il est difficile de les mélanger les une avec les autres sur une sorte de bureau classique, si bien que l’on travaille avec des onglets ou des fenêtres ce qui n’est pas vraiment pratique à l’usage. Il manque donc une couche de gestionnaire de fenêtre standard, permettant l’intégration d’applications multiples. Personne n’etant mur là dessus, la proposition de Google est pour l’instant l’emploie de Chrome, un navigateur qui separe chaque onglet du browser. Cette solution n’est en rien un bureau, mais elle permet, lorsqu’un onglet plante, dans l’usage actuel, de ne pas perdre les autres onglets et les données qu’il contient. Un peu comme les windows actuel, contrairement à Win 3.11, permettent en cas de plantage d’une application de ne tuer que celle-ci, sans rebouter l’ensemble.

Le second frein est la manque d’applications, même si de plus en plus sont disponibles, malgré tout même si ce qu’elles font déjà est bluffant, il leur reste du chemin avant de couvrir les fonctionnalités des clients lourds. Si bien que j’en viens à me demander si une solution ne serait pas l’implémentation d’un protocole X windows en JavaScript. Il permettrait d’exécuter n’importe quelle application Linus dans un browser web, recréant dans le browser le bureau dont nous avons besoin. J’imagine certe que la performance pourrait être moindre mais toujours meilleure que les solutions VNC souvent utilisées ; proche de CITRIX qui a fait ses preuves sur des connexions lentes.
Technologiquement ca n’a rien d’innovant et contrairement au Web2, on ne profitera pas d’un traitement front-end intelligent, ni même d’un backend capable de supporter un crash du front-end sans perte de données comme nous l’avons avec les google apps… Cela mérite toutefois d’être réfléchi, vu le parc applicatif sous X, bien plus complet que ce qui existe en Web2.

Installation d’un SLED 11 sur la plateforme Zotak ION ITX / Atom N230

Seconde étape après le montage, l’installation d’une distribution Linux. J’ai choisit une SLED, en possédant une licence mais l’installation d’une OpenSuse devrait revenir au même. L’installation se passe sans soucis particulier et au final l’ensemble du matériel est correctement détecté.

En effet, coté installation et détection ca se passe globalement bien. Seuls points d’accroche la carte graphique qui n’est pas détectée. Il faut installer manuellement de serveur X nvidia et lancer la configuration en manuel. A part celà , audio, réseau, usb… tout est correctement détecté / configuré.

Coté “sensors” par contre ça ne marche pas fort … aucun n’est détecté. J’ai essayer de compiler la dernière version de lm_sensors, malheureusement, la SLED est une distribution un peu trop “windowsienne” et elle ne fournit pas yacc/bison, nécessaire pour compiler lm_sensors. Ceci étant dit, je n’ai pas plus essayé car en l’absence de ventilation, il n’est pas vraiment nécessaire de se soucier de cela. L’idée à  la base était de mettre une sécurité pour les jours d’été ventilant le boitier au besoin. Mais à  l’approche de l’hiver … pas d’urgence.

Autre point positif dans tout ça, la mise en vieille, que ce soit en “suspend to ram” ou que ce soit en “suspend to disk” fonctionne à  merveille. Pratique pour gagner du temps, même si d’un point de vue consommation, la bête demandant 20W éteint, le gain n’est pas vraiment évident avec une économie de seulement 10W entre allumé et éteint.

En fonctionnement, les vidéos sur Youtube sont fluides, l’utilisation est agréable ; on n’est pas sur un foudre de guerre mais une machine tout à  fait honorable, en tout cas plus que la solution via sn … les dB en moins

Faire fonctionner OpenOffice sur NFSv3

Les versions récentes d’OpenOffice ne savent pas travailler correctement sur NFS3; au démarrage elles essaient de locker le fichier, ce qu’elle ne font pas correctement sur ce type de support. La solution la meilleure est de passer à NFS4 mais ceci n’est pas toujours le cas, comme par exemple lorsque vos fichiers sont sur un NAS un peu ancien comme c’est mon cas …
J’ai donc trouver cette solution qui consiste à désactiver le lock d’open Office en éditant le fichier /usr/bin/soffice (sur SLED 11) et en modifiant les lignes
# file locking now enabled by default
SAL_ENABLE_FILE_LOCKING=1
export SAL_ENABLE_FILE_LOCKING

Par
# file locking now enabled by default
#SAL_ENABLE_FILE_LOCKING=1
#export SAL_ENABLE_FILE_LOCKING

Bye Bye Canal

Coté service, à l’époque de la VOD à 3 euros le film à la demande, franchement … 30 à 40 euros par mois ca ne vaut plus le coup. Mais coté service c’est la catastrophe.

Je veux dire qu’il est totalement impossible de les joindre et le plus fou, c’est que même le numéro de leur service client est inexistant. Vous avez un problème technique, pas de numéro de téléphone, vous souhaitez vous désabonner pas mieux et pire encore, vous souhaiteriez vous abonner, toujours rien … Quand par chance vous trouvez un numéro sur un forum sur Internet vous avez un serveur vocal avec des choix qui ne correspondent pas et vous font tourner en boucle.

Je trouve cela totalement délirant …. ajoutez à celà que lorsque vous résiliez, les “revendeurs” se disent “non distributeurs” et refusent de reprendre votre matériel (ce qui veut dire, je veux bien ma com sur l’abonnement mais pas les cout afférents)

J’ai l’impression avec canal de rentrer dans l’aire du Buisness Process automatisé où la procédure d’abonnement automatique en ligne est la seule chose qui marche, on vous expédie un boite, on s’assure que vous êtes bien débité, et ensuite, vous n’existez plus, vous entrez dans un monde automatique, in-humain ou les robots ont le controle … ca semble délirant mais ca existe.

Il m’aura donc fallu 1h de recherche sur Internet et l’appel à 4 numéros pour en trouver un qui bien sur est saturé mais répond : 08050807600 …

Pour compléter cet article, je tiens à mentionner mon échange avec eux, après avoir trouvé le numéro … Alors qu’ils sont capable de me dirent à quelle date ils ont reçu mon décodeur (preuve qu’ils l’ont reçu et que leurs systèmes informatique détiennent cette information), il semble qu’ils refusent de rembourser la caution sans une seconde preuve de ma part comme le récépissé de la poste. Où, en d’autre terme, comment gagner des euros facilement en instaurant une procédure compliquée… au final … gardez votre décodeur et ne leur rendez pas, c’est plus simple et presque plus économique.

Test de performance du Zotak ION ITX C (Atom N230 @ 1.6GHz)

Reprenant les tests réalisés avec mon ancienne carte mère VIA, je vous livre les résultats issus de l’ATOM N230 – Zotak ION ITX C (CE). Le programme utilisé est toujours lmbench3.

En premier lieu voici les élément de noyau et mémoire cache.

   * athlon | kernel / freq / tlb page / cache line | 2.6.18 / 1513Mhz / 32 / 64o
   * epia... | kernel / freq / tlb page / cache line | 2.6.22 / 1781Mhz / 64 / 64o
   * atom   | kernel / freq / tlb page / cache line | 2.6.27 / 1600MHz / 16 / 128o
   * p4..... | kernel / freq / tlb page / cache line | 2.6.18 / 1700MHz / 55 / 128o

L’Atom est une solution économique et le cache est plutot minimaliste. C’est dommage puisqu’avant le prix c’est la chauffe qui est intéressante et ce ce point de vue le cache ne change pas grand chose, mais nous verrons si cela impacte les tests suivants. Le processeurs est par contre un 64 bits contrairement à  l’Epia C7 que je souhaite comparer.

Process, temps en microsecondes (le plus petit est le mieux) :

   * athlon | null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,3 / 0,47 / 4,67 / 35,5 / 205 / 1398 / 8236
   * epia... | null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,1 / 0,31 / 2,42 / 13.0 / 256 / 1173 / 7213
   * atom...| null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,2 / 0,42 / 6,58 / 6,53 / 329 / 1951 / 7232

Sur ces tests globalement l’atom est en dessous de l’epia mais au dessus de l’athlon ce qui en fait une machine correcte.

Calculs entiers (en nano secondes – le plus petit est le meilleur) :

   * athlon | calculs bits / addition / mult/ div / modulo | 0,69 / 0,02 / 2,83 / 28,9 / 28,2
   * epia... | calculs bits / addition / mult/ div / modulo | 0,56 / 0,02 / 0,61 / 29.0 / 30,1
   * atom...| calculs bits / addition / mult/ div / modulo | 0,63 / 0,41 / 0,31 / 39.5 / 38,8
   * p4..... | calculs bits / addition / mult/ div / modulo | 0,30 / 0,01 / 8,37 / 43,9 / 37,1

Un résultat très moyen sur le calcul entier, particulièrement sur les addition ; à  se demander s’il n’y a pas eu un soucis lors des tests. Les multiplication sont elles plutôt très bonnes par rapport aux autre machines. A noter que ces calculs n’étant pas 64b il est possible que l’on tombe sur une non optimisation.

Calculs flottant -float- ( en ns – le plus petit est le meilleur) :

   * athlon | calculs addition / mult/ div / bogo | 2,7 / 2,9 / 16,3 / 15,8
   * epia... | calculs addition / mult/ div / bogo | 3,9 / 4,2 / 40,8 / 51,4
   * atom...| calculs addition / mult/ div / bogo | 3,0 / 2,4 / 20,6 / 27,8
   * p4..... | calculs addition / mult/ div / bogo | 2,9 / 4,2 / 25,5 / 25,4

Grosse performance de l’unité de calcul en virgule flottante par rapport aux autres systemes

Calculs flottant -double- ( en ns – le plus petit est le meilleur) :

   * athlon | calculs addition / mult/ div / bogo | 2.72 / 2.74 / 47,5 / 15,6
   * epia... | calculs addition / mult/ div / bogo | 3,90 / 4,47 / 40,8 / 51,4
   * atom...| calculs addition / mult/ div / bogo | 3,0 / 3,11 / 38,8 / 46,6
   * p4..... | calculs addition / mult/ div / bogo | 2,90 / 4,20 / 25,5 / 25,4

Contrairement à  l’epia, l’atom calcule différemment en double et float ; il en résulte des performances similaire dans ce mode de calcul.

Latence des communications ( en microseconde – le plus petit est le mieux) :

   * athlon | context switch / AF UNIX / UDP / RPC-UDP / TCP / RCP-TCP / TCP-CON | 2,18 / 11,6 / 18,0 / 35,1 / 59,0 / 43,2 / 89
   * epia... | context switch / AF UNIX / UDP / RPC-UDP / TCP / RCP-TCP / TCP-CON | 0,90 / 8,55 / 10,7 / 16,5 / 13,2 / 20,1 / 48
   * atom...| context switch / AF UNIX / UDP / RPC-UDP / TCP / RCP-TCP / TCP-CON | 5,30 / 19,2 / 39 / 54,8 / 59,6 / 20,1 / 125

Comme vu dans la première partie du test, l’atom n’est pas très performant pour tout ce qui touche au système. Ce point peut aussi être lié au noyau ; ici non optimisé pour ce cpu.

Débit avec la mémoire ( en MB/s – le plus grand est le mieux) :

   * athlon | Mmap reread / bcopy libc / bcopy manuel / mem read / mem write | 554 / 240 / 278 / 617 / 385
   * epia... | Mmap reread / bcopy libc / bcopy manuel / mem read / mem write | 601 / 408 / 406 / 565 / 980
   * atom...| Mmap reread / bcopy libc / bcopy manuel / mem read / mem write | - / - / 990 / 3098 / 1142

Une bonne nouvelle qui aide à  comprendre pourquoi dans don usage le systeme Atom semble mieux fonctionner que le VIA, les accès mémoire sont beaucoup plus rapides ; les même barettes mémoire sont utilisées c’est donc sans doute l’architecture qui est ici à  l’épreuve.

Latence mémoire ( en ns – le plus petit est le mieux ) :

   * athlon | cache L1 / cache L2 / Main memory / random | 2.04 / 13.8 / 174 / 422
   * epia... | cache L1 / cache L2 / Main memory / random | 3.36 / 16.2 / 080 / 320
   * atom...| cache L1 / cache L2 / Main memory / random | 1.89 / 10.2 / 035 / 288
   * p4..... | cache L1 / cache L2 / Main memory / random | 1.21 / 29.2 / 151 / 284

Un cache plus performant sur l’atom, un acces mémoire lui aussi meilleurs conforte les informations précédentes.

En résumé, l’atom est une machine un peu moins performante que le via C7 en performance de calcul entier et sans doute dans l’exécution de code système. La raison est sans doute liée à  une fréquence de fonctionnement moins élevée (environ 10%) et sans doute une architecture plus light du processeur. L’unité de calcul en virgule flottante tient très bien la route par contre et surtout l’accès mémoire est particulièrement bon. Ce dernier point est fondamental puisque d’un point de vu “utilisateur” cette nouvelle solution est beaucoup plus agréable à  utiliser : vidéo plus fluides par exemple.

Et le silence fut !

Ca y est, le silence est parmi nous ! enfin son esprit zen envahit mon bureau … quel bonheur d’appuyer sur le bouton power et que rien ne se passe, enfin si, que l’écran, le système démarre mais rien, pas un bruit, pas un parasite, pas même un sifflement, le pied, ce que je cherchai à  obtenir est enfin là  !

Vous l’avez compris, je suis content de ma nouvelle acquisition qui se compose d’une carte mère Zotak ION ITX C (CE). Cette carte est basée sur un processeur ATOM N230 à  1.6GHz, équipée d’un gros radiateur mais sans le moindre ventilateur. La carte est en outre fournie avec une alimentation externe (adaptateur type portable) ce qui permet d’avoir un ensemble peu onéreux. Le stockage de masse est assuré par un adaptateur CF – SATA puisque la carte mère ne propose que 3 Sata comme extensions de ce type. Le tout est monté dans un boitier adapté au mini-itx sur lequel j’ai éliminé alimentation fournie et ventilateur. Le boitier de marque smart teck est très sympa, il laisse la place à  un lecteur DVD 5″1/4 et un disque 3’1/2 ; je dirai bien qu’un emplacement 2″1/2 manque, mais ce serait trop en demander et le lecteur CF/sata ne vibrant pas il est tout à  fait possible de le fixer sur l’emplacement 3’1/2. Le montage aura pris quelques minutes. Le temps ensuite d’installer un système (SLED 11) avant de vous livrer quelques résultats de test de cet ensemble. Je peux d’ores et déjà  vous annoncer un consommation électrique de l’ordre de 30 à  50W selon l’usage ce qui est équivalent à  mon système précédent basé sur un via SN 18000.