Le fonctionnement d’Ajax

(article écrit par un groupe d’étudiants d’IUT dans le cadre d’un projet)

Impossible de vous expliquer comment fonctionne Ajax si vous ne connaissez pas l’organisation du World Wide Web aussi appelé Web.
Les notions de client et de serveur sont élémentaires pour comprendre l’Internet.
Derrière l’entité serveur se cache tout simplement un disque dur contenant des données. Celles-ci peuvent être sous la forme de fichiers, d’applications ou de bases de données. Bien sûr, un serveur n’est pas forcément spécialisé et peut très bien regrouper toutes ces données. Un Client est en réalité un ordinateur relié au réseau comme celui que vous êtes en train d’utiliser. Les échanges entre ces deux entités diffèrent selon la technologie utilisée.

Tout d’abord, je vais essayer d’expliquer aux plus novices d’entre vous comment marche l’affichage d’une page web utilisant uniquement le HTML.
Si vous voulez davantage connaître l’HTML, je vous conseille de visiter cette page : http://www.ext.upmc.fr/urfist/html/html.htm.
Lorsque vous surfez sur la toile et que vous cliquez sur un lien, ou tapez une adresse, votre navigateur web (Internet Explorer ou Mozilla) envoie une requête au serveur. Le serveur étant toujours prêt à répondre aux demandes du client, il retourne au navigateur web du client une page HTML stockée sur son disque dur. C’est ensuite votre navigateur qui va interpréter et afficher la page.
Voici un petit schéma explicitant les quelques lignes ci-dessus:

Mais le web n’est pas composée que de pages statiques. En effet, avec le langage PHP les pages ont la possibilité d’être animées.Par exemple, avec un petit script PHP la page peut afficher la date et l’heure à laquelle elle a été affichée. Ici, les échanges entre serveur et client sont différents. Le processus est similaire, sauf que le serveur effectuera un traitement avant de renvoyer la page.

En effet, le serveur va devoir exécuter le script. Celui retournant la date et l’heure n’est pas gourmand en ressources système, mais certains peuvent pénaliser le serveur.Voici,un second schéma:

Un troisième langage permet de faire des pages dynamiques, il s’agit du JavaScript. Le traitement est différent car c’est du coté client que le script s’exécute. Cela permet de ne pas surcharger le serveur, et facilite ainsi sa tâche. Les traitements effectués coté client sont d’un ordre généralement différent de ceux effectués coté serveur. Le javascript est principalement utilisé pour des opération de rendu de l’affichage alors que les traitements serveur sont plus focalisés sur la gestion des données.

Cet article ne devait pas être sur le fonctionnement d’Ajax ? Si, bien sûr, mais pour comprendre son fonctionnement, il faut savoir comment les langages les plus courants opèrent puisque Ajax est en réalité un ensemble de technologie(s) et de langages.
Ajax est un mélange des deux précédents schémas : Lorsque le client télécharge une page, celle-ci intègre des composant Javascript (donc exécutés coté client) qui seront ensuite capables de requêter de nouvelles informations au serveur et se chargeront de les afficher dans le navigateur.
Les javascripts établissent ainsi une communication entre le client et le serveur par la création d’un contrôle ActiveX sous Internet Explorer et d’un XMLHttpRequest sur la plupart des autres navigateurs.
Le serveur communiquera avec le client en lui transmettant des texte souvent formatés à l’aide de XML. Le navigateur se chargera de l’interprétation et de l’affichage de ces données.

Avec l’Ajax, les échanges entre serveur et client ne nécessitent plus de raffraichissement complet de l’écran mais seulement de certaines zone de celui-ci. L’utilisateur aura donc un impression d’interactivité beaucoup plus grande. Les mises à jour de la page ont lieu régulièrement, à chaque fois que l’on est dans la situation où la requête est envoyée. Ce système est aussi plus économique pour le réseau et le serveur qui ne génèrent plus que des informations partielles (au risque de pooling près).

Comparatif de consommation liée à l’alim

Petit test de ce vendredi soir (un peu comme s’il fallait amortir mon wattmetre ! lol) Un comparatif de consommation avec plusieurs alimentations différentes. Depuis que j’ai appris que les alim avait un rendement (ca je m’en doutait) qui pouvait avoir de fortes variations, je me suis demandé si d’une alimentation à  l’autre je pouvais trouver un gros écart. J’ai donc sorti mon stock d’alim du placard pour quelques tests. L’alim est branchée sur ma carte epia sn 1800 avec vidéo ati HD 2600 pro, un lecteur de CD et un disque usb.
Les résultats ne sont pas mirobolants mais je vous les propose tout de même:

  • Alimentation dell 150w ; conso à  vide 15W ; démarrage (n’a pas voulu démarrer (n’aime que les dell on dirait))
  • Alimentation bas de gamme 350W : conso à  vide 13W ; en charge 59W
  • Alimentation Fortron 300W ; conso à  vide 9W ; en charge 65W
  • Alimentation ACC 350W ; conso à  vide 9W ; en charge 66W
  • Alimentation Fortron ZEN 300W ; conso à  vide 22W ; en charge 68W

Bref, ce n’est pas parce que l’on paye une alim cher que l’on va faire des économies si l’on regarde la conso d’une bas de gamme par rapport à  une Fortron. Le gain est par contre ailleurs, stabilité de l’alim, ventilation plus silencieuse… Reste à  mesurer si l’alim Fortron ZEN 300W, sencée se distinguer par son rendement (87%) fait mieux que les autres.
Ensuite, la consommation à  vide est celle de l’alim branchée alors que rien ne tire dessus. Ajoutez 2W en gros pour la veille de la carte mère. Là  dessus les alimentations de qualité supérieure se distinguent et ce d’autant plus qu’elle possèdent un interrupteur 220V permettant pour de vrai de tout couper. Pour rappel, 15 W sur 1 an coûte dans les 13€ d’électricité.

Je vais accorder un plus ample test à  l’alim Fortron ZEN 300W, mais à  première vue suivant les résultats ci-dessus, il s’agit de la moins économique (celle qui consomme le plus à  charge équivalente) Ce point est surprenant car elle est connu pour avoir un très bon rendement permettant d’avoir moins de perte en chaleur et donc un refroidissement fan-less… et bien, étrangement c’est celle qui a le plus mauvais rendement selon mon test … reste qu’elle a tendance à  affoler mon wattmètre d’habitude stable et qui là  oscille entre 66 et 75W (Peut être le signe de condo tampon moins gros, ce qui visuellement semble se confirmer)

Configuration de Compiz Fusion sur Suse 10.3 avec Radeo HD 2600 Pro

Je n’ai jamais pu installé compiz fusion, faute à  une des rares cartes video non supportée par les drivers propriétaires Nvidia. Cette nouvelle carte est une occasion de m’y mettre, ne serait-ce que pour voir.
Compiz-fusion avec la suse 10.3, c’est une histoire de click. Cette version est en effet complète : du répository ATI aux composent Compiz, bery, xgl… tout est là  et presque installé en standard. J’ai donc commencé par installé les drivers fglrx en rencontrant un petit soucis car le module installé par suse ne portait pas la meme référence que le noyau que j’avais moi même recompilé. Qu’à  celà  ne tienne, une modprobe -f fglrx.ko règle le problème. Cette situation ne sera cependant que temporaire car du coup le module refuse de se charger automatiquement.
J’ai donc installé les drivers fournis sur le site d’ATI (je pense que ce sont les même en fait, en ce moment) et recompilé le module (il est possible que cette manip puisse se faire avec le packet de Suse, mais je n’ai pas testé avant). Attention, pour recompiler le module il faudra faire pas mal de ménage et à  la main.

La présence du module est importante : lorsque le serveur X fglrx est installé sans que le DRI soit chargé, les fenetres deviennent extrèmement lente, non sans me rappeler la fluidité d’un 486 sous windows 95 (ceux qui étaient nés me comprendront)… Instant de nostalgie passé, cette situation n’est pas tenable ! Bon bref, dans une telle situation, vérifiez la présence du module fglrx (lsmod | grep fglrx). S’il n’est pas présent c’est normal.

Vous pouvez aussi diagnostiquer le bon fonctionnement des parties 3D par les commandes suivantes:

root@epia> fglrxinfo
display: :0.0 screen: 0
OpenGL vendor string: ATI Technologies Inc.
OpenGL renderer string: ATI Radeon HD 2600 Pro
OpenGL version string: 2.1.7170 Release

Glxgear doit donner un nombre de frame conséquent (notez que autour de 300 FPS c’est deja pas mal et que quand tout va mal, il y en a plutôt 40
root@epia> glxgears
24874 frames in 5.0 seconds = 4974.736 FPS

fgl_glxgears doit aussi donner un bon nombre de frames par seconde
root@epia>fgl_glxgears
Pour ma part les résultats sont de l’ordre de 100 FPS.

Pour l’étape suivante, à  savoir faire fonctionner Compiz-fusion, il faut que le glx soit activé et fonctionne bien ; il sera possible de vérifier quelques points préalable avec les commandes suivantes:
root@epia> glxinfo | grep “direct rendering” qui doit retourner une ligne avec “direct rendering: Yes”

Tout cela vérifié, vous devriez être à  même d’activer le mode sgl et de lancer Compiz-Fusion … Si cela fonctionne chez vous c’est que vous êtes plus chanceux que moi …. L’activation se fait de la façon suivante : lancez en tant que root la commande suivante : gnome-xgl-switch –enable-xgl puis rebootez le PC. Une fois redémarré Compiz devrait pouvoir se lancer.

Pour ma part, une fois xgl activé j’ai de très nombreux soucis de raffraicissement, en fait je dirait même que plus rien ne se raffraichi, bref, c’est totalement inutilisable. Je n’ai trouvé aucune information sur ce problème pour l’instant sur Internet, donc si vous avez des pistes, laissez moi quelques commentaires, je suis preneur.

Quelques liens qui m’ont bien aidés:

Un test de performance EPIA 1.8G vs Athlon 1.5G

Je vous propose la comparaison suivante réalisée entre la carte Epia 1.8G et mon Athlon 1.5G (1800+) ; Nous avons comparé ces machines en terme de bogomips qui reste quelque chose d’assez subjectif, j’ai donc effectué un test sur ces deux machine à  l’aide de l’outil lmbench3. Le test est plutot long (4 heures) mais il ya beaucoup de résultats. Voici les premiers :

  • athlon | kernel / freq / tlb page / cache line | 2.6.18 / 1513Mhz / 32 / 64o
  • epia… | kernel / freq / tlb page / cache line | 2.6.22 / 1781Mhz / 64 / 64o
  • p4….. | kernel / freq / tlb page / cache line | 2.6.18 / 1700MHz / 55 / 128o

Process, temps en microsecondes (le plus petit est le mieux) :

  • athlon | null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,3 / 0,47 / 4,67 / 35,5 / 205 / 1398 / 8236
  • epia… | null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,1 / 0,31 / 2,42 / 13.0 / 256 / 1173 / 7213

La carte epia offre un gain non négligeable sur l’ensemble des tests, hors mis le fork ; l’exec de programme ou sh peut être faussé par le fait que le filesysteme de l’epia est sur usb. Le kernel plus récent peut aussi jouer en la faveur de l’epia.

Calculs entiers (en nano secondes – le plus petit est le meilleur) :

  • athlon | calculs bits / addition / mult/ div / modulo | 0,69 / 0,02 / 2,83 / 28,9 / 28,2
  • epia… | calculs bits / addition / mult/ div / modulo | 0,56 / 0,02 / 0,61 / 29.0 / 30,1
  • p4….. | calculs bits / addition / mult/ div / modulo | 0,30 / 0,01 / 8,37 / 43,9 / 37,1

Hors mis un point étrange sur la multiplication de l’athlon, les l’epia et l’athlon se valent, la différence de fréquence justifiant les écarts. Le P4 performe en addition / masquage mais se trouve plutôt moyen sur les calculs plus complexes.

Calculs flottant -float- ( en ns – le plus petit est le meilleur) :

  • athlon | calculs addition / mult/ div / bogo | 2,7 / 2,9 / 16,3 / 15,8
  • epia… | calculs addition / mult/ div / bogo | 3,9 / 4,2 / 40,8 / 51,4
  • p4….. | calculs addition / mult/ div / bogo | 2,9 / 4,2 / 25,5 / 25,4

L’unité de calcul en virgule flottante de l’athlon semble beaucoup plus efficace que celle de l’epia surtout pour les divisions.

Calculs flottant -double- ( en ns – le plus petit est le meilleur) :

  • athlon | calculs addition / mult/ div / bogo | 2.72 / 2.74 / 47,5 / 15,6
  • epia… | calculs addition / mult/ div / bogo | 3,90 / 4,47 / 40,8 / 51,4
  • p4….. | calculs addition / mult/ div / bogo | 2,90 / 4,20 / 25,5 / 25,4

Il semble que l’unité de traitement de l’epia calcule en double comme en float (comme le P4) alors que l’athlon optimise certaines partie dans le cas de float. Il est intéressant de prendre ceci en compte lorsque l’on calcul la puissance de calcul par watt par exemple car cet exemple illustre que l’architecture interne du processeur peut avoir un impact fort sur la vitesse de calculs, surtout dans le cas de float/doubles.

Latence des communications ( en microseconde – le plus petit est le mieux) :

  • athlon | context switch / AF UNIX / UDP / RPC-UDP / TCP / RCP-TCP / TCP-CON | 2,18 / 11,6 / 18,0 / 35,1 / 59,0 / 43,2 / 89
  • epia… | context switch / AF UNIX / UDP / RPC-UDP / TCP / RCP-TCP / TCP-CON | 0,90 / 8,55 / 10,7 / 16,5 / 13,2 / 20,1 / 48

On retrouve ici les performance système bien meilleures pour l’epia, mais ceci peut toujours venir du noyau plus récent et compilé spécifiquement pour le processeur.

Latence sur les fichiers ( en microseconde – le plus petit est le mieux) :

  • athlon | 0k create / 0K delete / 10K create / 10K delete / Page Fault | 30,1 / 32,1 / 119,2 / 58,0 / 4,17
  • epia… | 0k create / 0K delete / 10K create / 10K delete / Page Fault | 16,0 / 13,5 / 123,4 / 27,3 / 1,96

Résultat très intéressant car l’epia a un file système sur usb qui, comme nous l’avons vu est peu performant. Malgré tout les performance sont meilleures que sur l’athlon, donc là  encore la performance “système” est meilleure.

Débit avec la mémoire ( en MB/s – le plus grand est le mieux) :

  • athlon | Mmap reread / bcopy libc / bcopy manuel / mem read / mem write | 554 / 240 / 278 / 617 / 385
  • epia… | Mmap reread / bcopy libc / bcopy manuel / mem read / mem write | 601 / 408 / 406 / 565 / 980

Très bons résultats pour l’epia, sauf en lecture mémoire où il est équivalent. La technologie mémoire n’est pas la même : DDR vs DDR2 il n’y a rien d’étonnant à  ce que l’epia performe, et c’est une très bonne nouvelle pour les performances.

Latence mémoire ( en ns – le plus petit est le mieux ) :

  • athlon | cache L1 / cache L2 / Main memory / random | 2.04 / 13.8 / 174 / 422
  • epia… | cache L1 / cache L2 / Main memory / random | 3.36 / 16.2 / 080 / 320
  • p4….. | cache L1 / cache L2 / Main memory / random | 1.21 / 29.2 / 151 / 284

Le cache de l’Athlon semble plus performant mais l’accès hors cache de l’epia est bien meilleur. L’architecture cache du C7 est sans doute moins évoluée (normal si l’on veut consommer moins) mais la techno mémoire plus récente permet un gain qui sera utile. Le P4 offre visiblement un meilleur accès aux cache L1 et à  la mémoire que l’athlon pour une technologie similaire.
En conclusion, l’objet de ce test n’était pas de comparer un Athlon avec un C7, mais plus simplement de comparer ma machine actuelle avec sa future remplaçante. Mon inquiétude était que celle orientée basse consommation d’énergie ait renié sur les performance et que la fréquence indiquée ne soit qu’un leurre marketing. Même si sur certains point on sent bien que l’architecture internet et plus simpliste que sur un composant bien plus gourmand en énergie les résultats, au global sont à  la hauteur de mes attentes.

Quelques tests de débits sur les suports de stockage de masse

La solution mise en place sera basée sur l’utilisation d’une carte compact flash en guise de disque dur, l’occasion de comparer la performance de différents supports qui peuvent être utilisés dans de l’embarqué. N’ayant pas encore ma carte CF ultra-rapide j’ai effectué le test avec une carte très ancienne (acheté en 1999) de 40Mo, je vous livrerez donc un complément dès que ma carte 8G @ 40MB/s (sur le papier) sera arrivée. (ça y est, elle est là  !)
Pour ce qui est des tests réalisés, en voici les résultats:
Performance max obtenue par un hdparm -t <device>

  • Disque dur SATA – RAID 0 : 55 Mo/s
  • Disque virtuel basé sur disque précédent : 53 Mo/s
  • Compact Flash 8G (sur port ATA) : 39 Mo/s
  • Disque dur sur ATA (La référence que je souhaite remplacer) : 30 Mo/s
  • Disque dur sur USB : 10.8 Mo/s
  • Disque virtuel sur NFS (reseau 100Mb) : 10.3 Mo/s
  • Clef USB2 récente : 10.4 Mo/s
  • Compact Flash 40 Mo (sur port ATA) : 1,8Mo/s
  • Clef USB1 ancienne : 1,02 Mo/s

 

Performance min estimée avec le programme seeker (cf ici )

  • Compact Flash 8G (sur port ATA) : 8,1 Mo/s
  • Compact Flash 40 Mo (sur port ATA) : 2,5Mo/s
  • Clef USB2 récente : 1,2 Mo/s
  • Disque dur sur USB : 332 Ko/s
  • Disque dur sur ATA : 220 Ko/s (en fait, doit être comme le précédent mais le disque n’est pas le même)
  • Clef USB1 ancienne : 240 Ko/s
  • Disque virtuel sur NFS (reseau 100Mb) : 148 Ko/s

Ce résultat est intéressant, car ce test met en avant la perte de temps lié à  l’aspect mécanique des disques dur. Si dans le test précédent, où l’on lit des données en continu, le HD est de loin le plus rapide (les autres étant limité par leur bus (usb) ou leur technologie (CF) ), ses temps d’accès ne sont pas bon à  cause des mouvements mécaniques. On peut considéré que la carte compact flash testée est aussi rapide sur un accès d’un seul gros fichier que d’une multitude de tout petits fichiers disséminés partout. On retrouve de la même façon un écart intéressant sur la clef USB2 avec une pénalité sans doute dû à  l’accès série au données.

Temps de réponse mesuré avec seeker

  • Compact Flash 8G (sur port ATA) : 0,56ms
  • Compact Flash 40 Mo (sur port ATA) : 1,6ms
  • Clef USB2 récente : 3,39ms
  • Disque dur sur USB : 11,9ms
  • Clef USB1 ancienne : 14,6ms
  • Disque virtuel sur NFS (reseau 100Mb) : 26.74ms
  • Disque dur sur ATA : 32 ms (en fait, doit être comme sur usb mais le disque n’est pas le même)

On remarque ici l’énorme écart entre une technologie flash et une technologie magnétique (mécanique) avec un facteur de l’ordre de 10.

En conclusion, si la promesse d’un débit en pointe de 40Mo/s est tenu par la compact flash nouvelle génération que j’ai commandé, les performance disque du système seront au moins égales à  celle d’un disque dur (du moins celui que j’ai actuellement) en outre, le temps d’accès sera largement meilleurs, bref, à  l’usage, la partie stockage de masse devrait être plus confortable qu’un disque dur classique. (l’espace de stockage en moins, c’est sûr, mais pour ma part j’utilise un NAS donc ce n’est pas un problème)

En complément, j’ai effectué des tests supplémentaires à  l’aide de l’outil bonnie++ qui permet une analyse plus fine:

  • Write ( seq char / seq bloc / rewrite )
    • Disque dur SATA RAID : 35M / 31M / 15M
    • Disque dur ATA : 21M / 35M / 13M
    • Disque dur sur USB : 11M / 26M / 12M
    • Disque dur sur NFS : 9M / 9M / 3M
    • Compact Flash 8G (sur port ATA) : bientot
  • Read (seq char / seq block)
    • Disque dur SATA RAID : 23M / 45M
    • Disque dur ATA : 24M / 26M
    • Disque dur sur USB : 10M / 26M
    • Disque dur sur NFS : 7M / 7M
    • Compact Flash 8G (sur port ATA) : bientot

Causons puissance

Je viens de réaliser un superbe investissement, dans ce magnifique Wattmètre, pour la somme rondelette de 13 euros chez Leroy Merlin …

Vous avez tout compris on ne va trop parler taille de quéquette en frame par seconde, mais plutot Watt / heure … concernant la machine, aller, je ferai un effort, on va aussi causer bogomips par watt si vous voulez !

J’ai donc réalisé les tests suivants en pause au bios à  1.8GHz (tests statiques):

  • Consommation de le carte mère seule (avec l’alim tout de même) : 40 W
  • Consommation de le carte mère seule + Compact Flash : 42 W
  • Consommation avec lecteur de cd branché mais inactif : 43 W
  • Consommation de mon HD usb éteint : 6W (c’est énorme !!)
  • Consommation de mon HD usb allumé : 15W

Essayons quelques tests dynamiques:

  • Consommation au boot en pic 43W
  • Consommation en environnement graphique sans application entre 33 et 43W. Il semble qu’en idle la carte consomme autour de 33W et qu’elle monte à  43 lorsque le processeur bosse.
  • Consommation lorsque le processeur est mis en basse fréquence entre 31 et 35W.

Voyons un peu l’analyse que l’on peut en faire

  • Le coût par an (365j) en électricité (a 0.1€/kWh) est entre : 28.9€ (0.1*33*24*365/1000) et 38€ (0.1*43*24*365/1000) en mode full
  • Le coût par an en mode low est entre 27.1€ et 30€

=> L’économie est au mieux de 20% sur cet élément, mais au global avec écran, elle sera vraiment moindre, disons qu’au lieux le gain sera de 8€. Le mode basse consommation n’a pas un grand intérêt pour la planète il permettra je l’espère de réduire le bruit de l’ensemble…

  • Le rapport Watt / bogomips en full est de : 43/3593 = 0,012W/bogomips
  • Le rapport Watt / bogomips en low est de 35/1597 = 0,022W/bogomips

=> Le rapport entre puissance de calcul et puissance consommée est clairement en faveur du mode 1.8GHz, le facteur étant de l’ordre de 2. Calculer en mode 800M est donc un gachi d’énergie.

Si je compare cette machine à  mon PC actuel (UC seule) basé sur un Athlon à  1.5G avec 1HD, la consommation est entre 117W et 128W, le coût de fonctionneme annuel est estimable entre 102 et 112€.

De là , on peut déterminer le Retour sur investissement de la solution basse consommation. La solution epia coûte (cm+cf+ram) 420€, le gain annuel etant de 74€ il faudra 5,6 an pour que l’achat soit couvert par le gain d’énergie. Cette durée, en informatique, signifie que le ROI ne sera jamais atteint … Par contre si l’on compare le coût d’achat d’une solution neuve non epia (disons cm+hd+ram = 80+70+50 = 200) la différence sera amortie en 3 ans ce qui est la durée de vie d’un PC. Bref … pas vraiment de ROI à  une solution basse consommation, surtout lorsque la machine ne tourne pas 24/24 et de toute façon on ne pourra pas comparer les modèles comme étant équivalent. C’est donc bien du coté du bruit et de l’encombrement qu’il faut regarder pour l’énergie, on aura, au mieux la sensation de faire faire des économies de gaz à  effet de serre à  la planète (quoi que l’électricité en France est assez propre de ce coté là ).

Petit retour sur les classement watt/bogomips:

  • solution macbook @ 2×1.8G : 50 / 9334 = 0,005W/bogomips
  • solution core 2 duo @ 2×1.8G : 98 / 9334 = 0,010W/bogomips
  • solution epia @ 1.8G : 43/3593 = 0,012W/bogomips
  • solution P4 @ 1.7G : 60/4254 = 0,014W/bogomips
  • solution sempron @ 1.4G : 60/2816 = 0,021W/bogomips
  • solution athlon @ 1.5G : 128/3032 = 0,042W/bogomips

=> Quoi en conclure… pas grand chose, car les configuration sont assez différentes :

  • macbook = 1 hd 2” sans doute coupé lors du test mais un écran.
  • core 2 duo = 2 hd, 4 ventillos, 4Go de mémoire ….
  • epia = compact flash, vidéo intégrée et rien d’autre
  • P4 = pas de HD, pas d’ecran (video off et vieille carte)
  • sempron = 3 HD, 4 ventillos …
  • athlon = 1 hd, 2 lect cd, 4 ventillos, clavier souris, 2 ecrans (non comptabilisés mais CV costaude)

Bref des configurations vraiment hétéroclites, ajoutons à  cela en onduleur en série sur chaque machine. l’idée est donc plutôt d’avoir des ordres de grandeur pour moi. Je note d’ailleurs que le remplacement que je vais effectuer (l’epia à  la place de l’athlon est donc le plus rentable)

Au passage …. ma facture d’électricité annuelle liée aux PC : 350Wh soit 300€ … pas mal quand même et l’epia devrait me faire gagner 20% là  dessus… bonne nouvelle ! Non ?!?

Non en effet, pas tout à  fait … je vous ai parlé de mon grille pain (la carte video fan-less) et bien quand on met les deux ensemble :

On arrive à  une consommation de 63W soit une conso supplémentaire de 20W alors que je ne fait que de la 2D de base sur un seul écran sans compter l’échauffement énorme qui va avec bref l’économie passe de 128W à  60W c’est toujours ça mais c’est moins bien.
L’utilisation du lecteur cd me fait monter à  75W, donc 12W de mieux.

Configuration de la gestion dynamique de la rotation du ventilateur et sondes de température

J’en ai parlé hier suite à  la configuration de la gestion dynamique de la fréquence de fonctionnement pour transformer cette carte EPIA SN en une carte silencieuse, il va me faloir user d’un minimum de configuration… Si je résume ma problématique, on peut dire les choses ainsi :
Le bios ne permet pas de régler la fréquence, ainsi la carte démarre en mode consommation maximum et élévation de la température associée. Il y a bien moyen de régler la vitesse des ventilateurs pour faire taire la bête mais l’échauffement au boot et trop dangereux. Le mode dans lequel le bios se charge de la régulation serait très utile, mais une fois le noyau lancé, il ne fait plus rien. Bref, il n’y a pas beaucoup de solutions: il faut démarrer tout ventilateur en route.
C’est donc dans une seconde étape, une fois le kernel booté que l’on va pouvoir jouer avec la fréquence et la vitesse des ventilateurs, dès lors que ces éléments seront controlable par soft. Mon but est le suivant : reproduire l’asservissement des ventilateurs réalisé par le bios par l’emploi d’un logiciel lisant la température et pilotant la ventilation. Ce logiciel pourra en outre activer ou non la puissance maximum de la CPU en fonction du besoin utilisateur. Pour être plus clair : ma machine tourne 24/24, lorsque je ne suis pas devant je lui fait faire e gros calculs (en idle) ; pour cela une mode basse conso sans ventilo me semble très bien, si par contre, je commence à  consommer plus de x% de cpu hors idle et ce un certain temps, je souhaite que la CPU puisse délivrer le meilleur d’elle même… Tout ca n’est pas très novateur ca existe sur les portables depuis belle lurette (à  la gestion du nice près). Voila donc où je veux en venir … reste à  en voir les étapes

Je pars donc de ce lien qui va me permettre de mettre à  jour mon noyau pour supporter le pilotage du ventilo et des capteur de température (enfin j’espère). Pour ce qui est de la fréquence, il faut voir cet article sur le sujet.

D’après la doc il faut commencé par patcher le noyau pour lui permettre de supporter le vt1211, comme le patch est spécifique à  des ditributions autres que la Suse 10.3, il faut se faire le patch à  la mano … et là  pour l’instant, demi bonne nouvelle le VT1211 est intégré à  mon noyau, cependant le code est assez différent… et il semble que par défaut ca ne soit pas intégré à  mon noyau … la petite dépendence sur “EXPERIMENTAL” me rassure quand à  la faisabilité donc GO!!! pour un make xconfig Et là  ohhh déception !!! le vt1211 est bien présent, il est même compilé … Mais sur cette carte VIA EPIA SN … il n’y a pas de vt1211 pour le monitoring hardware, mais sans doute un autre chip non supporté !!!!

Bon, bref … pour l’instant c’est mort …. et j’avoue que ca m’ennuie fortement !! Heureusement, la solution n’a pas tardé à  venir … et cet article décrit tout cela …

Configuration de la gestion dynamique de la rotation du ventilateur et sondes de température

J’en ai parlé hier suite à  la configuration de la gestion dynamique de la fréquence de fonctionnement pour transformer cette carte EPIA SN en une carte silencieuse, il va me faloir user d’un minimum de configuration… Si je résume ma problématique, on peut dire les choses ainsi :
Le bios ne permet pas de régler la fréquence, ainsi la carte démarre en mode consommation maximum et élévation de la température associée. Il y a bien moyen de régler la vitesse des ventilateurs pour faire taire la bête mais l’échauffement au boot et trop dangereux. Le mode dans lequel le bios se charge de la régulation serait très utile, mais une fois le noyau lancé, il ne fait plus rien. Bref, il n’y a pas beaucoup de solutions: il faut démarrer tout ventilateur en route.
C’est donc dans une seconde étape, une fois le kernel booté que l’on va pouvoir jouer avec la fréquence et la vitesse des ventilateurs, dès lors que ces éléments seront controlable par soft. Mon but est le suivant : reproduire l’asservissement des ventilateurs réalisé par le bios par l’emploi d’un logiciel lisant la température et pilotant la ventilation. Ce logiciel pourra en outre activer ou non la puissance maximum de la CPU en fonction du besoin utilisateur. Pour être plus clair : ma machine tourne 24/24, lorsque je ne suis pas devant je lui fait faire e gros calculs (en idle) ; pour cela une mode basse conso sans ventilo me semble très bien, si par contre, je commence à  consommer plus de x% de cpu hors idle et ce un certain temps, je souhaite que la CPU puisse délivrer le meilleur d’elle même… Tout ca n’est pas très novateur ca existe sur les portables depuis belle lurette (à  la gestion du nice près). Voila donc où je veux en venir … reste à  en voir les étapes

Je pars donc de ce lien qui va me permettre de mettre à  jour mon noyau pour supporter le pilotage du ventilo et des capteur de température (enfin j’espère). Pour ce qui est de la fréquence, il faut voir cet article sur le sujet.

D’après la doc il faut commencé par patcher le noyau pour lui permettre de supporter le vt1211, comme le patch est spécifique à  des ditributions autres que la Suse 10.3, il faut se faire le patch à  la mano … et là  pour l’instant, demi bonne nouvelle le VT1211 est intégré à  mon noyau, cependant le code est assez différent… et il semble que par défaut ca ne soit pas intégré à  mon noyau … la petite dépendence sur “EXPERIMENTAL” me rassure quand à  la faisabilité donc GO!!! pour un make xconfig Et là  ohhh déception !!! le vt1211 est bien présent, il est même compilé … Mais sur cette carte VIA EPIA SN … il n’y a pas de vt1211 pour le monitoring hardware, mais sans doute un autre chip non supporté !!!!

Bon, bref … pour l’instant c’est mort …. et j’avoue que ca m’ennuie fortement !! Heureusement, la solution n’a pas tardé à  venir … et cet article décrit tout cela …