Quelques conseils pour bien charger vos appareils USB



Après un petit billet sur les batteries externes USB, voici maintenant quelques conseils pratiques pour utiliser au mieux votre chargeur ou batterie externe USB et comprendre pourquoi parfois “ça-met-des-plombes-à-charger”.

D’ailleurs le terme “chargeur” est mal employé car il s’agit à la base d’un simple transformateur de tension 220V ou 12V allume-cigare vers du 5V USB, la partie “chargeur” qui gère le cycle de charge de la batterie étant intégrée dans le smartphone/tablette.

Premier conseil : utilisez un câble USB de qualité, capable de transporter tout le courant que peut fournir votre transfo ou batterie USB, par exemple si vous avez un transfo USB pouvant fournir 2000 mA et que votre câble est de mauvaise qualité il pourrait ne faire passer que 500mA et si votre appareil accepte 1000 mA en courant de charge il mettra jusqu’à 2 fois plus longtemps à se charger.

Pour vous aider à vérifier, regardez sur le câble si vous voyez une indication du genre 28AWG, 26AWG ou 24AWG, souvent vous en avez 2 qui se suivent, une pour la paire de fils qui fait transiter les données avec un “2C” au bout (celle-là ne nous intéresse pas), et l’autre pour l’alimentation électrique qui se termine avec “1P”. Plus le chiffre est petit meilleur c’est, 24AWG c’est très bien, 26AWG c’est correct, 28 c’est moyen et fuyez le 30.

cables_usb
Vous pouvez aussi utiliser des applications capables de lire les sondes de courant intégrées dans le smartphone ou la tablette et indiquer combien sont actuellement utilisés et par conséquent en changeant de câble vous verrez si ce chiffre change ou pas, ou encore utilise un petit module USB à insérer entre le transfo USB et la câble comme ceux que j’ai indiqués dans ce billet.

usb3

 

Second conseil : si vous voulez gagner du temps, chargez votre appareil lorsqu’il est éteint ou en veille plutôt qu’en train de l’utiliser/jouer avec car le courant qui arrive dans l’appareil se divise en deux parties, une première partie va faire fonctionner l’appareil (prioritaire) et ce qui reste de disponible va vers la batterie, plus l’appareil est sollicité plus il demande de courant et moins il en reste pour la batterie surtout si votre source et/ou votre câble USB ne peuvent fournir suffisamment de courant pour alimenter pleinement les 2 à la fois.

A ce propos, le courant de charge est automatiquement limité par l’appareil par rapport à sa batterie peut supporter, donc connecter un “gros” transfo de 10000000 ampères ne pose aucun problème, votre appareil ne prendra que ce dont il a besoin.

Voici maintenant un exemple concret de problème : dans une voiture + prises USB sur allume-cigare + smartphone en mode GPS, il peut arriver que le smartphone ne se charge pas beaucoup voir même se décharge lentement !

Explication : si la prise USB allume cigare ne peut fournir que 500mA par exmeple, ça sera sûrement en dessous de ce dont le smartphone aura besoin pour son écran en luminosité maximum + GPS allumé + logiciel GPS + transfert de données 3G/4G pour les cartes et les infos trafic, du coup le smartphone va pomper sur l’allume cigare au maximum et ne laissera rien pour la batterie voir même si cela ne suffi pas il pompera aussi sur sa batterie interne.

p.s : Certains constructeurs ont des systèmes de charge qui fonctionnent à des tensions ou courants de charge variables et utilisent même les 4 fils d’un câble USB afin d’accélérer la charge mais cela n’a pas d’influence sur le fond de ce billet (exemple le système Quick Charge 2.0 de Qualcomm).

 



Capacité des batteries externes USB attention aux chiffres !



Quand vous achetez une batterie externe USB la première chose que vous regardez c’est le chiffre de sa capacité 3 lettres mAh, le problème est que cette valeur est fausse, enfin disons qu’elle est vraie mais on oublie de vous dire qu’en réalité vous ne pourrez utiliser environ que 70% de cette capacité.

On nous aurait donc menti ? oui du point de vue de l’utilisateur et non du point de vue du fabricant, explication :

Tout d’abord c’est quoi ce mAh ? cela signifie milliampères par heure, cela représente la quantité de courant que va pouvoir délivrer la batterie en une heure même si cette batterie (surtout les grosses capacités) ne pourra pas tout donner en une seule heure ce chiffre ramené à une heure permet d’avoir une échelle commune pour toutes les batteries.

Donc plus le chiffre est gros plus la batterie aura de capacité à délivrer du courant et donc augmenter le nombre de fois ou elle pourra recharger votre smartphone par exemple, ou faire tenir votre tablette le plus longtemps possible si on vide la batterie en une seule fois.

Prenons maintenant une batterie qui indique 10.000 mAh qui est une capacité que l’on trouve aujourd’hui facilement pour environ 30€.

Le problème est que ce chiffre de 10.000 mAh n’est valable que pour la tension interne des batteries servant à stocker cette charge de courant à savoir 3,7 Volts le plus souvent, hors votre batterie USB doit restituer sa charge en 5 Volts qui est la tension standard de fonctionnement de l’USB , il lui faut donc augmenter sa tension de 1.3 Volts pour arriver à 5 Volts, le problème c’est qu’en électricité il y a une formule qui doit toujours s’équilibrer : P = U * I qui est la Puissance exprimée en Watts = la Tension (notée U) exprimée en Volts multipliée par le Courant (noté I) exprimé en Ampères.

Dans le cas de notre batterie de 10000 mAh fonctionnant avec des batteries de 3,7 V on a donc 37 Watts/heure de puissance (10.000 * 3,7 ).

Revenons quelques années en arrière sur les bancs de l’école et remplaçons 3,7 par 5, combien faudra-t-il de milliampères pour rester à 37 Watts, réponse 7.410 car :

5 / 3,7 = 1,35
10.000 / 1,35 = 7.410
7.410* 5 = 37 en arrondissant, nous retombons donc sur nos pieds.

Nous venons donc de passer de 10.000 à 7.400 environ ce qui représente une baisse de 26% mais ce n’est pas tout, lors de la conversion on va perdre encore un peu d’énergie, variable selon l’efficacité du convertisseur de tension disons qu’au final nous perdrons environ un tiers de la capacité d’origine inscrite sur la jolie boîte de votre batterie externe USB tout neuve, transformant le carrosse de 10.000 mAh en une grosse citrouille d’environ 7.000 mAh.

Certains fabricants indiquent ce taux de perte dans leur manuel.

Donc oui le fabricant a raison en indiquant 10.000 mAh mais franchement qu’est-ce qu’on en a à faire ? il pourrait même indiquer 250.000 mAh, si au final on ne peut en utiliser que 7.000 c’est ce seul chiffre qui nous intéresse !

 



Tester et comprendre la qualité des câbles USB



Des câbles USB il en existe des tonnes aux caractéristiques techniques différentes qui auront un impact sur leur qualité “électrique”.

En clair certains câble seront bons, d’autres mauvais selon les usages, le cas le plus classique est celui du câble que l’on branche sur un disque dur 2.5″ pour le relier à un PC ou à une TV sans utiliser le câble d’origine et parfois ça ne marche pas bien (voir pas du tout).

Autre cas, la qualité du câble pourra avoir un impact sur le temps de chargement de votre téléphone ou tablette allant parfois du simple au double !

Je viens de publier un article qui va vous aider à reconnaître les bons câbles des mauvais (enfin quand je dis mauvais je devrai plutôt dire “inadapté” à l’usage) et comprendre aussi pourquoi la longueur des câbles est aussi un facteur important et nécessitera de bien choisir le type de câble.

Vous trouverez cet article sur le blog de Framboise314

Mais pourquoi ne pas l’avoir publié ici ? tout simplement parce qu’à la base le billet était dédié à tester les câbles USB avec un mini-ordinateur de type Raspberry Pi et que de ce fait j’ai préféré le publier sur un site dédié à cet ordinateur, cependant le texte englober d’autres informations plus générales sur les câbles USB, si vous n’avez pas de Raspberry Pi vous pouvez toujours sauter le début de l’article.



Conseils pour bien réussir une virtualisation d’application



Pour tous ceux qui sont intéressés par l’utilisation d’un logiciel de virtualisation d’application comme Cameyo, Spoon Studio ou VMWare ThinApp, voici un petit tuto rapide qui explique comment ça fonctionne et quelle méthode suivre pour bien réussir la virtualisation (appelée aussi “aspiration”) , attention à ne pas confondre avec le simple fait de rendre une application “portable” qui est un cran en dessous de ce que permet la virtualisation :

Principe de fonctionnement de “l’aspirateur” :

Pour savoir quels fichiers ou éléments de la base de registre le Virtualiseur va devoir récupérer, le principe est toujours le même à savoir qu’une “photo” (snapshot) est faite de l’état de la machine (fichiers et base de registre) “avant” et “après” l’installation du logiciel à aspirer, le Virtualiseur va ensuite faire le différentiel et récupérer les nouveaux fichiers, les fichiers modifiés, pareil pour les entrées de la base de registre pour finalement packager ça un seul gros EXE (ou selon les réglages un petit EXE suivi d’un dossier contenant tous les fichiers et la base de registre virtuelle).

Lorsque l’application virtualisée modifie des fichiers ou base de registre dans une section isolée/protégée par la virtualisation, les fichiers seront en fait stockés dans un sous-répertoire de redirection qui reprendra la même structure que celle d’origine mais dupliquée sous se répertoire, pareil pour la base de registre avec un “vrai-faux” fichier de base de registre dédié à recevoir les modifications du coup si l’application relit ses modifs le virtualiseur la redirigera là et pas dans les “vrais” données.

La marche à suivre :

– Il vaut mieux partir d’une machine propre récemment installée possédant le moins de logiciels installés dedans.

– De ce fait, préférez passer par une machine virtuelle (VirtualBox, VirtualPC pour les gratuits ou VMWare WorkStation, Parallels pour les payants) car il existe une fonction d’annulation qui permet de revenir à zéro pour faire disparaître toutes les installations que l’on a pu faire et relancer la machine virtuelle aussi propre qu’à l’origine, en plus ça vous protège de tout “accident” suite à diverses installations. En plus cela permet d’avoir un OS XP, Seven 32 ou 64bits toujours sous la main sur une même machine physique dans avoir besoin de la redémarrer, sinon il existe aussi des outils qui permettent d’annuler les modifications effectuées sur une machine physique.

– Prenez soin de prendre en compte l’installation l’ensemble des applications satellites à celle que vous voulez virtualiser, par exemple si vous avez une application d’accès à une base de donnée mais que pour fonctionner vous devez aussi installer un pilote spécifique pour cette base de données, faites-le dans la foulée entre les deux snapshots pour que l’ensemble soit aspiré sinon votre application virtuelle ne fonctionnera pas car les données satellites ne seront pas présentes.

– Il peut parfois être intéressant de démarrer l’application au moins une fois avant le second snapshot car parfois il se crée des éléments au premier démarrage qui peuvent prendre du temps donc autant l’inclure dans la virtualisation, mais parfois cela pose aussi problème car l’application peut très bien se servir d’éléments spécifiques à la machine sur laquelle le premier lancement se fait et du coup ne plus fonctionner correctement sur une autre machine (l’aspiration ne prends pas en compte les fichiers ou clés de registre lus par l’application).

– Du fait que l’aspiration ne prend pas en compte les fichiers ou clés de registre qui auraient simplement été lus par l’application, certains pourraient ne pas être présents sur la machine cible. Pour pallier à ce problème les Virtualiseurs permettent d’ajouter manuellement des fichiers ou des clés de registre spécifiques dans le package.

– Si vous avez des soucis de fichiers ou clés de registres manquants, je vous recommande de détecter les éléments manquants grâce à l’excellent ProcMon de SysInternals (gratuit), c’est un outil technique sans danger mais qu’il faut apprendre à utiliser correctement pour pouvoir s’en servir efficacement.

-Selon le type d’application, pensez à affiner les réglages d’isolation permettant à l’application virtualisée d’écrire réellement sur la machine physique. Les réglages d’isolation par défaut sont souvent OK mais vous pouvez les renforcer en autorisant uniquement l’écriture physique dans “Mes Documents” ce qui évitera que l’application puisse modifier quoi que se soit d’autre (fichiers/base de registre) sur la machine cible.

Pour ceux qui veulent en savoir plus sur la virtualisation ou l’émulation j’ai aussi un article dispo ici.

Voilà, dites-moi si je ne suis pas assez clair ou si j’ai commis des erreurs.



Pourquoi l’envoi de données vers Internet est-il plus lent que la réception ?



Avez-vous déjà remarqué que télécharger un fichier sur Internet va plus vite que d’en envoyer un de taille équivalente ? mais pourkoi-komen-t-il-donk ?

La raison vient du fait que les connexions Internet grand-public ont une vitesse de communication “asymétrique” (donc différente selon le sens aller ou retour).

Pour faire simple on peut comparer une vitesse de communication asymétrique à une route de 4 voies 3 vont dans un sens et une seule dans l’autre, on a alors plus de voitures qui passent dans un sens que dans l’autre.

Par contre pour une communication “symétrique” on aurait autant de voies dans un sens que dans l’autre. Et plus la route est large plus on peut y faire passer de voitures ce qui correspondrait à une transmission des données plus rapide.

Si vous avez de l’ADSL (là ou l’on ressent le plus cette différence), le câble (on ressent un peu moins cette différence), ou de la fibre optique en offre grand-public, vous serez (tout du moins à la date de rédaction de cet article en avril 2012) en mode asymétrique, alors qu’une liaison fibre “pro” ou de type SDSL sera symétrique (mais ces liaisons sont coûteuses et donc plutôt réservées aux entreprises).

En ADSL, la largeur de la voie descendante (Internet -> vous) dépend de plusieurs éléments : la longueur de votre ligne téléphonique jusqu’au central, la composition de cette ligne en terme de tronçons (la ligne est rarement composée d’un câble en un seul morceau), le diamètre de câble utilisé pour chaque tronçon, le parasitage électrique autour de la ligne.

Une fois allumé, votre boitier ADSL essaiera d’atteindre une “vitesse de synchronisation” la plus haute possible, sauf si un aspect commercial fait que cette vitesse sera volontairement réduite par rapport à ce que peut réellement supporter votre ligne, ou si votre ligne rencontre des perturbations et que votre opérateur Internet décide de temporairement de limiter cette vitesse pour rendre votre ligne plus stable.

Du côté de la voie descendante, sa vitesse sera relative à la largeur de la voie montante et fonctionnera par paliers : si vous avez une offre “20 mégas” la voie montante pourra aller de 640Kbits à 1Mbits (ça dépend parfois du type d’équipement plus ou moins ancien auquel votre ligne est reliée), si vous avez une offre “2 mégas” (par choix commercial ou obligation technique) vous aurez 320Kb montants, et avec une offre “1 méga” ou “512Kbits” vous aurez seulement 160Kb.

A titre de comparaison, une offre 100Mbits par le câble permet aujourd’hui d’avoir 5Mbits montants soit 5 fois celui de l’ADSL, et pour ceux qui ont la chance d’avoir accès à une offre fibre grand-public, celle-ci offre généralement 100Mbits descendants pour 50Mbits montants (là on ne joue plus dans la même cour !).

Si la lenteur d’envoi d’un fichier est gênante sans être rédhibitoire, ce n’est pas forcément le cas si vous devez faire de la vidéo-conférence pour qui la qualité de la vidéo que vous allez envoyer à votre correspondant dépend grandement de votre débit montant, pareil pour ceux qui jouent en ligne, cela aura un impact sur le précieux “ping”, avec de l’ADSL 1Mb montant on peut espérer du 30ms au mieux alors qu’avec une liaison par câble 100Mb on descend à 5ms !

Pour vous donner une idée plus concrète, en ADSL on envoi l’équivalent d’un CD de données (700Mo) par heure, pour le câble vous multipliez par 5 et la fibre par 50 🙂 bien sûr ces chiffres sont des maximums dans le meilleur des mondes des bisounours-où-tout-va-bien-ça-bouchonne-nulle-part.

 

 



Achat de matériel technologique gare aux bugs !



Avec l’augmentation des cadences de production, la diminution de durée de vie des produits (obsolescence programmée) et la technique de plus en plus complexe, on voit régulièrement apparaître sur le marché des produits fabriqués à la “va vite” et pas pleinement testés, quitte à avoir un certain niveau d’insatisfaction client.

Les constructeurs (tout comme les développeurs de logiciels) ne prennent plus le temps de bien tester leurs productions et on se retrouve avec des erreurs de fonctionnements (les fameux “bugs”) dans tout les types d’appareils du lecteur MP3 au lecteur DVD, en passant par les ordinateurs, les smartphones et même les machines à laver et les voitures.

De ce type de produit il y a toujours des petits programmes/logiciels intégrés (souvent appelés “Firmware”) qui pilotent les parties mécaniques et électroniques du produit.

Tout irait pour le mieux si ce Firmware pouvait être facilement mis à jour mais ce n’est pas toujours le cas. De plus beaucoup de produits contenant des bugs ne sont plus suivis par le constructeur au bout de quelques mois et on se retrouve avec un matériel qui ne fonctionne pas correctement et qui ne sera jamais corrigé. Vous pouvez toujours tenter des poursuites pour vice caché mais c’est long et coûteux (et les fabricants le savent bien).

Pour les problèmes mécaniques et électroniques il est rare (mais pas impossible) de voir apparaître des solutions (souvent des cache-misère) au travers d’une mise à jour du Firmware.

Si aucune solution n’est proposée, la réponse qui énerve le plus est “achetez donc la nouvelle version du produit qui corrige ce problème et apporte de nouvelles fonctionnalités” mais pour ce qui est déjà de corriger l’existant… que dalle ! et là encore les fabricants jouent sur le fait que le client ne portera pas plainte.

L’exemple des constructeurs automobiles est encore pire car si un lecteur MP3 de poche ne coûte pas grand-chose, devoir changer une pièces moteur anormalement fragile pour cause de défaut de conception peu coûter plusieurs centaines d’euros, et si certains sont allés jusqu’au procès (et l’ont gagné), les constructeurs savent qu’il est plus rentable pour eux de perdre quelques procès que de corriger le problème à la source.

Je me souviens par contre d’une heureuse expérience (ok c’était il y a longtemps) avec un lecteur CD de marque Plextor (à l’époque un haut-de-gamme), du temps où leur Firmware ne pouvait pas être mis à jour via l’ordinateur. Ce lecteur avait du mal à lire des pistes audio à haute vitesse, j’ai donc appelé leur support technique qui m’a dit être au courant du problème et m’a envoyé par la poste, à leurs frais depuis la Belgique, la puce contenant une nouvelle version du Firmware que j’ai pu remplacer facilement au travers d’une petite trappe située sous le lecteur.

Il y a eu aussi le fameux bug mathématique des Pentium qui a provoqué l’échange de milliers de processeurs aux frais d’INTEL, je me souviens en avoir bénéficié.

Plus récemment il y a eu le problème de certains modèles de cartes graphiques NVIDIA pour ordinateurs portables qui surchauffaient, provoquant des dysfonctionnements ou une panne définitive de la carte graphique.

La solution à ce problème a été différente selon les constructeurs d’ordinateurs intégrant ces modèles de carte graphique. Dans le meilleur des cas certains ont proposé un retour SAV pour changer la carte, mais d’autres ont mis à jour le Firmware de l’ordinateur pour contourner le problème en faisant tourner le ventilateur plus vite (provoquant une gêne auditive), ou en abaissant sa vitesse de fonctionnement pour réduire la chaleur dégagée (et donc la faire fonctionner moins vite), d’autres ont étendu la période de garantie.

On a aussi des produits qui ne peuvent pas être corrigés sans changer leur conception, et là il faut attendre une évolution sur les chaînes de production ce qui est généralement la dernière solution envisagée par le constructeur.

Donc lorsque vous achetez un produit technologique, vérifiez si possible que celui-ci a un numéro de série ou une date de fabrication récente et s’il est possible de mettre à jour son Firmware (allez visiter leur site Internet côté support technique).

Une autre problème se pose, celui des batteries. Même si vous achetez un produit neuf (contenant une batterie), si celui-ci traîne dans les stocks depuis 1 an, c’est autant de perdu (ou presque) sur la durée de vie de cette batterie. Une batterie assemblée chimiquement, même inutilisée, est une batterie qui vieillie et qui perdra plus rapidement de sa capacité.



La poussière ennemie de la gravure !



Graver un CD ou DVD n’a rien de compliqué avec les logiciels actuels, il suffit de 2 ou 3 cliques de souris et le tour est joué.

Seulement parfois le CD peut avoir des difficultés à être relu à plus ou moins long terme… pourquoi donc ?

Parmis les multiples explications, en voici une qui ne demande pas de connaissances spécifiques mais juste d’avoir l’oeil en regardant cette image d’un CD que gravé (cliquez sur chaque image pour agrandir) :

puis ces deux-là passées au travers de différents filtres mettant  en évidence certains détails pas forcément visibles au premier coup d’oeil :

Lisez ensuite l’explication de la légende ci-dessous :

(A) Exemple de poussières avant gravure (particulièrement visibles avec le filtre appliqué de la troisième image).

Le plus gros problème que vous pouvez facilement éviter est celui de la présence de poussières/particules collées à la surface du CD avant la gravure, si la poussière n’est pas éjectée par la vitesse de rotation du CD celle-ci bloquera plus ou moins le laser et la surface située derrière risquera d’être mal gravée. La poussière pourra même provoquer un effet goutte d’eau qui altère aussi une petite zone autour de la poussière car un partie du laser peut être déviée de sa course ce qui fait qu’il va baver un peu autour et même avoir un effet de trainée dans le sens de rotation.

(B) Résultat après gravure.

Ici vous verrez l’effet goutte d’eau dont je vient de parler. J’ai même vu une petite particule blanche, de la forme d’un cheveux de 2 millimètres de long que je n’avais pas soufflé provenant des particules de papier de la pochettes qui était cartonnée. Cette particule est est ressortie carbonisée par le laser, mais toujours collée au CD.

(C) Défaut de collage des couches du CD à la fabrication.

Ca c’est un défaut contre lequel on ne peut rien et qui est dû à un mauvais pressage/collage entre les couches qui composent le CD. Si une bulle d’air est présente entre la surface à graver et le plastique, cette surface va se gondoler au passage du laser et produire ce résultat. On peut aussi parfois voir ce défaut dès le départ si la bulle d’air est trop grosse.

Du fait que la densité de données au centimètre carré est plus élevée sur un  DVD que sur un CD (et encore plus sur un Blue-Ray), une même poussière peturbera plus de données sur un DVD et encore plus sur un Blue-Ray.

Pensez donc toujours à vérifiez attentivement vos CD/DVD avant de les insérer dans le graveur et n’hésitez pas à faire jouer les sources de lumière car certaines poussières seront plus ou moins visible selon l’angle de vue.



Pourquoi je ne peux pas utiliser 100% de mon espace disque ?



Souvent quand on achète un disque on s’aperçoit qu’en réalité son espace utilisable est plus petit que celui affiché sur l’emballage… pourquoi ?

A cela il y a 3 raisons, une marketing et deux autres techniques :

  1. On a les messieurs du marketing qui considèrent pour tricher et mentir sur les chiffres et les grossir artificiellement simplifier les calculs que 1Ko, 1Mo ou 1Go sont des unités de 1.000, 1.000.000 ou 1.000.000.000 d’octets, hors en réalité on devrait avoir des Ko, Mo et Go “informatique” à savoir 1.024, 1.048.576 et 1.073.741.824 octets.

    Donc un 1Mo “marketing” ne fait en réalité que 951.424 octets réels et cette différence s’accentue au fur-et-à-mesure de l’augmentation de la taille du disque pour au final donner sur un disque de 160Go “marketing” un chiffre réel de seulement 141.3Go soit une perte réelle de près de 20Go soit 11%.
  2. A cela s’ajoute une nécessité technique qui, pour faire simple, découpe le disque en millions de petits secteurs de taille fixe de 4Ko, 8Ko, 16Ko, 32Ko ou 64Ko en fonction du  formatage utilisé, ces secteurs étant eux-même regroupés dans des unités d’allocation (des “clusters”) de 1 ou plusieurs secteurs, là encore ce chiffre est fixe en fonction du formatage utilisé.

    Quand un crée un fichier, celui-ci va utiliser un certain nombre de clusters en fonction de sa taille (ces clusters lui seront alloués de façon contigus ou pas en fontion de l’état de la fragmentation), mais un cluster entamé par un fichier ne peut être partagé avec un autre fichier ce qui fait que pour chaque fichier on perd toujours un peu de place à cause de l’arrondi sur le dernier cluster si celui-ci n’est pas rempli totalement (ce qui arrive le plus souvent car il n’y aura pas souvent de fichier dont la taille sera un multiple de celle d’un cluster), et si on cumule cette perte sur les milliers de fichiers occupant le disque, cela fini par faire beaucoup d’espace rendu inutilisable pour d’autre fichiers, de ce fait plus le nombre de fichiers sur le disque est grand plus on augmente cet espace perdu.

    Voici un exemple de d’espace perdu calculé en simulant différentes tailles de clusters :


    Si vous désirez savoir “à la louche” ce que représente cette perte, il suffit de multiplier le nombre des fichiers du disque par la moitié de la taille d’un cluster (sachant qu’en moyenne un fichier remplit 50% du dernier cluster qu’il utilise et sachant que par défaut une partition NTFS utilise des clusters de 4Ko cela fait en moyenne 2Ko de perdu par fichier présent sur le disque, sur un de mes disques contenant environ 700.000 fichiers avec une perte approximative de 1.4Go.
  3. Et enfin on a aussi une perte à cause de l’espace alloué par le système pour stocker la structure des fichiers/dossiers car il faut bien avoir un index quelque part permettant au système de savoir à quel endroit du disque est stocké tel ou tel fichier/dossier (comprenant la liste des numéros de clusters utilisés) avec son nom, sa date de création, modification, droits d’accès, plus une zone de stockage pour la journalisation si on est en NTFS etc…

    D’ailleurs lorsque l’on effectue une vérification du disque avec la commande “chkdsk” on obtient quelques détails sur ces espaces réservés :

    155284289 Ko d’espace disque au total.
    141880124 Ko dans 671953 fichiers. –> presque 700.000 fichiers, ça fait une chiffre
    257636 Ko dans 65215 index. –> réservé au système
    0 Ko dans des secteurs défectueux.
    858213 Ko utilisés par le système. –> réservé au système
    65536 Ko occupés par le fichier journal. –> réservé au système

    12288316 Ko disponibles sur le disque.4096 octets dans chaque unité d’allocation –> 4096 c’est la taille d’un cluster appelé ici “unité d’allocation”
    38821072 unités d’allocation au total sur le disque –> ça c’est le nombre de clusters total
    3072079 unités d’allocation disponibles sur le disque. –> et disponibles

Dons en résumé on a sur cette partition un espace réservé au système d’environ 1.2Go, auquel on ajoutera les arrondis de cluster de 1.4Go ce qui donne un total 2.6Go “non utilisables” pour vos propres fichiers, au final on se retrouve avec un disque de 160Go à moins de 139Go.

Une dernière chose, le système crée aussi des fichiers cachés que vous ne voyez pas par défaut, par exemple le fichier de mémoire virtuelle (appelé “swap file”) qui peut faire 1 ou 2Go (parfois plus parfois moins) ainsi que le fichier utilisé pour mettre l’ordinateur en hibernation et qui peut avoir une taille équivalente à la mémoire physique de la machine, par exemple 4Go, on aurait ainsi 6Go de plus qui “disparaissent” de l’espace utilisable.

Et voilà, comme d’habitude si mon explication n’est pas assez clair, voire érronée, n’hésitez pas à me le signaler.



Comment trouver ce qui prend de la place dans votre disque dur ?



Plus il y en a (de place), plus on en met (du bordel), c’est bien connu.

Aujourd’hui les disques durs dépassent facilement le Terra-octet (environ 1500 CD) et de ce fait on peut y mettre plein de choses. Ceci dit il arrive que l’on veuille faire un peu de ménage dans toutes ces musiques pirates et ces films téléchargés illégalement ainsi que toutes ces photos cochonnes de vacances qui prennent de la place.

A ce propos, pensez toujours à effectuer une sauvegarde régulière de vos données importantes  (sujet traité ici) car l’obsolescence programmée assistée de la loi de Murphy (aussi connue sous le nom de “loi de l’emmerdement maximum”) se feront un plaisir de s’assurer que votre disque dur tombe en panne au plus mauvais moment.

Il s’agit donc de trouver un moyen efficace de repérer les endroits les plus chargés sans avoir besoin de le faire manuellement, dossier par dossier, ce qui prend un certain temps.

Un certain nombre d’outils sont entièrement dédiés à cette fonction, chacun présentant le résultat de son analyse à sa manière et pourront aussi afficher les tailles regroupées par type de fichiers, par plage de taille ou de date.

J’en ai sélectionné 4 parmi les plus connus (même si certains ne me plaisent pas du tout) mais le simple fait qu’ils soient utilisés par des milliers de personnes fait que je dois en tenir compte.

Voici la liste des sélectionnés :

  • TreeSize Free (mon préféré pour sa taille mémoire et sa simplicité) et celui qui reçoit le label Dodutils
  • JDiskReport
  • WinDirStat
  • SpaceSniffer

J’ai effectué un test de chaque outil sur un disque contenant 140Go répartis dans un peu moins de 700.000 fichiers et 65.000 répertoires, question vitesse, TreeSize est premier, suivi de WinDirStat, puis plus tard vient SpaceSniffer et au final JDiskReport en bon dernier (ceci dit c’est du JAVA donc…).

Côté utilisation mémoire le classement est différent mais TreeSize reste en tête :

TreeSize Free 4Mo (65Mo max)
JDiskReport 106Mo (108Mo max)
WinDirStat 113Mo (141Mo max)
SpaceSniffer 146Mo (146Mo)

A noter que si on laisse tourner SpaceSniffer, une fois l’analyse terminée, celui-ci semble continuer à rafraîchir son graphique en temps réel suivant ainsi l’activité du disque.

Graphiquement, je n’aime pas la limitation du mode de visualisation de SpaceSniffer au mode Treemap qui affiche une multitude de carrés plus ou moins grand imbriqués les uns dans les autres, censés donner une idée de la répartition et franchement je ne suis pas fan, une affichage en liste est bien plus efficace surtout quand on cherche uniquement à voir les plus gros dossiers. JDiskReport et WinDirStat permettent au moins d’autres vues et TreeSize ne le propose pas du tout ce qui me convient.

JDiskReport permet d’afficher des répartitions par taille de fichiers (en 16 sections de quelques Ko à plusieurs Go) et par date/ancienneté. J’aime aussi les tons pastels utilisés pour les graphiques, c’est très agréable.

TreeSize reste pour moi le plus petit, rapide et moins gourmand en mémoire si on a juste besoin d’une vue en arborescence classée par taille de dossiers (une taille en terme d’espace occupé ou de nombre de fichiers), de plus il permet d’afficher au choix la taille réelle soit la taille allouée sur le disque qui est toujours supérieure.

Une petite explication sur cette différence entre taille réelle et taille allouée se trouve dans cet article.

A noter qu’il existe des outils beaucoup plus complets (mais payants) capables de comparer des analyses effectuées à différents moments afin de voir quels sont les dossiers les plus “mouvementés” ou ceux qui grossissent de plus en plus, et même suivre cela jour après jour sous forme de courbes, un de ces outils se nomme SpaceObServer dont le but est d’ailleurs d’être installé sur un serveur afin d’avoir un suivi précis de son occupation au fil des jours.



Machinarium



Voici un jeux (existe en version démo) qui permet de goûter à des graphismes somptueux et très travaillés façon BD, Machinarium est un casse-tête où vous jouez le rôle d’un petit robot dans un monde de robots. Vous pouvez aussi l’acheter pour pas cher via l’offre The Humble Indie Bundle dont le principe et de laisser aux acheteurs le soin de définir eux-même le prix du jeux.