Pourquoi l’envoi de données vers Internet est-il plus lent que la réception ?



Avez-vous déjà remarqué que télécharger un fichier sur Internet va plus vite que d’en envoyer un de taille équivalente ? mais pourkoi-komen-t-il-donk ?

La raison vient du fait que les connexions Internet grand-public ont une vitesse de communication “asymétrique” (donc différente selon le sens aller ou retour).

Pour faire simple on peut comparer une vitesse de communication asymétrique à une route de 4 voies 3 vont dans un sens et une seule dans l’autre, on a alors plus de voitures qui passent dans un sens que dans l’autre.

Par contre pour une communication “symétrique” on aurait autant de voies dans un sens que dans l’autre. Et plus la route est large plus on peut y faire passer de voitures ce qui correspondrait à une transmission des données plus rapide.

Si vous avez de l’ADSL, le câble, ou de la fibre optique en offre grand-public, vous serez (tout du moins à la date de rédaction de cet article) en mode asymétrique, alors qu’une liaison fibre “pro” ou de type SDSL sera symétrique (mais c’est liaisons sont coûteuses et donc plutôt réservées aux entreprises).

En ADSL, la largeur de la voie descendante (Internet -> vous) dépend de plusieurs éléments : la longueur de votre ligne téléphonique jusqu’au central, la composition de cette ligne en terme de tronçons (la ligne est rarement composée d’un câble d’un seul morceau), le diamètre de câble utilisé pour chaque tronçon, le parasitage électrique autour de la ligne.

Une fois allumé, votre boitier ADSL essaiera d’atteindre une “vitesse de synchronisation” la plus haute possible, sauf si un aspect commercial fait que cette vitesse sera volontairement réduite par rapport à ce que peut réellement supporter votre ligne, ou si votre ligne rencontre des perturbations et que votre opérateur Internet décide de temporairement de limiter cette vitesse pour rendre votre ligne plus stable.

Du côté de la voie descendante, sa vitesse sera relative à la largeur de la voie montante et fonctionnera par paliers : si vous avez une offre “20 mégas” la voie montante pourra aller de 640Kbits à 1Mbits (ça dépend parfois du type d’équipement plus ou moins ancien auquel votre ligne est reliée), si vous avez une offre “2 mégas” (par choix commercial ou obligation technique) vous aurez 320Kb montants, et avec une offre “1 méga” ou “512Kbits” vous aurez seulement 160Kb.

A titre de comparaison, une offre 100Mbits par le câble permet aujourd’hui d’avoir 5Mbits montants soit 5 fois celui de l’ADSL, et pour ceux qui ont la chance d’avoir accès à une offre fibre grand-public, celle-ci offre généralement 100Mbits descendants pour 50Mbits montants (là on ne joue plus dans la même cour !).

Si la lenteur d’envoi d’un fichier est gênante sans être rédhibitoire, ce n’est pas forcément le cas si vous devez faire de la vidéo-conférence pour qui la qualité de la vidéo que vous allez envoyer à votre correspondant dépend grandement de votre débit montant, pareil pour ceux qui jouent en ligne, cela aura un impact sur le précieux “ping”, avec de l’ADSL 1Mb montant on peut espérer du 30ms au mieux alors qu’avec une liaison par câble 100Mb on descend à 5ms !

Pour vous donner une idée plus concrète, en ADSL on envoi l’équivalent d’un CD de données (700Mo) par heure, pour le câble vous multipliez par 5 et la fibre par 50 🙂 bien sûr ces chiffres sont des maximums dans le meilleur des mondes des bisounours-où-tout-va-bien-ça-bouchonne-nulle-part.

 

 



Achat de matériel technologique gare aux bugs !



Avec l’augmentation des cadences de production, la diminution de durée de vie des produits (obsolescence programmée) et la technique de plus en plus complexe, on voit régulièrement apparaître sur le marché des produits fabriqués à la “va vite” et pas pleinement testés, quitte à avoir un certain niveau d’insatisfaction client.

Les constructeurs (tout comme les développeurs de logiciels) ne prennent plus le temps de bien tester leurs productions et on se retrouve avec des erreurs de fonctionnements (les fameux “bugs”) dans tout les types d’appareils du lecteur MP3 au lecteur DVD, en passant par les ordinateurs, les smartphones et même les machines à laver et les voitures.

De ce type de produit il y a toujours des petits programmes/logiciels intégrés (souvent appelés “Firmware”) qui pilotent les parties mécaniques et électroniques du produit.

Tout irait pour le mieux si ce Firmware pouvait être facilement mis à jour mais ce n’est pas toujours le cas. De plus beaucoup de produits contenant des bugs ne sont plus suivis par le constructeur au bout de quelques mois et on se retrouve avec un matériel qui ne fonctionne pas correctement et qui ne sera jamais corrigé. Vous pouvez toujours tenter des poursuites pour vice caché mais c’est long et coûteux (et les fabricants le savent bien).

Pour les problèmes mécaniques et électroniques il est rare (mais pas impossible) de voir apparaître des solutions (souvent des cache-misère) au travers d’une mise à jour du Firmware.

Si aucune solution n’est proposée, la réponse qui énerve le plus est “achetez donc la nouvelle version du produit qui corrige ce problème et apporte de nouvelles fonctionnalités” mais pour ce qui est déjà de corriger l’existant… que dalle ! et là encore les fabricants jouent sur le fait que le client ne portera pas plainte.

L’exemple des constructeurs automobiles est encore pire car si un lecteur MP3 de poche ne coûte pas grand-chose, devoir changer une pièces moteur anormalement fragile pour cause de défaut de conception peu coûter plusieurs centaines d’euros, et si certains sont allés jusqu’au procès (et l’ont gagné), les constructeurs savent qu’il est plus rentable pour eux de perdre quelques procès que de corriger le problème à la source.

Je me souviens par contre d’une heureuse expérience (ok c’était il y a longtemps) avec un lecteur CD de marque Plextor (à l’époque un haut-de-gamme), du temps où leur Firmware ne pouvait pas être mis à jour via l’ordinateur. Ce lecteur avait du mal à lire des pistes audio à haute vitesse, j’ai donc appelé leur support technique qui m’a dit être au courant du problème et m’a envoyé par la poste, à leurs frais depuis la Belgique, la puce contenant une nouvelle version du Firmware que j’ai pu remplacer facilement au travers d’une petite trappe située sous le lecteur.

Il y a eu aussi le fameux bug mathématique des Pentium qui a provoqué l’échange de milliers de processeurs aux frais d’INTEL, je me souviens en avoir bénéficié.

Plus récemment il y a eu le problème de certains modèles de cartes graphiques NVIDIA pour ordinateurs portables qui surchauffaient, provoquant des dysfonctionnements ou une panne définitive de la carte graphique.

La solution à ce problème a été différente selon les constructeurs d’ordinateurs intégrant ces modèles de carte graphique. Dans le meilleur des cas certains ont proposé un retour SAV pour changer la carte, mais d’autres ont mis à jour le Firmware de l’ordinateur pour contourner le problème en faisant tourner le ventilateur plus vite (provoquant une gêne auditive), ou en abaissant sa vitesse de fonctionnement pour réduire la chaleur dégagée (et donc la faire fonctionner moins vite), d’autres ont étendu la période de garantie.

On a aussi des produits qui ne peuvent pas être corrigés sans changer leur conception, et là il faut attendre une évolution sur les chaînes de production ce qui est généralement la dernière solution envisagée par le constructeur.

Donc lorsque vous achetez un produit technologique, vérifiez si possible que celui-ci a un numéro de série ou une date de fabrication récente et s’il est possible de mettre à jour son Firmware (allez visiter leur site Internet côté support technique).

Une autre problème se pose, celui des batteries. Même si vous achetez un produit neuf (contenant une batterie), si celui-ci traîne dans les stocks depuis 1 an, c’est autant de perdu (ou presque) sur la durée de vie de cette batterie. Une batterie assemblée chimiquement, même inutilisée, est une batterie qui vieillie et qui perdra plus rapidement de sa capacité.



La poussière ennemie de la gravure !



Graver un CD ou DVD n’a rien de compliqué avec les logiciels actuels, il suffit de 2 ou 3 cliques de souris et le tour est joué.

Seulement parfois le CD peut avoir des difficultés à être relu à plus ou moins long terme… pourquoi donc ?

Parmis les multiples explications, en voici une qui ne demande pas de connaissances spécifiques mais juste d’avoir l’oeil en regardant cette image d’un CD que gravé (cliquez sur chaque image pour agrandir) :

puis ces deux-là passées au travers de différents filtres mettant  en évidence certains détails pas forcément visibles au premier coup d’oeil :

Lisez ensuite l’explication de la légende ci-dessous :

(A) Exemple de poussières avant gravure (particulièrement visibles avec le filtre appliqué de la troisième image).

Le plus gros problème que vous pouvez facilement éviter est celui de la présence de poussières/particules collées à la surface du CD avant la gravure, si la poussière n’est pas éjectée par la vitesse de rotation du CD celle-ci bloquera plus ou moins le laser et la surface située derrière risquera d’être mal gravée. La poussière pourra même provoquer un effet goutte d’eau qui altère aussi une petite zone autour de la poussière car un partie du laser peut être déviée de sa course ce qui fait qu’il va baver un peu autour et même avoir un effet de trainée dans le sens de rotation.

(B) Résultat après gravure.

Ici vous verrez l’effet goutte d’eau dont je vient de parler. J’ai même vu une petite particule blanche, de la forme d’un cheveux de 2 millimètres de long que je n’avais pas soufflé provenant des particules de papier de la pochettes qui était cartonnée. Cette particule est est ressortie carbonisée par le laser, mais toujours collée au CD.

(C) Défaut de collage des couches du CD à la fabrication.

Ca c’est un défaut contre lequel on ne peut rien et qui est dû à un mauvais pressage/collage entre les couches qui composent le CD. Si une bulle d’air est présente entre la surface à graver et le plastique, cette surface va se gondoler au passage du laser et produire ce résultat. On peut aussi parfois voir ce défaut dès le départ si la bulle d’air est trop grosse.

Du fait que la densité de données au centimètre carré est plus élevée sur un  DVD que sur un CD (et encore plus sur un Blue-Ray), une même poussière peturbera plus de données sur un DVD et encore plus sur un Blue-Ray.

Pensez donc toujours à vérifiez attentivement vos CD/DVD avant de les insérer dans le graveur et n’hésitez pas à faire jouer les sources de lumière car certaines poussières seront plus ou moins visible selon l’angle de vue.



Pourquoi je ne peux pas utiliser 100% de mon espace disque ?



Souvent quand on achète un disque on s’aperçoit qu’en réalité son espace utilisable est plus petit que celui affiché sur l’emballage… pourquoi ?

A cela il y a 3 raisons, une marketing et deux autres techniques :

  1. On a les messieurs du marketing qui considèrent pour tricher et mentir sur les chiffres et les grossir artificiellement simplifier les calculs que 1Ko, 1Mo ou 1Go sont des unités de 1.000, 1.000.000 ou 1.000.000.000 d’octets, hors en réalité on devrait avoir des Ko, Mo et Go “informatique” à savoir 1.024, 1.048.576 et 1.073.741.824 octets.

    Donc un 1Mo “marketing” ne fait en réalité que 951.424 octets réels et cette différence s’accentue au fur-et-à-mesure de l’augmentation de la taille du disque pour au final donner sur un disque de 160Go “marketing” un chiffre réel de seulement 141.3Go soit une perte réelle de près de 20Go soit 11%.
  2. A cela s’ajoute une nécessité technique qui, pour faire simple, découpe le disque en millions de petits secteurs de taille fixe de 4Ko, 8Ko, 16Ko, 32Ko ou 64Ko en fonction du  formatage utilisé, ces secteurs étant eux-même regroupés dans des unités d’allocation (des “clusters”) de 1 ou plusieurs secteurs, là encore ce chiffre est fixe en fonction du formatage utilisé.

    Quand un crée un fichier, celui-ci va utiliser un certain nombre de clusters en fonction de sa taille (ces clusters lui seront alloués de façon contigus ou pas en fontion de l’état de la fragmentation), mais un cluster entamé par un fichier ne peut être partagé avec un autre fichier ce qui fait que pour chaque fichier on perd toujours un peu de place à cause de l’arrondi sur le dernier cluster si celui-ci n’est pas rempli totalement (ce qui arrive le plus souvent car il n’y aura pas souvent de fichier dont la taille sera un multiple de celle d’un cluster), et si on cumule cette perte sur les milliers de fichiers occupant le disque, cela fini par faire beaucoup d’espace rendu inutilisable pour d’autre fichiers, de ce fait plus le nombre de fichiers sur le disque est grand plus on augmente cet espace perdu.

    Voici un exemple de d’espace perdu calculé en simulant différentes tailles de clusters :


    Si vous désirez savoir “à la louche” ce que représente cette perte, il suffit de multiplier le nombre des fichiers du disque par la moitié de la taille d’un cluster (sachant qu’en moyenne un fichier remplit 50% du dernier cluster qu’il utilise et sachant que par défaut une partition NTFS utilise des clusters de 4Ko cela fait en moyenne 2Ko de perdu par fichier présent sur le disque, sur un de mes disques contenant environ 700.000 fichiers avec une perte approximative de 1.4Go.
  3. Et enfin on a aussi une perte à cause de l’espace alloué par le système pour stocker la structure des fichiers/dossiers car il faut bien avoir un index quelque part permettant au système de savoir à quel endroit du disque est stocké tel ou tel fichier/dossier (comprenant la liste des numéros de clusters utilisés) avec son nom, sa date de création, modification, droits d’accès, plus une zone de stockage pour la journalisation si on est en NTFS etc…

    D’ailleurs lorsque l’on effectue une vérification du disque avec la commande “chkdsk” on obtient quelques détails sur ces espaces réservés :

    155284289 Ko d’espace disque au total.
    141880124 Ko dans 671953 fichiers. –> presque 700.000 fichiers, ça fait une chiffre
    257636 Ko dans 65215 index. –> réservé au système
    0 Ko dans des secteurs défectueux.
    858213 Ko utilisés par le système. –> réservé au système
    65536 Ko occupés par le fichier journal. –> réservé au système

    12288316 Ko disponibles sur le disque.4096 octets dans chaque unité d’allocation –> 4096 c’est la taille d’un cluster appelé ici “unité d’allocation”
    38821072 unités d’allocation au total sur le disque –> ça c’est le nombre de clusters total
    3072079 unités d’allocation disponibles sur le disque. –> et disponibles

Dons en résumé on a sur cette partition un espace réservé au système d’environ 1.2Go, auquel on ajoutera les arrondis de cluster de 1.4Go ce qui donne un total 2.6Go “non utilisables” pour vos propres fichiers, au final on se retrouve avec un disque de 160Go à moins de 139Go.

Une dernière chose, le système crée aussi des fichiers cachés que vous ne voyez pas par défaut, par exemple le fichier de mémoire virtuelle (appelé “swap file”) qui peut faire 1 ou 2Go (parfois plus parfois moins) ainsi que le fichier utilisé pour mettre l’ordinateur en hibernation et qui peut avoir une taille équivalente à la mémoire physique de la machine, par exemple 4Go, on aurait ainsi 6Go de plus qui “disparaissent” de l’espace utilisable.

Et voilà, comme d’habitude si mon explication n’est pas assez clair, voire érronée, n’hésitez pas à me le signaler.



Comment trouver ce qui prend de la place dans votre disque dur ?



Plus il y en a (de place), plus on en met (du bordel), c’est bien connu.

Aujourd’hui les disques durs dépassent facilement le Terra-octet (environ 1500 CD) et de ce fait on peut y mettre plein de choses. Ceci dit il arrive que l’on veuille faire un peu de ménage dans toutes ces musiques pirates et ces films téléchargés illégalement ainsi que toutes ces photos cochonnes de vacances qui prennent de la place.

A ce propos, pensez toujours à effectuer une sauvegarde régulière de vos données importantes  (sujet traité ici) car l’obsolescence programmée assistée de la loi de Murphy (aussi connue sous le nom de “loi de l’emmerdement maximum”) se feront un plaisir de s’assurer que votre disque dur tombe en panne au plus mauvais moment.

Il s’agit donc de trouver un moyen efficace de repérer les endroits les plus chargés sans avoir besoin de le faire manuellement, dossier par dossier, ce qui prend un certain temps.

Un certain nombre d’outils sont entièrement dédiés à cette fonction, chacun présentant le résultat de son analyse à sa manière et pourront aussi afficher les tailles regroupées par type de fichiers, par plage de taille ou de date.

J’en ai sélectionné 4 parmi les plus connus (même si certains ne me plaisent pas du tout) mais le simple fait qu’ils soient utilisés par des milliers de personnes fait que je dois en tenir compte.

Voici la liste des sélectionnés :

  • TreeSize Free (mon préféré pour sa taille mémoire et sa simplicité) et celui qui reçoit le label Dodutils
  • JDiskReport
  • WinDirStat
  • SpaceSniffer

J’ai effectué un test de chaque outil sur un disque contenant 140Go répartis dans un peu moins de 700.000 fichiers et 65.000 répertoires, question vitesse, TreeSize est premier, suivi de WinDirStat, puis plus tard vient SpaceSniffer et au final JDiskReport en bon dernier (ceci dit c’est du JAVA donc…).

Côté utilisation mémoire le classement est différent mais TreeSize reste en tête :

TreeSize Free 4Mo (65Mo max)
JDiskReport 106Mo (108Mo max)
WinDirStat 113Mo (141Mo max)
SpaceSniffer 146Mo (146Mo)

A noter que si on laisse tourner SpaceSniffer, une fois l’analyse terminée, celui-ci semble continuer à rafraîchir son graphique en temps réel suivant ainsi l’activité du disque.

Graphiquement, je n’aime pas la limitation du mode de visualisation de SpaceSniffer au mode Treemap qui affiche une multitude de carrés plus ou moins grand imbriqués les uns dans les autres, censés donner une idée de la répartition et franchement je ne suis pas fan, une affichage en liste est bien plus efficace surtout quand on cherche uniquement à voir les plus gros dossiers. JDiskReport et WinDirStat permettent au moins d’autres vues et TreeSize ne le propose pas du tout ce qui me convient.

JDiskReport permet d’afficher des répartitions par taille de fichiers (en 16 sections de quelques Ko à plusieurs Go) et par date/ancienneté. J’aime aussi les tons pastels utilisés pour les graphiques, c’est très agréable.

TreeSize reste pour moi le plus petit, rapide et moins gourmand en mémoire si on a juste besoin d’une vue en arborescence classée par taille de dossiers (une taille en terme d’espace occupé ou de nombre de fichiers), de plus il permet d’afficher au choix la taille réelle soit la taille allouée sur le disque qui est toujours supérieure.

Une petite explication sur cette différence entre taille réelle et taille allouée se trouve dans cet article.

A noter qu’il existe des outils beaucoup plus complets (mais payants) capables de comparer des analyses effectuées à différents moments afin de voir quels sont les dossiers les plus “mouvementés” ou ceux qui grossissent de plus en plus, et même suivre cela jour après jour sous forme de courbes, un de ces outils se nomme SpaceObServer dont le but est d’ailleurs d’être installé sur un serveur afin d’avoir un suivi précis de son occupation au fil des jours.